Apple Intelligence pourrait être sur le point de bénéficier d’une mise à niveau majeure grâce à un partenariat inattendu avec Google.
Selon du code repéré dans iOS 18.4, une nouvelle rumeur suggère qu’Apple pourrait bientôt permettre à Google Gemini d’alimenter Apple Intelligence. Cette découverte, partagée sur X par l’analyste de MacRumors Aaron Perris (@aaronp613), révèle un extrait de code indiquant que les utilisateurs pourraient bientôt avoir la possibilité de choisir entre “Google” ou “OpenAI” pour les modèles d’IA tiers.
Depuis son annonce l’année dernière, Apple Intelligence repose sur ChatGPT d’OpenAI pour traiter les requêtes des utilisateurs. Cependant, la possibilité d’intégrer des modèles d’IA tiers est évoquée depuis plusieurs mois. Si Apple poursuit l’intégration de Gemini, cela pourrait renforcer les capacités d’Apple Intelligence, une fonctionnalité qui a jusqu’à présent reçu des avis mitigés de la part des utilisateurs d’iPhone.
Bien qu’aucun calendrier officiel ne soit annoncé, iOS 18.4 semble être la version la plus probable pour cette mise à jour. Cette prochaine version du système d’exploitation mobile d’Apple devrait introduire de nouvelles fonctionnalités basées sur l’IA, telles que :
Notifications prioritaires, qui organisent les alertes en fonction de leur importance
Mode Image Playground, un outil avancé de génération d’images par IA
Apple a adopté une approche prudente dans l’intégration de l’IA, contrairement à ses concurrents. Les smartphones Pixel de Google et d’autres appareils Android disposent déjà d’un large éventail d’améliorations basées sur l’IA. Alors que les utilisateurs d’iPhone attendent avec impatience des fonctionnalités alimentées par l’IA, Apple semble déléguer une partie du travail à des modèles tiers comme ChatGPT d’OpenAI et Gemini de Google, plutôt que de tout développer en interne.
Google fait un grand pas en avant pour renforcer la sécurité de Gmail en abandonnant l’authentification basée sur les SMS au profit de la vérification par code QR. Selon un rapport de Davey Winder pour Forbes, des sources internes indiquent que l’entreprise prévoit de supprimer progressivement l’authentification à deux facteurs (2FA) par SMS en raison de ses vulnérabilités persistantes face au phishing, à l’usurpation d’identité et aux cyberattaques.
Pourquoi Google abandonne-t-il l’authentification par SMS ?
Depuis des années, l’authentification 2FA basée sur les SMS est considérée comme l’un des maillons les plus faibles en matière de cybersécurité. Les hackers disposent de plusieurs méthodes pour l’exploiter, notamment l’usurpation de carte SIM (SIM swapping), les attaques par hameçonnage (phishing) et les attaques de type man-in-the-middle qui interceptent les codes de vérification envoyés par SMS.
Pour contrer ces risques, Google introduit une méthode plus sécurisée. Désormais, au lieu de recevoir un code à six chiffres par SMS, les utilisateurs qui tentent de se connecter à Gmail sur un nouvel appareil devront scanner un code QR avec l’appareil photo de leur smartphone. Cette approche complique considérablement l’accès non autorisé, car les pirates auraient besoin du contrôle physique du smartphone de l’utilisateur plutôt que simplement de son numéro de téléphone.
>>>460581-001 pour HP EVA4400 AG637-63601 460581-001
Ross Richendrfer, responsable de la communication sur la sécurité et la confidentialité pour Google Workspace, a confirmé que cette transition vers les codes QR arrivera bientôt. Il a expliqué que cette nouvelle méthode d’authentification permettra de “réduire le risque de phishing pour les utilisateurs de Gmail” et d’éliminer les failles de sécurité liées aux opérateurs mobiles, qui ont longtemps constitué un point faible de la vérification par SMS.
Bien que Google n’ait pas encore communiqué de date précise pour ce déploiement, Richendrfer a laissé entendre que les utilisateurs “peuvent s’attendre à plus de mises à jour dans un avenir proche.”
Apple a officiellement dévoilé la prochaine étape de ses initiatives en matière d’IA sous la bannière Apple Intelligence, avec les mises à jour très attendues iOS 18.4 et iPadOS 18.4 prévues pour avril. Cette mise à jour marque un jalon important, car Apple Intelligence sera disponible pour la première fois pour les utilisateurs de l’UE.
La nouvelle mise à jour apporte plusieurs fonctionnalités clés, y compris le support de langues supplémentaires. Les utilisateurs peuvent désormais accéder à Apple Intelligence en français, allemand, italien, portugais (Brésil), espagnol, japonais, coréen, chinois simplifié et anglais localisé pour Singapour et Inde. Cette expansion rend Apple Intelligence disponible dans “presque toutes les régions du monde”, selon l’entreprise.
>>>>AppleA1045 Batterie pour PowerBook G4 15-inch Aluminum series
En plus des améliorations linguistiques, Apple Intelligence sera intégré au Apple Vision Pro, bien que dans un premier temps, il ne supportera que l’anglais des États-Unis. Cette intégration vise à aider les utilisateurs à communiquer, collaborer et s’exprimer de manière nouvelle et innovante.
Bien que ces mises à jour soient excitantes, Apple a également confirmé que les améliorations de l’IA de Siri ne seront pas disponibles avec iOS 18.4 et iPadOS 18.4. L’entreprise a indiqué que d’autres fonctionnalités pour Siri et une expansion supplémentaire de Apple Intelligence seront déployées dans les mois à venir. Ainsi, bien que la transformation IA de Siri ne soit pas encore prête, il est clair qu’Apple prévoit de continuer à développer ses capacités en matière d’IA au fil du temps.
Asus a introduit une nouvelle version de la souris d’ordinateur traditionnelle avec la souris parfumée, conçue pour contenir des huiles aromatiques qui diffusent des senteurs agréables pendant que vous travaillez ou jouez. La souris dispose d’un flacon rechargeable pour huiles essentielles, permettant aux utilisateurs de la remplir avec leurs parfums préférés. Ce flacon est amovible, ce qui facilite son nettoyage ou son remplissage.
En plus de sa fonctionnalité olfactive, la souris parfumée offre des performances standards avec une forme profilée pour plus de confort, des semelles PTFE pour des déplacements fluides, et des réglages DPI ajustables (1200, 1600, 2400). Les interrupteurs à faible bruit sont durables, avec une durée de vie estimée à 10 millions de clics, et la souris utilise une pile AA avec une autonomie annoncée allant jusqu’à un an. Elle se connecte via Bluetooth ou un dongle USB-A 2,4 GHz, qui peut être rangé à l’intérieur du compartiment de la batterie.
Disponible en blanc irisé et argile rose, la souris parfumée apporte à la fois une mise à niveau visuelle et sensorielle à votre configuration de bureau. Cependant, les détails concernant le prix et la disponibilité n’ont pas encore été divulgués. Ce produit innovant promet de rendre votre expérience informatique plus immersive, en ajoutant une nouvelle dimension à la souris classique.
Une nouvelle excitante pour les passionnés de technologie : le RedmiBook Pro (2025) sera lancé le 2 mars 2025, aux côtés du très attendu Xiaomi 15 Ultra. Cette information a d’abord été divulguée par Digital Chat Station, puis confirmée par Lu Weibing, le président partenaire de Xiaomi, sur Weibo.
Le RedmiBook Pro (2025) sera une version améliorée du déjà impressionnant RedmiBook (2025), que Xiaomi a positionné comme un concurrent du MacBook Air. Ce qui distingue véritablement le modèle Pro, c’est son intégration de la technologie AI. Xiaomi prévoit de présenter le Pro comme son premier ordinateur portable alimenté par l’IA, avec l’assistant XiaoAI, que l’on retrouve généralement dans les appareils de maison intelligente Mijia de la marque.
En plus des fonctionnalités AI, le directeur du marketing produit de Xiaomi, Ma Zhiyu, a donné un aperçu de l’emballage du laptop sur Weibo, ce qui a ajouté à l’excitation générale. Le post suggère également que la version Pro sera équipée du processeur Intel Core Ultra 5, offrant une amélioration significative des performances par rapport au modèle standard.
Le RedmiBook Pro (2025) ne se limite pas à la puissance ; il serait également équipé d’une batterie de 99 watt-heures, garantissant une autonomie impressionnante pour de longues heures d’utilisation. Et pour les joueurs, une nouvelle encore meilleure : malgré son profil mince, l’ordinateur portable devrait être capable de faire tourner Black Myth: Wukong à 59-75 fps, prouvant qu’il est bien plus que capable de gérer des jeux exigeants.
Avec tout ce qu’il a à offrir, le RedmiBook Pro (2025) est à surveiller de près, et nous avons hâte de le voir arriver sur les étagères le mois prochain.
De nouvelles rumeurs concernant l’iPhone 17 Air suggèrent que le modèle à venir pourrait disposer d’un écran de 6,7 pouces, légèrement plus grand que l’écran de 6,6 pouces qui était initialement prévu. Cette mise à jour provient de Jon Prosser dans le podcast Recycle Bin, qui a également souligné que des rapports antérieurs de Ross Young indiquaient que l’iPhone 17 Air pourrait avoir un écran de 6,55 pouces, arrondi à 6,6 pouces.
En plus de la taille de l’écran, Prosser a également mentionné que l’iPhone 17 Air pourrait mesurer 5,64 mm d’épaisseur, sans inclure la barre de la caméra arrière. Cela est légèrement plus épais que les 5,5 mm d’épaisseur prédits par l’analyste bien connu Ming-Chi Kuo, bien que la différence soit minime et puisse facilement être dans la marge d’erreur.
Bien que Prosser soit un leaker respecté dans le domaine de la technologie, connu pour avoir révélé les designs de l’AirTag et des détails sur l’iPad mini 6 avant leurs annonces officielles, son bilan avec les rumeurs concernant Apple n’est pas toujours parfait. Par exemple, il faisait partie de ceux qui avaient prédit à tort que l’Apple Watch Series 7 aurait des bords plats. Cependant, il est possible qu’Apple ait testé ce design à un moment donné.
Ces dernières semaines, Prosser a également partagé des détails sur l’iPhone 17 Pro et l’iPhone 17 Air, ainsi que sa revendication selon laquelle iOS 19 comportera une application Caméra repensée avec une interface similaire à visionOS.
Apple devrait annoncer officiellement l’iPhone 17 Air lors de son événement habituel en septembre plus tard cette année.
Le Vivo X200 Ultra devrait être lancé en Chine à la mi-fin avril, en même temps que le X200s. Un nouveau détail a émergé sur Weibo à propos du X200 Ultra, révélant un nouveau bouton d’action situé sur la partie inférieure du cadre droit. Ce bouton servira principalement de bouton de caméra, mais il pourrait aussi être personnalisable, permettant aux utilisateurs d’assigner d’autres actions.
Le X200 Ultra disposera d’une configuration à triple caméra arrière, comprenant une caméra principale de 50 MP, une ultra grand angle de 50 MP, et une caméra périscopique téléphoto de 200 MP. Il sera également équipé d’un chip de traitement d’image développé en interne pour améliorer le traitement des photos.
Parallèlement au X200 Ultra et au X200s, qui seront équipés du chipset MediaTek Dimensity 9400+, vivo devrait également lancer une tablette de niveau flagship en même temps.
Microsoft s’est associé à Teachable AI Experiences et à Ninja Theory de Xbox Game Studios pour introduire un modèle d’IA de pointe conçu pour aider les développeurs de jeux. Le nouveau modèle s’appelle Muse.
Qu’est-ce que Muse est capable de faire ?
Muse a la capacité de générer des visuels de jeu et des actions de contrôleur en interprétant une compréhension en 3D d’un jeu. Le modèle a été formé sur 1,6 milliard de paramètres, en utilisant un ensemble de données de 1 milliard d’images et d’actions de contrôleur — l’équivalent d’environ 7 ans de jeu humain continu. Les données d’entraînement proviennent principalement du jeu Bleeding Edge de Ninja Theory.
Les données ont été collectées avec le consentement des utilisateurs ayant contribué avec des données de jeu. Le modèle traite les visuels et les actions de contrôleur enregistrées à une résolution de 300 x 180px. En conséquence, Muse peut générer jusqu’à des séries de 2 minutes et prédire l’évolution future du jeu en mode modèle du monde. Les démonstrations ont montré que le modèle pouvait gérer efficacement les changements de caméra, les choix de parcours, et même la création de nouveaux personnages, tout en respectant la physique du jeu.
>>>BTE-002 for Fukuda FX-8322/R FX-8600 FCP-8321 FCP-8453 510114040
Microsoft a déjà commencé à utiliser Muse pour développer des modèles d’IA jouables en temps réel formés dans d’autres jeux. Cette capacité permet aux développeurs d’expérimenter de nouveaux concepts et peut-être même d’étendre les titres existants.
Une autre possibilité excitante est l’implémentation de jeux rétro pour anciens matériels. Le modèle d’IA pourrait être utilisé pour adapter les jeux classiques et vintage afin de les faire fonctionner sur des machines modernes.
Les poids du modèle, les données d’échantillons et le modèle mondial et d’action humaine (WHAM) de Muse sont tous accessibles via Azure AI Foundry. De plus, des démos interactives de jeux IA seront disponibles via Copilot Labs plus tard cette année.
Google étend la fonctionnalité de Google Lens à iOS avec une nouvelle fonction appelée Écran de Recherche avec Google Lens, qui est essentiellement une version de la populaire fonctionnalité Circle to Search sur Android, mais avec quelques différences clés.
Qu’est-ce que l’Écran de Recherche avec Google Lens ?
La fonctionnalité Écran de Recherche avec Google Lens permet aux utilisateurs iOS d’effectuer des recherches visuelles de manière plus simple, directement dans le navigateur Chrome et l’application Google. Elle peut être activée via le menu à trois points dans ces deux applications sur iOS, offrant une manière fluide de rechercher des objets, du texte et d’autres contenus de manière visuelle pendant la navigation ou l’exploration dans les applications.
Une fois activée, les utilisateurs peuvent effectuer des recherches visuelles avec pratiquement n’importe quel geste qui leur semble naturel, comme dessiner, mettre en surbrillance, ou taper sur l’écran. Ces gestes déclenchent une recherche via Google Lens qui identifie des objets, du texte ou même des monuments, offrant ainsi des informations et des ressources utiles à leur sujet.
Une chose importante à noter est que cette fonctionnalité sera limitée à Chrome et à l’application Google sur iOS. Contrairement à Android, où la fonctionnalité Circle to Search peut être utilisée de manière systémique à travers toutes les applications, les utilisateurs d’iOS ne pourront pas utiliser la recherche visuelle dans d’autres applications ou dans l’interface iOS elle-même. La fonctionnalité se limite à Chrome et à l’application Google, ce qui signifie que, pour l’instant, les utilisateurs d’iOS devront utiliser ces applications pour profiter de l’Écran de Recherche avec Google Lens.
Google reconnaît cette limitation, expliquant qu’elle résulte des restrictions du système imposées par Apple, car l’entreprise n’autorise pas les fonctionnalités systémiques de cette nature.
Pour accéder à cette fonctionnalité, les utilisateurs iOS n’ont qu’à ouvrir Chrome ou l’application Google, tapoter sur le menu à trois points dans l’une ou l’autre des applications, puis sélectionner l’option Écran de Recherche avec Google Lens. Ensuite, ils peuvent interagir avec l’écran de la manière qui leur semble la plus naturelle, que ce soit en dessinant sur un objet, en mettant en surbrillance du texte, ou simplement en tapotant dessus.
Cela élimine la nécessité d’étapes supplémentaires comme prendre des captures d’écran ou ouvrir un nouvel onglet pour effectuer une recherche visuelle, rendant ainsi la recherche d’informations plus pratique pendant la navigation.
De plus, Google prévoit d’ajouter une icône Google Lens directement dans la barre d’adresse de Chrome, ce qui facilitera encore davantage l’initiation d’une recherche visuelle. Cela permettra aux utilisateurs de simplement appuyer sur l’icône pour effectuer une recherche via Google Lens, simplifiant ainsi le processus.
Aperçus AI pour les Recherches Visuelles
En plus de cette fonctionnalité, Google Lens commencera à afficher des aperçus AI pour les recherches visuelles. Ces aperçus fonctionnent de manière similaire aux résumés fournis par Google Search pour les requêtes textuelles. Lorsqu’un utilisateur utilise Google Lens pour identifier des objets ou des éléments, les aperçus alimentés par l’IA l’aideront à comprendre rapidement ce qu’il est en train de regarder, offrant un contexte pertinent ainsi que des liens vers des ressources utiles.
Cette addition vise à rendre les recherches visuelles encore plus informatives et efficaces en fournissant un contexte supplémentaire pour les objets ou contenus que les utilisateurs examinent avec Google Lens.
>>>8000-0860-01 pour Zoll 8000-0860-30 1008-1003-01 1008-002003-30
La mise à jour Écran de Recherche avec Google Lens est en cours de déploiement cette semaine et sera disponible à l’échelle mondiale pour Chrome et l’application Google sur iOS.
Apple s’apprête à déployer un ensemble de nouvelles fonctionnalités Apple Intelligence dans le cadre des mises à jour à venir de iOS 18.4 et iPadOS 18.4. Ces mises à jour sont programmées pour débuter en avril 2024, et elles introduiront plusieurs nouvelles fonctions, notamment un élargissement du support des langues et une amélioration potentielle des capacités de Siri.
Nouvelles Fonctionnalités Clés de iOS 18.4 et iPadOS 18.4
Expansion du Support des Langues
L’une des modifications les plus significatives concerne l’expansion du support linguistique pour Apple Intelligence. Avec la mise à jour 18.4, Apple Intelligence prendra en charge les langues suivantes :
Chinois (simplifié)
Anglais (Inde, Singapour)
Français
Allemand
Italien
Japonais
Coréen
Portugais (Brésil)
Espagnol
Cela rendra Apple Intelligence plus accessible à un public mondial, améliorant la capacité de Siri à comprendre et à répondre dans un plus large éventail de langues.
Apple s’attendait à ce que Siri bénéficie d’améliorations notables avec iOS 18.4 et iPadOS 18.4, y compris de meilleures fonctionnalités de contexte personnel, permettant à Siri de mieux comprendre les utilisateurs et de fournir des réponses plus précises et utiles. Cela pourrait impliquer la compréhension des préférences ou habitudes des utilisateurs au fil du temps, permettant à Siri d’agir de manière plus intuitive.
Cependant, des rumeurs récentes suggèrent que ces améliorations de Siri pourraient encore être retardées. Si cela s’avère exact, cela signifie que certaines capacités attendues, comme la possibilité pour Siri d’effectuer des tâches complexes au sein des applications, de transférer des actions entre les apps ou de donner des réponses plus personnalisées, ne seront peut-être pas disponibles avec cette version.
Fonctionnalités de Conscience de l’Écran
Une autre fonctionnalité attendue est la conscience de l’écran, qui permettrait à Siri de répondre en fonction de ce qui est actuellement affiché à l’écran. Ce mécanisme fonctionnerait de manière similaire à la fonction Google Lens ‘Circle to Search’, permettant aux utilisateurs de prendre une photo de quelque chose et d’obtenir plus de contexte. Apple Intelligence pourrait utiliser cette fonctionnalité pour aider les utilisateurs à interagir avec le contenu d’une manière plus significative, en exploitant le contexte de l’écran pour des actions plus intelligentes.
Tests Bêta et Lancement Public
Apple devrait publier la première bêta de iOS 18.4 et iPadOS 18.4la semaine prochaine, offrant aux développeurs et aux testeurs un aperçu des nouvelles fonctionnalités. Comme pour tout logiciel bêta, les utilisateurs peuvent s’attendre à rencontrer des bugs ou des fonctionnalités incomplètes durant cette phase. Cependant, une fois la version publique lancée en avril, nous découvrirons la liste finale des fonctionnalités disponibles pour les utilisateurs d’iPhone et d’iPad du monde entier.
Nous aurons probablement plus de précisions après le lancement de la première bêta, et les annonces officielles d’Apple confirmeront quelles fonctionnalités seront entièrement opérationnelles lors de la sortie d’avril. Pour l’instant, les utilisateurs peuvent s’attendre à un Siri plus performant et un support linguistique élargi, améliorant ainsi l’expérience globale avec l’écosystème de produits d’Apple.