La semaine dernière, Monica, une entreprise d’intelligence artificielle appartenant au groupe chinois The Butterfly Effect, a révélé Manus AI, un nouvel agent d’IA présenté comme une intelligence artificielle généraliste. Contrairement à de nombreux modèles existants, Manus AI est conçu pour gérer des tâches extrêmement complexes dans divers domaines.
Qu’est-ce qui différencie Manus AI ?
Contrairement aux agents d’IA d’OpenAI (Operator), Google (Gemini Deep Research) ou Salesforce (Agentforce), qui se concentrent principalement sur des tâches spécifiques, Monica affirme que Manus AI peut exécuter un large éventail d’activités, notamment :
Planification de voyages
Analyse de marchés financiers et de portefeuilles d’investissement
Manus AI fonctionne dans un environnement informatique sécurisé et isolé, exécutant ses tâches de manière asynchrone dans le cloud. L’IA repose sur plusieurs grands modèles de langage (LLMs), mais l’entreprise n’a pas précisé lesquels.
Après la diffusion virale d’une vidéo de démonstration, certains membres de la communauté IA chinoise ont comparé Manus AI à un “deuxième moment DeepSeek”, en référence au succès des modèles IA de DeepSeek. Cependant, en l’absence de transparence sur sa technologie, les capacités réelles de Manus AI restent à prouver.
Monica affirme que Manus AI surpasse DeepResearch d’OpenAI sur le benchmark GAIA (General AI Assistant), mais ces résultats n’ont pas encore été validés de manière indépendante.
Actuellement, Manus AI est réservé à un nombre limité de testeurs, et aucune date de lancement public n’a été annoncée. L’entreprise a promis de partager plus d’informations avec la communauté open source, mais le manque de transparence suscite des doutes sur la crédibilité de ses revendications.
Elgato a lancé Wave Link 2.0, une version améliorée de son logiciel de gestion audio pour le streaming, intégrant des améliorations vocales basées sur l’intelligence artificielle (IA) ainsi qu’un système avancé de gestion audio au niveau du système d’exploitation. Cette mise à jour introduit un traitement audio avancé, un routage du son optimisé et une intégration plus poussée avec l’écosystème matériel d’Elgato, en faisant un outil puissant pour les streamers, créateurs de contenu et professionnels cherchant un contrôle précis de leur environnement sonore.
Améliorations vocales et suppression du bruit grâce à l’IA
L’un des points forts de Wave Link 2.0 est sa fonction AI-driven Voice Focus, développée en collaboration avec AIcoustics. Cette technologie permet d’éliminer les bruits de fond et de corriger les problèmes acoustiques, garantissant une qualité audio professionnelle, quel que soit l’environnement d’enregistrement.
De plus, Wave Link prend désormais en charge des effets audio personnalisés, permettant aux utilisateurs d’affiner leur son avec des plugins tiers. Que vous souhaitiez ajuster la réverbération, la compression ou l’égalisation (EQ), cette mise à jour offre une flexibilité accrue pour obtenir un rendu sonore parfaitement adapté à vos besoins.
Routage audio avancé et intégration avec Stream Deck
Wave Link 2.0 fonctionne désormais comme un gestionnaire audio complet pour Windows, similaire à SteelSeries GG, prenant en charge le traitement audio au niveau du système. Les utilisateurs peuvent désormais :
Routage audio vers des applications ou sorties spécifiques
Séparer l’audio entre ce que vous entendez et ce que votre audience perçoit
Couper rapidement des canaux ou appliquer des effets en temps réel
Regrouper plusieurs applications en un seul canal d’entrée pour une gestion plus fluide
Elgato a également amélioré son intégration avec le Stream Deck, facilitant ainsi le contrôle des niveaux audio. La fonction “ajouter au Stream Deck” permet aux utilisateurs de créer des boutons personnalisés pour ajuster le volume, tandis que les molettes du Stream Deck Plus et les pédales peuvent être synchronisées avec Wave Link pour un réglage audio intuitif.
Wave Link 2.0 est disponible dès maintenant et est compatible avec les micros Elgato ainsi que le système de contrôle Stream Deck. Toutefois, pour profiter du mixage audio à faible latence et des fonctionnalités avancées, les utilisateurs devront disposer soit d’un micro Elgato, soit d’un Stream Deck Plus.
Le modèle de raisonnement DeepSeek-R1 récemment lancé a fait des vagues dans le domaine de l’IA, offrant des performances comparables à celles des modèles d’IA américains bien établis, mais à un coût considérablement plus bas. Cela a poussé de nombreux utilisateurs à se tourner vers l’outil d’IA DeepSeek, propulsant ainsi sa popularité sur les plateformes iOS et Android.
Cependant, à mesure que DeepSeek gagne en popularité, il fait face à une série de menaces de sécurité, notamment des escroqueries, des malwares et des problèmes de confidentialité. Examinons de plus près la popularité croissante de DeepSeek, les risques associés à son utilisation et comment il est mal utilisé par des cybercriminels.
La popularité rapide de DeepSeek et les préoccupations de sécurité
Malgré le fait que le modèle d’IA open-source de DeepSeek se soit révélé économique et puissant, l’entreprise a rencontré des problèmes de pannes et de dégradation des performances. Ces problèmes sont apparemment dus à des attaques malveillantes à grande échelle ciblant l’infrastructure de DeepSeek. En réponse, l’entreprise a été contrainte de limiter temporairement les nouvelles inscriptions.
Mais même face à ces défis, la popularité croissante de DeepSeek ne montre aucun signe de ralentissement. L’entreprise a attiré l’attention en raison de ses pratiques de stockage des données, qui, selon sa politique de confidentialité, impliquent le stockage de certaines données utilisateur sur des serveurs sécurisés en République Populaire de Chine. Bien que cela soulève des préoccupations concernant la confidentialité des données et la façon dont ces données pourraient être utilisées (par exemple pour améliorer l’entraînement de l’IA), cela n’a pas freiné la base d’utilisateurs du modèle.
Le côté sombre de DeepSeek : escroqueries, malwares et phishing
À mesure que DeepSeek gagne en popularité, les cybercriminels ont déjà commencé à exploiter son nom à des fins malveillantes. Des tokens crypto-factices, déguisés en produits officiels de DeepSeek, ont inondé le marché, trompant les utilisateurs et les incitant à investir dans des arnaques. DeepSeek a précisé qu’il n’a émis aucune cryptomonnaie et a exhorté les utilisateurs à rester prudents lorsqu’ils interagissent avec des comptes non officiels.
Similaire à l’ascension de ChatGPT, la popularité de DeepSeek a fait de lui une cible privilégiée pour les escrocs cherchant à exploiter l’enthousiasme des utilisateurs. Des sites Web clonés et des applications malveillantes (sur mobile et bureau) ont vu le jour, se faisant passer pour des services DeepSeek afin de distribuer des malwares et tromper les utilisateurs en leur faisant fournir des informations personnelles ou en s’inscrivant à des abonnements frauduleux. Des campagnes de phishing imitant DeepSeek circulent également, espérant voler les données sensibles des utilisateurs.
Des chercheurs de l’entreprise de cybersécurité KELA ont révélé que DeepSeek est vulnérable au jailbreak, ce qui permet aux utilisateurs de contourner les restrictions et d’accéder à des contenus dangereux ou interdits de l’outil d’IA. Cela pourrait être exploité par des criminels pour générer divers contenus malveillants à des fins illégales, comme :
Emails de phishing rédigés dans plusieurs langues sans erreurs, répliquant le ton et le style des expéditeurs légitimes.
Sites Web frauduleux, imitant des marques de confiance ou même lançant de fausses boutiques en ligne.
Avis produits générés par l’IA conçus pour infiltrer les plateformes légitimes de commerce en ligne.
À mesure que la popularité de DeepSeek augmente, on peut s’attendre à ce que son utilisation se prolifère dans des campagnes de compromission des emails professionnels (BEC) et des fraudes financières, car des outils d’IA comme DeepSeek peuvent facilement automatiser la création de matériaux de scam convaincants.
Les risques pour la confidentialité des données et la sécurité
Comme pour d’autres outils alimentés par l’IA, DeepSeek présente des risques inhérents pour la sécurité des données. La manière dont DeepSeek fonctionne signifie que des informations sensibles, propriétaires ou confidentielles peuvent potentiellement être saisies dans le système. Cela représente une menace sérieuse pour les organisations et les individus.
Un exemple notable de prudence accrue est la décision de la Marine américaine, qui a officiellement interdit DeepSeek pour tout usage professionnel ou personnel au sein de ses rangs. Cette interdiction fait suite au danger évident que DeepSeek représente pour la sécurité des données et la confidentialité, et reflète les préoccupations concernant le risque de fuite d’informations sensibles.
Comment atténuer les risques liés à l’utilisation de DeepSeek
Étant donné les menaces entourant l’utilisation de DeepSeek, les organisations doivent adopter une approche proactive pour sensibiliser les employés aux risques liés à l’interaction avec des modèles d’IA comme DeepSeek, notamment lorsqu’il s’agit de traiter des données sensibles. Voici quelques pratiques clés qui peuvent aider à atténuer ces risques :
Éducation des utilisateurs : Les organisations doivent fournir une formation approfondie pour s’assurer que les utilisateurs comprennent les risques liés à la saisie de données sensibles dans des outils d’IA. Cette éducation devrait couvrir les dangers potentiels du phishing, des malwares et du vol de données.
Contrôle de l’accès : Renforcer l’accès à DeepSeek par des politiques de pare-feu, ou bloquer l’accès à l’application sur les réseaux d’entreprise, peut aider à minimiser l’exposition au modèle.
Installation locale de DeepSeek : Pour ceux qui souhaitent utiliser DeepSeek sans compromettre la sécurité des données, une option consiste à installer le modèle localement sur un ordinateur personnel ou professionnel. Cela peut empêcher les données sensibles d’être téléchargées sur les serveurs de DeepSeek et réduire l’exposition à d’éventuelles violations.
OpenAI a terminé le développement de son dernier modèle d’IA de raisonnement, o3 mini, et prévoit de le lancer dans les prochaines semaines, a annoncé Sam Altman, PDG de l’entreprise, ce vendredi.La société, qui bénéficie du soutien de Microsoft, a pris en compte les retours des utilisateurs et prévoit donc de publier à la fois la mise à jour de ChatGPT et son API simultanément, a partagé Altman sur la plateforme sociale X.
Cette annonce intervient alors que la concurrence dans le secteur de l’IA s’intensifie, OpenAI étant en rivalité avec Google (Alphabet Inc.) pour développer des modèles plus avancés capables de résoudre des problèmes de plus en plus complexes.En décembre dernier, OpenAI a révélé qu’elle testait o3 et o3 mini, marquant une avancée majeure dans les capacités de raisonnement de l’IA. À l’origine, la société prévoyait de lancer o3 mini d’ici la fin janvier, suivi du modèle complet o3. Ces deux modèles sont attendus pour surpasser les performances actuelles et attirer de nouveaux investissements et utilisateurs.
Cette nouvelle génération s’appuie sur les progrès précédents d’OpenAI.En septembre 2024, la société a introduit les modèles d’IA o1, conçus pour passer plus de temps à traiter les requêtes afin d’améliorer la résolution de problèmes dans des domaines tels que les sciences, la programmation et les mathématiques.OpenAI affirme que o3 et o3 mini seront encore plus puissants, renforçant ainsi leur capacité à gérer des tâches de raisonnement avancées.
Au-delà du développement des modèles, OpenAI progresse également dans le domaine des assistants virtuels alimentés par l’IA.Cette semaine, l’entreprise a annoncé une nouvelle fonctionnalité bêta appelée “Tasks” pour ChatGPT, se positionnant ainsi comme un concurrent direct de Siri d’Apple et Alexa d’Amazon.Cette initiative marque l’entrée d’OpenAI dans le marché des assistants virtuels, élargissant son champ d’action au-delà des simples chatbots.
>>>515783ph-4p Batterie de remplacement pour AutelMaxiCOM MK908 MK908P
Depuis le lancement de ChatGPT fin 2022, OpenAI est à l’avant-garde de la révolution de l’IA, stimulant des investissements massifs dans le secteur.La croissance rapide de ses produits d’IA a permis à l’entreprise de lever 6,6 milliards de dollars en octobre, renforçant ainsi son statut de leader de l’innovation en intelligence artificielle.
Luma Labs a considérablement amélioré sa plateforme de création Dream Machine en intégrant le modèle vidéo Ray2, une mise à niveau majeure par rapport à la version précédente Ray 1.6. Cette mise à jour apporte une réalisme accru et des mouvements plus naturels, renforçant ainsi la position de Dream Machine en tant qu’outil leader de génération de vidéos par IA.
>>> C41N180 pour ASUS ROG Zephyrus S GX531 GX531GM GX531GS
Ray2 : Une nouvelle référence pour la génération de vidéos par IA
Annoncé l’année dernière dans le cadre d’un partenariat avec Amazon AWS, Ray2 est désormais le modèle vidéo par défaut dans Dream Machine. Luma Labs le décrit comme “une nouvelle frontière dans les modèles de génération vidéo”, soulignant qu’une augmentation de dix fois de la puissance de calcul a permis de débloquer une expression créative plus grande et une narration visuelle améliorée.
Les premiers tests des capacités de génération vidéo de Ray2 ont montré des résultats impressionnants, avec des améliorations notables en termes de réalisme et de fluidité des mouvements. Cependant, le modèle connaît actuellement une forte demande, entraînant des retards dans les temps de génération et des échecs occasionnels dans le traitement des demandes. Ces problèmes sont des défis d’évolutivité courants pour les modèles d’IA nouvellement lancés.
L’intégration de Ray2 dans Dream Machine améliore le flux de travail collaboratif et interactif de la plateforme. Plutôt que de s’appuyer uniquement sur des instructions textuelles, les utilisateurs peuvent affiner et adapter leurs créations via l’interface intuitive de Dream Machine.
Pour générer des vidéos avec Ray2, les utilisateurs doivent simplement :
Créer un nouveau projet dans Dream Machine
Sélectionner “Vidéo” dans la barre de saisie
Entrer une instruction textuelle
Recevoir deux vidéos générées, avec la possibilité d’affiner certains éléments
Malgré les limitations actuelles en termes de vitesse de génération, Ray2 démontre déjà des avancées significatives dans la création vidéo assistée par IA. À mesure que Luma Labs optimise les performances, Dream Machine devrait encore renforcer sa position en tant que l’une des meilleures plateformes de génération vidéo par IA disponibles aujourd’hui.
WhatsApp teste une refonte qui met les outils d’IA à l’avant-plan, comme l’a révélé WABetaInfo. La version bêta pour Android introduit un onglet IA, conçu pour encourager les utilisateurs à explorer la suite croissante de fonctionnalités d’IA de Meta.
Ce nouvel onglet axé sur l’IA organise les outils en catégories telles que « Personnages IA populaires » pour discuter, ainsi que des bots regroupés par thèmes spécifiques. Il inclut également des autocollants générés par l’IA, des images et un moteur de recherche alimenté par Meta AI. Ces fonctionnalités ne sont pas entièrement nouvelles ; elles existent déjà sous l’onglet « Discussions » mais sont moins visibles. La refonte vise à mettre ces outils en avant, ce qui pourrait augmenter l’interaction des utilisateurs. Meta mise sur l’IA comme un atout majeur pour les plateformes de messagerie modernes.
Dans le cadre de cette refonte, l’onglet « Communautés » ne disposera plus d’un espace dédié. Il sera intégré dans l’onglet Discussions, simplifiant ainsi la disposition de l’application pour faire place au nouvel onglet IA.
WABetaInfo a également découvert que WhatsApp pourrait bientôt permettre aux utilisateurs de créer des bots personnalisés directement dans l’application. Cette fonctionnalité pourrait simplifier le processus par rapport à l’utilisation de l’AI Studio de Meta sur Instagram, bien qu’il reste incertain combien d’utilisateurs choisiront de concevoir leurs propres chatbots plutôt que d’utiliser ceux préconstruits.
>>>BSB14G pour Ridgid R83015 130252003 130254002 130254008
La vision de Meta pour l’intégration de l’IA
Ces mises à jour s’inscrivent dans la stratégie globale de Meta visant à intégrer l’IA dans toutes ses plateformes, avec l’assistant Meta AI comme point central. Avec plus de deux milliards d’utilisateurs, WhatsApp constitue une plateforme de choix pour Meta pour présenter ces innovations.
Bien que cette nouvelle direction puisse sembler en contradiction avec le style minimaliste traditionnel de WhatsApp, Meta vise à équilibrer les fonctionnalités ajoutées avec l’utilisabilité, pariant que les outils d’IA trouveront un écho auprès des utilisateurs.
Aucune date de sortie officielle n’a été annoncée pour ces changements, mais étant donné leur statut bêta, ils pourraient être déployés dans quelques mois. Si les fonctionnalités alimentées par l’IA, telles que celles inspirées de ChatGPT, gagnent en popularité, Meta pourrait accélérer le calendrier et étendre des fonctionnalités similaires dans tout son écosystème.
Ces mises à jour pourraient marquer un tournant pour WhatsApp, redéfinissant la manière dont les utilisateurs interagissent avec les applications de messagerie grâce à des expériences pilotées par l’IA.
Récemment, Elon Musk a affirmé que l’approvisionnement en données générées par les humains, utilisées pour former des modèles d’IA comme ChatGPT, est sur le point de s’épuiser. Bien qu’il n’ait pas fourni de preuves, d’autres dirigeants technologiques et des études antérieures ont suggéré la même chose, estimant que les données authentiques générées par des humains pourraient s’épuiser d’ici deux à huit ans.
Cette pénurie imminente découle de l’incapacité des humains à produire des données—texte, images et vidéos—à un rythme correspondant aux besoins vastes et croissants des modèles d’IA. Si cette prédiction se vérifie, les développeurs et les utilisateurs pourraient être confrontés à des défis significatifs, car les entreprises technologiques se tournent de plus en plus vers des données synthétiques comme alternative.
Le rôle des données réelles dans le développement de l’IA
Les données réelles, créées par les humains, constituent la base de l’entraînement des IA. Elles comprennent des contenus collectés à partir d’enquêtes, d’expériences, de sites web et de réseaux sociaux. Appréciées pour leur authenticité et leur capacité à capturer une grande variété de contextes, les données réelles aident les systèmes d’IA à accomplir des tâches avec précision et fiabilité.
Cependant, les données réelles sont loin d’être parfaites. Elles contiennent souvent des biais, des erreurs et des incohérences, ce qui peut entraîner des résultats erronés pour l’IA. La préparation des données réelles pour l’entraînement de l’IA est également chronophage, jusqu’à 80 % du temps de développement étant consacré à la collecte, au nettoyage, à l’étiquetage et à la validation des données.
La rareté croissante des données réelles souligne la nécessité d’adopter des approches alternatives, car les efforts humains seuls ne peuvent répondre aux besoins en données de l’IA.
Données synthétiques : une alternative prometteuse
Les données synthétiques sont générées artificiellement par des algorithmes, comme le texte produit par ChatGPT ou les images créées par DALL-E. Elles offrent une solution potentielle à la pénurie de données, étant plus rapides et moins coûteuses à produire. Contrairement aux données réelles, les données synthétiques sont illimitées et peuvent être conçues pour répondre à des préoccupations éthiques ou de confidentialité, comme la protection des informations personnelles sensibles.
Grâce à ces avantages, les données synthétiques sont de plus en plus adoptées par les entreprises technologiques. La société de recherche Gartner prévoit qu’elles deviendront la forme principale de données utilisées dans le développement de l’IA d’ici 2030.
Défis liés à l’utilisation des données synthétiques
Malgré son potentiel, l’utilisation des données synthétiques pose plusieurs défis. L’un des principaux problèmes est le risque de “collapse de modèle”, où les systèmes d’IA entraînés principalement sur des données synthétiques produisent des résultats de faible qualité remplis d’erreurs ou de “hallucinations”. Par exemple, les modèles d’IA peuvent avoir des difficultés avec l’orthographe ou la précision sémantique lorsqu’ils sont formés sur des ensembles de données synthétiques défectueux.
Un autre problème est le manque potentiel de nuances dans les données synthétiques. Contrairement aux données réelles, qui reflètent des scénarios et contextes variés, les ensembles de données synthétiques peuvent être trop simplistes, entraînant des systèmes d’IA manquant de profondeur et de fiabilité.
Assurer la qualité des données synthétiques
Pour atténuer ces problèmes, des normes mondiales pour le suivi et la validation des données d’entraînement de l’IA doivent être établies. Des organisations telles que l’Organisation internationale de normalisation (ISO) et l’Union internationale des télécommunications des Nations Unies pourraient jouer un rôle crucial dans la mise en œuvre de ces systèmes à l’échelle mondiale.
Les systèmes d’IA devraient intégrer le suivi des métadonnées pour retracer les origines et la qualité des données synthétiques utilisées. La supervision humaine restera également essentielle pour définir les objectifs, valider la qualité des données et surveiller la conformité éthique lors des processus d’entraînement.
En outre, les algorithmes d’IA peuvent être utilisés pour auditer et vérifier les ensembles de données synthétiques, garantissant cohérence et précision en les comparant à des références de données réelles. Ce processus itératif pourrait améliorer la qualité des résultats de l’IA et prévenir les erreurs systémiques.
L’avenir de l’IA repose sur le maintien de sources de données de haute qualité. Bien que les données réelles restent inestimables, les données synthétiques joueront un rôle de plus en plus important pour pallier les pénuries. Lorsqu’elles sont gérées efficacement, les données synthétiques pourraient compléter les données réelles, améliorant la précision, la fiabilité et les normes éthiques des systèmes d’IA.
En adoptant des pratiques rigoureuses de validation des données et en favorisant la coopération mondiale, l’industrie technologique peut garantir que les systèmes d’IA restent dignes de confiance et bénéfiques à mesure qu’ils continuent d’évoluer.
Le dernier modèle d’OpenAI, o3, annoncé en décembre, a franchi une étape importante en réussissant le test de référence ARC-AGI, alimentant les discussions sur l’avènement de l’intelligence générale artificielle (AGI). Le PDG, Sam Altman, affirme que cette avancée place l’entreprise sur la voie de la superintelligence, qui dépasse de loin les capacités humaines.
Avancée de l’AGI : Succès au test ARC-AGI
Le test ARC-AGI évalue les systèmes d’IA sur leur capacité à résoudre des tâches nécessitant un raisonnement et une acquisition de compétences semblables à ceux des humains, même en dehors de leurs données d’entraînement. Le modèle o3 d’OpenAI a obtenu un score de 87,5 % dans des configurations à haute capacité de calcul, dépassant le seuil de 85 % requis pour l’AGI et surpassant les performances humaines, qui atteignent en moyenne 80 %. Altman a déclaré : « Nous sommes désormais convaincus de savoir comment construire une AGI telle qu’elle est traditionnellement comprise. » Il a ajouté qu’à l’horizon 2025, des agents AGI pourraient intégrer le marché du travail, révolutionnant la productivité.
L’AGI désigne des systèmes capables d’intelligence, de raisonnement et d’autonomie au niveau humain. Contrairement à l’IA traditionnelle, l’AGI peut s’adapter à des tâches pour lesquelles elle n’a pas été explicitement formée. Altman définit l’AGI comme des systèmes d’IA capables de rivaliser avec des humains hautement qualifiés dans des rôles critiques. Au-delà de l’AGI, il y a la superintelligence, qu’Altman décrit comme des outils pouvant accélérer considérablement l’innovation scientifique et la résolution de problèmes, surpassant potentiellement toutes les capacités intellectuelles humaines.
La prochaine étape : La superintelligence
Altman considère la superintelligence comme transformative, avec des capacités bien au-delà de celles de l’AGI. Bien que cela puisse sembler futuriste, il estime que le passage à la superintelligence est réalisable en quelques années. OpenAI met en avant des mesures de sécurité prioritaires, notamment des tests rigoureux, des collaborations avec des instituts spécialisés en sécurité, et des évaluations externes pour garantir un développement responsable.
ARC-AGI et au-delà
Introduit en 2019, l’ARC-AGI (Abstract and Reasoning Corpus) a été conçu par François Chollet pour mesurer la capacité des IA à acquérir de nouvelles compétences de manière efficace. Les tâches incluent le raisonnement abstrait, comme manipuler des grilles et des couleurs pour résoudre des énigmes imitant les capacités humaines de résolution de problèmes. D’autres benchmarks, comme le test Tong développé à Pékin, mettent l’accent sur l’interaction physique et sociale, la génération de tâches et la compréhension causale comme mesures alternatives pour évaluer le développement de l’AGI.
>>> NM35S-38A pour EXFO OTDR FTB-100 FTB-300 FTB-400 GP-285
Le parcours d’OpenAI vers l’AGI
Depuis sa fondation en 2015, OpenAI s’est concentré sur le développement de l’AGI, un concept autrefois considéré comme marginal. Le lancement de GPT-4 en 2023 a montré des « signes d’AGI », le modèle démontrant un raisonnement avancé dans des domaines variés comme le droit, la médecine et la programmation. OpenAI continue d’avancer avec o3, offrant un accès anticipé aux chercheurs pour tester et fournir des retours.
Altman reconnaît les défis à venir : « Il reste encore beaucoup à comprendre et tant de choses que nous ignorons. Mais nous en savons bien plus qu’au début. »
Le succès d’OpenAI avec o3 marque une étape décisive vers l’AGI et au-delà, avec la superintelligence comme objectif ultime. Les prochaines années seront déterminantes pour façonner l’impact de ces technologies sur l’avenir.
Geoffrey Hinton, le scientifique britannique-canadien renommé pour son travail pionnier dans le domaine de l’intelligence artificielle (IA), a exprimé ses préoccupations concernant le développement rapide de la technologie IA, la qualifiant de “potentiellement très dangereuse”. Hinton, qui a remporté le prix Nobel de physique cette année, estime que la société doit aborder le développement de l’IA avec une grande prudence et des régulations réfléchies.
Le rythme rapide du développement de l’IA
Lors d’une récente interview, Hinton a expliqué que les progrès de l’IA se produisent bien plus rapidement que ce qu’il avait anticipé. Bien que ses recherches aient posé les bases de l’apprentissage automatique — une technologie qui permet aux ordinateurs d’imiter l’intelligence humaine — il a exprimé son inquiétude face au rythme actuel de l’innovation.
« Le rythme du changement est beaucoup plus rapide que ce à quoi je m’attendais », a déclaré Hinton, ajoutant qu’il n’y avait pas suffisamment de temps pour que les chercheurs explorent pleinement les conséquences potentielles de ces avancées. Il a souligné l’urgence de mettre en place des régulations pour empêcher les abus de l’IA. « Nous devons empêcher que des gens l’utilisent pour de mauvaises choses », a-t-il averti, notant que les systèmes politiques actuels ne sont pas équipés pour gérer ces risques. >>>BLW009 pour OPPO Watch 4 Pro
Un appel pour une IA plus sûre
Les recherches récentes de Hinton se sont concentrées sur la nécessité d’assurer que le développement de l’IA reste sûr et éthique. L’année dernière, il a fait les gros titres lorsqu’il a démissionné de Google, invoquant des préoccupations selon lesquelles des “mauvais acteurs” pourraient exploiter les technologies de l’IA pour nuire à la société.
Réfléchissant à la trajectoire du développement de l’IA, Hinton a déclaré que lorsqu’il a commencé ses travaux, il n’avait pas envisagé que l’IA atteindrait le stade actuel. « Je pensais qu’à un moment donné dans le futur, nous arriverions ici, mais je ne pensais pas que ce serait maintenant », a-t-il dit à BBC Radio 4 lors du programme Today.
La révolution industrielle de l’intelligence
Hinton estime que l’impact potentiel de l’IA sur la société pourrait être comparable à celui de la révolution industrielle, une période qui a transformé radicalement les industries en remplaçant le travail humain par des machines. Il a argumenté que, tandis que les machines remplaçaient autrefois la force humaine, aujourd’hui, les machines sont prêtes à remplacer l’intelligence humaine.
« Lors de la révolution industrielle, la force humaine n’a plus eu d’importance parce que les machines étaient plus fortes », a expliqué Hinton. « Ce que nous avons maintenant, c’est quelque chose qui remplace l’intelligence humaine. L’intelligence humaine ordinaire ne sera plus à la pointe — ce seront les machines. »
Le rôle de la politique dans l’avenir de l’IA
Lorsqu’on lui a demandé ce qu’il pensait de l’avenir, Hinton a souligné le rôle crucial des systèmes politiques dans la détermination de l’impact de l’IA. Il a exprimé des préoccupations concernant le fait que, sans régulations réfléchies, l’IA pourrait aggraver les inégalités sociales, en particulier si ses bénéfices sont concentrés entre les mains des riches, tandis que les gens ordinaires perdent leur emploi à cause de l’automatisation.
« L’avenir dépendra beaucoup de ce que nos systèmes politiques feront de cette technologie », a déclaré Hinton. Il a souligné que bien que l’IA ait le potentiel de révolutionner les industries, notamment dans le domaine de la santé, elle doit être gérée avec soin pour éviter des conséquences négatives. Sans le bon cadre réglementaire, l’IA pourrait aggraver les inégalités économiques, a-t-il averti. >>>P21GU9 pour Microsoft Surface Pro 1 1514
La menace des futurs contrôlés par l’IA
Les préoccupations de Hinton vont aussi au-delà de la possibilité que l’IA prenne le contrôle de manière que les machines n’avaient jamais pu faire lors de la révolution industrielle. Autrefois, les machines pouvaient remplacer la force humaine, mais les humains restaient en contrôle en raison de leur intelligence supérieure. Cependant, le développement de l’IA hautement intelligente menace maintenant la domination humaine.
« Les machines sont plus intelligentes que nous. Il n’y a jamais eu de chance que les machines prennent le contrôle lors de la révolution industrielle parce qu’elles étaient plus fortes. Nous restions en contrôle parce que nous avions l’intelligence », a déclaré Hinton. « Maintenant, il y a la menace que ces choses prennent le contrôle. »
En conclusion, Hinton appelle les gouvernements, les chercheurs et les dirigeants industriels à agir de toute urgence pour développer des régulations éthiques de l’IA qui empêchent les abus, garantissent des avantages sociétaux larges et traitent les risques potentiels avant qu’il ne soit trop tard.
À la fin de l’année 2023, OpenAI a lancé son modèle o3, marquant le début d’une nouvelle phase dans l’extensibilité de l’IA, propulsée par le concept de scalabilité en phase de test. Cette approche, qui utilise des ressources informatiques supplémentaires pendant la phase d’inférence, a déjà montré des résultats impressionnants, mais elle comporte également des compromis importants.
Le rôle de la scalabilité en phase de test dans les progrès de l’IA
La scalabilité en phase de test représente un changement dans la manière dont les modèles d’IA sont entraînés et déployés. Au lieu de s’appuyer uniquement sur un pré-entraînement pendant le développement du modèle, le modèle o3 d’OpenAI améliore les performances en déployant de la puissance de calcul supplémentaire lors de la génération des réponses aux requêtes des utilisateurs. Cette méthode a donné lieu à des améliorations significatives, comme en témoigne la performance du modèle o3 sur le banc d’essai ARC-AGI, où il a obtenu un score de 88 %, une augmentation frappante par rapport à son prédécesseur, le modèle o1, qui n’avait obtenu que 32 %.
Cependant, cet incroyable gain en performance s’accompagne d’un coût élevé. La version haute performance de o3 a consommé plus de 1 000 $ de ressources de calcul par tâche, alors que le modèle précédent, o1, n’avait besoin que d’environ 5 $. Cette différence de coût rend o3 peu pratique pour une utilisation quotidienne, le positionnant comme un outil mieux adapté à des applications plus spécialisées et à enjeux élevés.
Les progrès rapides réalisés entre o1 et o3 en seulement quelques mois ont alimenté l’optimisme quant à l’avenir de l’IA. Jack Clark, co-fondateur d’Anthropic, a soutenu que les avancées de 2025 combineraient la scalabilité en phase de test avec les techniques de pré-entraînement traditionnelles pour stimuler de nouvelles percées dans le domaine de l’IA. Cependant, l’imprévisibilité des coûts de calcul introduit un élément d’incertitude, compliquant la faisabilité financière de l’exécution de ces modèles à grande échelle.
Bien que o3 illustre la puissance de la scalabilité en phase de test, il n’est pas sans limites. François Chollet, créateur du test ARC-AGI, a souligné que bien que o3 montre une grande capacité d’adaptation aux tâches nouvelles, il peine encore sur des problèmes plus simples que les humains peuvent résoudre facilement. De plus, il est important de noter que l’AGI (Intelligence Artificielle Générale) reste hors de portée — o3 représente une avancée, mais il est loin d’atteindre une intelligence comparable à celle des humains.
De plus, o3 continue de lutter contre des problèmes courants dans les grands modèles linguistiques, tels que les hallucinations, où le modèle génère des réponses incorrectes ou trompeuses. Cela met en évidence le défi persistant de créer des systèmes d’IA véritablement fiables, ce qui pourrait constituer un obstacle majeur à une adoption plus large.
La voie à suivre : équilibrer performance et coût
Malgré ses capacités impressionnantes, les exigences computationnelles substantielles du modèle o3 signifient que seules les organisations disposant de ressources importantes pourront tirer pleinement parti de sa puissance. En réponse, l’industrie de l’IA se concentre de plus en plus sur le développement de puces d’inférence IA plus efficaces. Des startups comme Groq et Cerebras sont en première ligne de cet effort, travaillant sur du matériel spécialisé conçu pour réduire le coût de l’exécution de modèles haute performance comme o3.
Ces innovations matérielles pourraient ouvrir la voie à des systèmes d’IA plus rentables qui conservent les avantages de la scalabilité en phase de test sans les coûts prohibitifs. Pour l’instant, cependant, o3 et des modèles similaires resteront probablement des outils réservés aux institutions à gros budget, laissant les utilisateurs quotidiens se tourner vers des options d’IA plus abordables.
Conclusion : un bond transformateur dans l’extensibilité de l’IA
L’introduction de o3 marque un saut significatif dans l’extensibilité de l’IA, avec la scalabilité en phase de test s’avérant être un outil puissant pour améliorer les performances. Cependant, les coûts computationnels élevés associés à ces modèles représentent un défi majeur pour leur utilisation à grande échelle. À mesure que les entreprises d’IA continuent d’affiner leurs méthodes et de développer du matériel plus efficace, l’avenir de l’extensibilité de l’IA dépendra de l’équilibre entre performance, accessibilité et coût.