L’UE effectuera un « test de résistance » des géants de la technologie avant les élections de février en Allemagne

L’Union européenne va effectuer un « test de résistance » des principales plateformes technologiques et des réseaux sociaux afin d’évaluer leur capacité à gérer la désinformation à l’approche des élections fédérales anticipées en Allemagne, prévues pour le mois prochain. La Commission européenne a convoqué une réunion le 31 janvier, invitant plusieurs géants de la technologie, dont X (anciennement Twitter)MetaSnapTikTokGoogleMicrosoft, et LinkedIn.

Lors de cette réunion, les responsables de la Commission européenne évalueront la préparation des entreprises à lutter contre la désinformation, les campagnes de désinformation et d’autres perturbations potentielles qui pourraient affecter l’élection. Ces perturbations pourraient inclure des contenus faux générés par l’IA et des ingérences étrangères. Ce test fait partie d’un effort plus large pour évaluer si ces entreprises sont pleinement conformes à la Loi sur les services numériques (DSA) de l’UE, qui impose aux plateformes de mettre en place des protections contre la désinformation et les contenus illégaux.

>>>XS2105 pour Xiaomi Mijia B302CN H200

Le test est particulièrement pertinent car les élections fédérales en Allemagne, prévues pour février, ne sont pas seulement cruciales pour l’Allemagne, mais ont également une grande importance pour l’Union européenne dans son ensemble. L’Allemagne, en tant que plus grand membre de l’UE, est considérée comme un champ de bataille essentiel pour garantir l’intégrité des processus démocratiques au sein de l’union. Le résultat de ce test de résistance pourrait avoir des implications de grande portée sur la manière dont les grandes entreprises technologiques sont régulées à travers le continent.

La surveillance accrue de l’UE envers les plateformes technologiques fait suite aux préoccupations soulevées lors des élections présidentielles roumaines de l’année dernière, où l’ingérence russe avait été suspectée d’être amplifiée par l’algorithme de TikTok. La Roumanie a annulé les résultats du premier tour de l’élection en raison de preuves d’influence étrangère, y compris plus de 85 000 cyberattaques tentées sur les sites web des élections. Ce cas a mis en lumière la nécessité urgente de renforcer les protections en ligne avant les élections cruciales en Europe.

Ajoutant une couche de complexité, l’implication de Elon Musk avec X (anciennement Twitter) a déjà fait la une des journaux avant l’élection. Musk a récemment réalisé une interview avec Alice Weidel, leader du parti d’extrême droite AfD en Allemagne, et une candidate de premier plan pour l’élection à venir. Cela a soulevé des préoccupations concernant le biais politique et la neutralité des plateformes, que l’UE surveille de près.

>>>6664107 pour GPD Pocket 1 Pocket1 Mini Laptop

Ce développement intervient juste un jour après que l’ancien président américain Donald Trump a critiqué le traitement réservé par l’UE aux entreprises technologiques américaines. S’exprimant lors du Forum économique mondial de Davos, Trump a qualifié les actions réglementaires de l’UE de forme de taxation des géants technologiques américains comme GoogleMeta, et Apple, dont deux font partie du test de résistance. Cette réaction marque la montée des tensions entre l’UE et les États-Unis sur la gouvernance numérique et la réglementation.

Alors que l’Europe se prépare pour les élections fédérales anticipées en Allemagne, le test de résistance de l’UE sur les plateformes technologiques pourrait établir un précédent sur la manière dont les plateformes numériques sont tenues responsables du rôle qu’elles jouent dans les élections et la démocratie. La Loi sur les services numériques et la surveillance de la désinformation, des ingérences étrangères, et de la responsabilité des plateformes deviennent des enjeux essentiels de la réglementation mondiale des technologies. La manière dont ces entreprises réagiront au test de résistance de l’UE façonnera l’avenir de la gouvernance en ligne en Europe, posant les bases de discussions plus larges sur la politique technologique mondiale.

La poussée d’Intel pour des ordinateurs portables et mini-PC modulaires : Une révolution technologique durable

Intel a récemment partagé sa vision d’un avenir plus durable dans le domaine de l’informatique, en se concentrant sur les ordinateurs portables modulaires et les mini-PC. Cette initiative audacieuse vise à répondre aux préoccupations croissantes concernant les déchets électroniques et les émissions de carbone, tout en améliorant la réparabilité et la possibilité de mise à niveau des appareils. En adoptant un design modulaire, Intel espère faciliter la maintenance des appareils pour les consommateurs, prolonger leur durée de vie et réduire le besoin de mises à niveau fréquentes.

Alors que les PC de bureau sont modulaires depuis des années, permettant aux utilisateurs d’acheter des pièces séparées et d’assembler leurs systèmes, les ordinateurs portables et les mini-PC ont généralement été des mondes fermés. Avec de nombreuses pièces soudées directement sur la carte mère, il est souvent difficile, voire impossible, pour les utilisateurs de remplacer ou de mettre à niveau des composants individuels. La nouvelle approche d’Intel pourrait changer cela et révolutionner la façon dont nous interagissons avec nos appareils.

>>>Mavic-Air pour DJI Mavic Air Part 1 Intelligent Flight

La vision modulaire d’Intel : Décryptage

La proposition d’Intel introduit une architecture modulaire qui divise la carte mère traditionnelle en trois parties distinctes : la carte mère principale et deux modules I/O. Ces modules seraient compatibles avec divers systèmes de refroidissement — allant de sans ventilateur à double ventilateur — afin de répondre aux besoins des consommateurs et des entreprises.

L’avantage clé ici est l’efficacité. En standardisant les composants à travers différents modèles, Intel pourrait rationaliser le processus de fabrication, réduire les déchets et diminuer les coûts. Le design modulaire facilite également la mise à niveau des appareils au fil du temps. Par exemple, de nouveaux processeurs pourraient être remplacés sans nécessiter une révision complète du système. Cette flexibilité bénéficie non seulement aux consommateurs, qui peuvent garder leurs appareils à jour, mais aussi aux entreprises, qui pourraient économiser sur les coûts de réparation et de remplacement.

La vision modulaire s’étend également aux mini-PC, qui suivent traditionnellement le même design tout-en-un que les ordinateurs portables. Le nouveau plan d’Intel divise les mini-PC en trois modules essentiels : GPUCPU, et Platform Controller Hub (PCH). Cette configuration modulaire fonctionnerait de manière similaire à un PC de bureau, où chaque composant est remplaçable indépendamment.

Une telle flexibilité serait un changement radical pour les utilisateurs de mini-PC, qui pourraient désormais échanger et mettre à niveau les pièces en fonction de leurs besoins. Que vous soyez une entreprise cherchant à améliorer les performances de votre système ou un utilisateur à domicile désirant garder votre appareil à jour, cette approche modulaire rendrait le mini-PC beaucoup plus personnalisable et durable.

>>>30100140  pour Teclast M40 K105 N9H3 P20HD

Qu’est-ce que cela signifie pour l’avenir de la technologie ?

Pour les consommateurs, la modularité signifie une durée de vie prolongée des appareils. Grâce à la possibilité de remplacer des composants clés tels que la mémoire et les processeurs, les utilisateurs peuvent garder leurs ordinateurs portables et mini-PC à jour sans avoir à acheter des machines entièrement nouvelles. Cette approche permet non seulement d’économiser de l’argent, mais elle contribue également à réduire les déchets électroniques, un problème croissant dans le monde technologique actuel.

En outre, les appareils modulaires seraient beaucoup plus faciles à réparer. Si quelque chose se casse ou devient obsolète, les utilisateurs n’auraient pas à envoyer leur appareil dans un atelier de réparation ou à remplacer l’unité entière. Ils pourraient simplement remplacer la pièce défectueuse eux-mêmes ou opter pour une mise à niveau. Cette réparabilité donne du pouvoir aux consommateurs, réduisant la dépendance aux services externes et encourageant un mode de vie plus durable.

Actuellement, Framework est l’une des rares entreprises proposant des ordinateurs portables modulaires, mais ses produits restent encore de niche. Bien que l’entreprise ait reçu des éloges pour sa réparabilité et sa mise à niveau, ses ordinateurs portables ont été critiqués en raison de leur qualité de construction. L’approche de Framework, bien que novatrice, n’a pas encore convaincu le consommateur moyen que la modularité puisse être à la fois de haute qualité et conviviale.

Intel, de son côté, dispose des ressources et de la réputation de l’industrie pour rendre les ordinateurs portables modulaires grand public. Si l’entreprise réussit, cela pourrait conduire à des appareils modulaires plus abordables avec une qualité améliorée — un gain pour les consommateurs et pour l’environnement.

Si le design modulaire d’Intel prend son essor, cela pourrait considérablement réduire les prix des ordinateurs portables modulaires et des mini-PC, car davantage de fabricants suivraient l’exemple d’Intel. Cela stimulerait l’innovation et créerait des options plus abordables, tout en améliorant la durabilité de notre écosystème technologique.

De plus, la technologie modulaire pourrait changer notre façon de penser les cycles de vie des produits. Avec davantage d’utilisateurs optant pour réparer et mettre à niveau plutôt que de remplacer leurs appareils, nous pourrions assister à un tournant vers une culture technologique plus écologique et rentable. Cette approche permettrait aux consommateurs de profiter d’appareils de haute qualité qui évoluent avec leurs besoins, sans avoir à se débarrasser de matériels encore parfaitement fonctionnels.

Les ambitions d’Apple en matière d’IA pour 2025 : Un tournant vers la refonte de Siri et des modèles d’IA

Apple travaille activement sur sa stratégie en IA depuis plusieurs mois, intégrant progressivement des fonctionnalités d’IA dans iOS 18. Bien que sa plateforme IA, Apple Intelligence, soit partiellement disponible pour le public, bon nombre de ses fonctionnalités sont encore en phase précoce et ont rencontré des problèmes importants, ce qui a conduit certaines à être désactivées. Cependant, une note interne fuitée d’Apple a révélé les ambitions de la société pour l’IA en 2025 et donne un aperçu de la direction future des efforts d’Apple dans le domaine de l’intelligence artificielle.

Principaux éléments de la note interne

La note, rédigée par John Giannandrea, le responsable de l’IA chez Apple, met en lumière les priorités actuelles de la société et ses stratégies pour le développement de l’IA et son intégration avec Siri. Selon cette note, le groupe IA d’Apple se concentre sur deux initiatives clés :

1. Refonte de l’infrastructure de Siri

Une des tâches les plus importantes pour Apple en 2025 est de reconstruire l’infrastructure de Siri. Siri, l’assistant vocal d’Apple, fait partie intégrante de l’écosystème de l’entreprise depuis des années, mais il peine à rivaliser avec des concurrents comme Google Assistant et Alexa d’Amazon en matière de capacités d’IA. L’objectif ici est de transformer Siri en un assistant plus robuste, réactif et intelligent, capable de rivaliser avec les meilleures technologies d’IA disponibles aujourd’hui.

Apple semble se concentrer sur la création d’un modèle de langage naturel (NLP) plus avancé, capable de comprendre des requêtes complexes, de fournir des réponses plus précises et d’offrir une expérience utilisateur globalement améliorée. Cette initiative pourrait impliquer une refonte des systèmes back-end de Siri et améliorer sa capacité à traiter les demandes des utilisateurs plus efficacement.

Des rapports ont également suggéré qu’Apple travaille sur son propre modèle de langage large Siri (LLM), un grand pas en avant dans la stratégie IA de l’entreprise. Bien que cela ne soit pas prêt avant iOS 19.4 en 2026, cela montre qu’Apple s’engage à créer une solution d’IA en interne qui soit alignée avec ses préoccupations en matière de confidentialité et de sécurité.

>>>TLp049HB pour Alcatel TLp049HB

2. Amélioration des modèles d’IA existants

En plus de la refonte de Siri, Apple se concentre également sur l’amélioration de ses modèles d’IA existants. Cela inclut l’affinement de ses modèles internes afin d’en augmenter la précision, la rapidité et la polyvalence. Apple travaille sur l’IA sur appareil depuis un certain temps, cherchant à garder autant de traitements que possible en local. Cette approche, bien que plus sécurisée et privée, a également donné l’impression qu’Apple prenait du retard par rapport à des concurrents comme Google et OpenAI, qui privilégient l’IA basée sur le cloud.

L’accent mis par Apple sur l’IA sur appareil repose sur son engagement envers la confidentialité et la sécurité des utilisateurs. Cependant, cela a conduit à des critiques selon lesquelles les efforts d’Apple en IA sont en retard par rapport à la concurrence, notamment en ce qui concerne les capacités en temps réel et les modèles d’IA basés sur le cloud qui exploitent la puissance de calcul à grande échelle.

Pour combler ces lacunes, Apple intègre l’IA de plateformes tierces, comme ChatGPT d’OpenAI, pour certaines fonctionnalités de Siri. Bien que ChatGPT se soit révélé utile pour certaines tâches, il ne correspond toujours pas aux performances et à l’efficacité des capacités traditionnelles de Siri. Il est largement perçu comme une solution temporaire en attendant que l’IA native d’Apple rattrape son retard.

Un élément clé de la note fuitée est la nomination de Kim Vorrath, une gestionnaire de projets expérimentée chez Apple, pour diriger la division IA et Siri. Vorrath, connue pour résoudre des défis complexes, supervisera les efforts visant à refaire Siri et à améliorer les modèles d’IA. On attend d’elle qu’elle propulse le développement de l’IA chez Apple, permettant à l’entreprise de rattraper Google Gemini et Claude d’Anthropic, qui définissent actuellement la norme en matière de technologie IA.

>>>PH18650-4 pour Dahua PH18650-4

Siri et l’IA d’Apple : La voie à suivre

À l’avenir, la stratégie IA d’Apple semble être axée sur la confidentialité, cherchant à garder autant de données et de traitements locaux que possible. Cependant, cette décision signifie qu’Apple accuse un léger retard par rapport aux capacités de l’IA dans le cloud, un domaine que des concurrents comme Google et OpenAI ont plus facilement adopté. L’intégration de solutions d’IA tierces dans Siri est une mesure temporaire, mais elle laisse aussi entrevoir un changement plus large visant à rendre Siri plus compétitive dans l’espace IA en pleine évolution.

Malgré ses limitations actuelles, Apple Intelligence est en train de s’étendre progressivement dans l’espace IA, avec de nouvelles fonctionnalités attendues dans iOS 18 et au-delà. À mesure qu’Apple travaille à refaire Siri et à développer ses propres modèles d’IA, l’année 2025 pourrait être une année clé pour les efforts d’Apple dans le domaine de l’IA.

Le GPU Nvidia GB202-200-A1 : Un aperçu de l’avenir de la série RTX 50

Le 21 janvier, une photo est apparue sur le célèbre forum Chip Hell montrant un GPU Nvidia portant le nom de code GB202-200-A1, qui serait un prototype de la future série RTX 50. Voici un aperçu détaillé de ce nouveau GPU excitant et de la façon dont il se compare au modèle phare actuel, le RTX 5090.

Nom de code et aperçu général

  • GB202-200-A1 : Nom de code David Blackwell
  • RTX 5090 : Nom de code David Blackwell

Les deux GPU appartiennent à la même famille, mais devraient offrir des niveaux de performance différents. Le GB202-200-A1 devrait offrir un gain significatif par rapport au RTX 5090, en particulier en termes de puissance de calcul brute.

Puissance de calcul (FP32)

  • GB202-200-A1 : 123,6 TFLOPS
  • RTX 5090 : 104,9 TFLOPS

Le GB202-200-A1 offrirait une puissance de calcul supérieure de 16,5 % par rapport au RTX 5090, grâce à un nombre de cœurs plus élevé et à des vitesses d’horloge améliorées. Ce bond en avant pourrait avoir un impact significatif dans des domaines tels que les jeux, le rendu et les charges de travail professionnelles.

Unités de shader

  • GB202-200-A1 : 24 576 unités de shader
  • RTX 5090 : 21 760 unités de shader

Le GB202-200-A1 dispose de 13 % d’unités de shader supplémentaires, ce qui permettra un traitement plus rapide des tâches complexes telles que le rendu 3D, les calculs IA et le ray tracing en temps réel.

Processeurs de streaming

  • GB202-200-A1 : 192 processeurs de streaming
  • RTX 5090 : 170 processeurs de streaming

Le GB202-200-A1 embarque également 22 processeurs de streaming supplémentaires, ce qui améliorera sa capacité à gérer des charges de travail intensives. Cette augmentation des processeurs garantit des performances plus fluides dans les applications exigeantes.

Vitesses d’horloge du GPU

  • GB202-200-A1 :
    • Horloge de base : 2 100 MHz
    • Horloge boostée : 2 514 MHz
  • RTX 5090 :
    • Horloge de base : 2 010 MHz
    • Horloge boostée : 2 410 MHz

Le GB202-200-A1 présente des vitesses d’horloge de base et boostées supérieures à celles du RTX 5090 — 90 MHz de plus à la base et 104 MHz de plus en mode boost. Cette augmentation des vitesses d’horloge, couplée à d’autres améliorations matérielles, devrait se traduire par des performances supérieures.

Configuration mémoire

  • Les GB202-200-A1 et RTX 5090 devraient tous deux être équipés de 32 Go de mémoire GDDR7 reliée via une interface mémoire 512 bits. Cette configuration offrira une large bande passante mémoire pour les applications exigeantes telles que les jeux 4K, la VR et les charges de travail pilotées par IA.
  • Une différence potentielle pourrait résider dans les puces mémoire utilisées dans le GB202-200-A1, qui pourraient comporter des puces mémoire de 3 Go, similaires à celles utilisées dans la version mobile du RTX 5090. Cela pourrait améliorer l’efficacité globale de la bande passante mémoire.

Puissance thermique (TDP)

  • GB202-200-A1 : TDP de 800 W
  • RTX 5090 : TDP de 575 W

Le GB202-200-A1 présente un TDP significativement plus élevé que le RTX 5090 — 39 % de consommation d’énergie en plus. Cette augmentation est probablement due aux vitesses d’horloge plus élevées et aux cœurs supplémentaires. Pour répondre à cette demande de puissance, le GB202-200-A1 utilise deux connecteurs d’alimentation 12V 2×6, une exigence nécessaire pour ses besoins énergétiques accrus.

Attentes de prix

  • GB202-200-A1 : Prix à déterminer (TBD)
  • RTX 5090 : 1 999 $

Bien que le prix du GB202-200-A1 soit actuellement inconnu, on s’attend à ce qu’il soit plus élevé que celui du RTX 5090, qui coûte 1 999 $. Compte tenu de ses capacités de performance supérieures, il devrait être proposé comme un modèle premium dans la prochaine génération de Nvidia.

>>>TLp049G9 pour Alcatel TLp049G9

Qu’est-ce que cela signifie pour l’avenir de Nvidia ?

Le GB202-200-A1 semble se profiler comme un GPU puissant, offrant une mise à jour considérable par rapport au RTX 5090. Avec une augmentation de la puissance de calcul, des unités de shader, des processeurs de streaming et des vitesses d’horloge, ce GPU pourrait redéfinir ce qui est possible pour les matériels graphiques haut de gamme à la fois pour les consommateurs et les professionnels.

Cependant, il reste incertain de savoir si ce GPU sera commercialisé sous la forme de la série RTX 50 sous un nouveau nom comme RTX 5090 Ti, ou s’il sera lancé dans la gamme Titan. Si c’est ce dernier cas, nous pourrions potentiellement voir une version 48 Go destinée spécifiquement aux professionnels dans des domaines tels que la création de contenu, le développement d’IA et l’informatique scientifique.

OM System OM-3 : La rencontre du rétro et du moderne dans cet appareil photo Micro Four Thirds à venir

L’OM System OM-3, qui sera lancé le 6 février 2025, allie design nostalgique et technologie de pointe. Ce compact inspiré du rétro, conçu pour les débuts et les passionnés, offre un rapport qualité-prix abordable et une portabilité sans compromettre les performances.

Une esthétique rétro avec une fonctionnalité moderne

Inspiré de l’Olympus Pen F, l’OM-3 adopte un look classique rappelant l’âge d’or de la photographie. Sa caractéristique la plus marquante est le cadran de couleur, un hommage au Pen F, qui permet aux utilisateurs de sélectionner différents modes de prise de vue prédéfinis. Cette interface simple offre un moyen intuitif d’ajuster les réglages, offrant un accès facile pour les débutants tout en satisfaisant ceux qui apprécient des commandes manuelles.

Malgré son extérieur rétro, l’OM-3 renferme des composants modernes dérivés de l’OM-1 II, garantissant une qualité d’image exceptionnelle et une performance fiable. En fusionnant le charme vintage avec la technologie de pointe, OM System a créé un appareil qui séduit à la fois les amateurs de design traditionnel et ceux recherchant des résultats haut de gamme.

>>> ATS065T-P120 pour TT ats065t-p120

Des caractéristiques remarquables conçues pour la flexibilité

L’OM-3 n’est pas seulement une question de style ; il est conçu pour les photographes qui recherchent à la fois facilité d’utilisation et fonctionnalités avancées.

  • Commandes analogiques : Avec un mélange de molets manuels et de boutons tactiles, l’OM-3 offre une expérience plus directe que de nombreux appareils numériques. Cela en fait un choix attrayant pour les utilisateurs qui préfèrent interagir directement avec les réglages de leur appareil.
  • Griffe porte-accessoire : L’OM-3 est équipé d’une griffe porte-accessoire, permettant l’ajout de flashs externes, de microphones et d’autres accessoires, augmentant sa polyvalence pour des séances photo plus complexes.

Ces caractéristiques montrent que, bien que l’OM-3 soit conçu pour les débuts, il offre également suffisamment de flexibilité pour les photographes avancés souhaitant explorer des techniques créatives telles que la photographie au flash ou les réglages manuels.

Compact et portable : Emmenez-le partout

L’OM-3 brille par son design compact, un atout essentiel du système Micro Four Thirds. Alors que certains modèles récents sont devenus plus volumineux, l’OM-3 conserve une forme légère et facile à transporter, qui a toujours fait la popularité de ce système auprès de ceux qui privilégient la portabilité.

Que vous soyez en shooting urbain, en voyage ou en exploration en plein air, la taille de l’OM-3 garantit qu’il ne deviendra pas un fardeau. Il offre des performances sérieuses dans un boîtier suffisamment petit pour être emporté partout, en faisant le choix parfait pour les photographes qui ont besoin d’un appareil aussi mobile qu’eux.

>>>ADP-120RH D pour BenQ adp-120rh

Tarification : Performances haut de gamme, prix abordable

Avec un prix estimé à 1 500 $, l’OM-3 offre un excellent rapport qualité-prix pour les photographes recherchant des performances de haute qualité à un prix plus abordable que l’OM-1 II, qui se vend à 2 399,99 $. Malgré un coût inférieur, l’OM-3 devrait offrir des qualités d’image et une fiabilité similaires, en faisant une option attrayante pour ceux qui recherchent des résultats de qualité professionnelle sans le prix élevé.

Il concurrence directement les modèles populaires de Fujifilm, tels que le X-T50 et le X-M5, très appréciés des photographes de rue et de voyage. La taille compacte, la tarification abordable et les fonctionnalités robustes de l’OM-3 en font un concurrent de poids dans la catégorie des modèles milieu de gamme.

Nvidia lance le DLSS 4 avec une mise à l’échelle améliorée par IA pour les jeux vidéo

Nvidia est à l’avant-garde des graphismes de jeux sur PC depuis des années, avec ses innovations qui redéfinissent sans cesse l’expérience de jeu. L’une des percées les plus significatives a été le Deep Learning Super Sampling (DLSS), une technologie de mise à l’échelle intelligente alimentée par l’intelligence artificielle (IA). Au fil du temps, le DLSS a connu plusieurs itérations, chacune affinant sa capacité à améliorer la performance des jeux et à offrir des images de meilleure qualité, notamment à des résolutions plus élevées. Avec le lancement des cartes graphiques RTX 50-series, le DLSS fait un grand saut en avant avec le DLSS 4.

Qu’est-ce que le DLSS ?

Le Deep Learning Super Sampling (DLSS) est un système propriétaire alimenté par IA conçu par Nvidia pour améliorer la qualité des images des jeux vidéo. Introduit pour la première fois en 2019, son objectif principal a toujours été d’améliorer les performances de jeu en rendant un jeu à une résolution plus faible, puis en utilisant l’IA pour l’agrandir à la résolution native de l’écran. Contrairement à l’agrandissement traditionnel, le DLSS évite les images floues ou douces, utilisant à la place un réseau neuronal formé sur des milliers d’heures de séquences de jeux pour améliorer intelligemment les visuels.

De plus, les utilisateurs qui n’ont pas besoin d’agrandissement peuvent opter pour le Deep Learning Anti-Aliasing (DLAA), qui se concentre sur l’amélioration de la clarté du jeu à sa résolution native en améliorant le lissage des bords. La beauté du DLSS réside dans son utilisation des Tensor Cores, un matériel spécialisé dans les cartes graphiques RTX de Nvidia, qui ont commencé avec la série RTX 20-series. Ces cœurs permettent de réaliser les processus d’agrandissement et d’amélioration grâce à des réseaux neuronaux formés sur d’énormes ensembles de données.

Au fil des années, Nvidia a constamment affiné le DLSS, ajoutant de nouvelles fonctionnalités et améliorant ses capacités. L’une des innovations phares a été la génération de frames, une technique qui utilise l’IA pour générer des images supplémentaires entre chaque image rendue, augmentant ainsi le taux de rafraîchissement. Lorsqu’elle est associée à Nvidia Reflex, une technologie visant à réduire la latence d’entrée, cela a permis d’obtenir un gameplay plus fluide et des performances améliorées, même pour les cartes graphiques de gamme inférieure.

>>>AH5035 pour ZTE AH5035

DLSS 4 : Un bond révolutionnaire avec l’innovation de l’IA

La série RTX 50 introduit le DLSS 4, qui marque un changement transformatif pour la technologie. Contrairement à ses prédécesseurs, qui s’appuyaient sur des réseaux neuronaux convolutifs (CNN) pour l’agrandissement d’image, le DLSS 4 utilise un modèle Transformer. Cette nouvelle architecture apporte des améliorations significatives dans la compréhension des scènes de jeu par l’IA, lui permettant de calculer deux fois plus de paramètres et donc de fournir une meilleure qualité d’image.

De CNN à Transformer : La puissance de l’évolution de l’IA

  • Les réseaux neuronaux convolutifs (CNN), utilisés dans les versions précédentes du DLSS, analysaient les images en fonction d’éléments clés tels que les bords, les lignes et les relations spatiales. Bien que efficaces, les CNN avaient des limites dans la compréhension des détails fins d’une scène et dans l’application des optimisations correspondantes.
  • Le modèle Transformer, utilisé dans le DLSS 4, adopte une approche plus avancée. Il est capable d’interpréter mieux les scènes complexes et d’appliquer des calculs sophistiqués pour une amélioration d’image plus précise. Le résultat est une image agrandie plus détaillée et affinée qui conserve sa clarté, même dans des scènes à fort mouvement, grâce à une meilleure capacité à comprendre les textures fines, les bords et les nuances d’éclairage.

>>>BA23 pour Vivo X100S

Des systèmes multiples travaillant en harmonie : Les fonctionnalités du DLSS 4

Avec le DLSS 4, le système n’est pas seulement un agrandisseur d’image ; c’est un ensemble de systèmes coopératifs alimentés par l’IA qui gèrent la qualité de l’image, la performance et la latence.

  1. DLSS Super Resolution : Ce sous-système prend en charge la tâche de mise à l’échelle. Le modèle TNN (Transformer Neural Network) du DLSS 4 permet des images plus nettes, en préservant mieux les détails fins que les versions précédentes. Vous pouvez choisir parmi plusieurs réglages de qualité, y compris Ultra Performance, Performance, Balanced et Quality, pour ajuster la résolution de rendu et l’agressivité de la mise à l’échelle du DLSS. Le modèle TNN excelle dans la préservation de la qualité des textures, des bords fins et des lettres, offrant une image plus claire, rivalisant parfois voire surpassant la résolution native.
  2. DLSS Ray Reconstruction : Ce sous-système a subi une mise à niveau massive. Traditionnellement, des dénoseurs étaient utilisés pour supprimer le bruit et les grains dans les zones d’éclairage et d’ombre d’une scène. Cependant, DLSS 4 remplace cela par le Ray Reconstruction, qui comprend mieux comment la lumière et les ombres interagissent dans le rendu en temps réel. Le modèle TNN aide ce système à produire des effets d’éclairage et d’ombre plus précis et plus exacts, réduisant les problèmes comme le clignotement, le flou des ombres et les artefacts dans les objets distants ou les ombres en mouvement. Le résultat est une expérience visuelle beaucoup plus fluide et détaillée.
  3. Deep Learning Anti-Aliasing (DLAA) : Une alternative à la mise à l’échelle, le DLAA améliore la résolution native grâce à un anti-aliasing supérieur. En utilisant l’anti-aliasing alimenté par TNN, le DLAA offre un meilleur lissage des bords par rapport aux techniques traditionnelles et maintient la clarté pendant les mouvements. Les joueurs qui préfèrent la résolution native mais souhaitent un anti-aliasing supérieur trouveront le DLAA comme une option précieuse.
  4. Frame Generation : Cette technique utilise l’IA pour créer des images artificielles entre chaque frame réelle, améliorant ainsi les taux de rafraîchissement. Dans le DLSS 4, cette fonctionnalité a évolué pour devenir Multi Frame Generation (MFG), permettant de créer jusqu’à trois images artificielles pour chaque image réelle. Cette amélioration est rendue possible par le système AI Optical Flow, qui fait partie de la série RTX 50. Le modèle Transformer, avec sa capacité de traitement des données améliorée, alimente cette fonctionnalité, permettant un gameplay plus fluide et une meilleure cadence d’images. Cependant, Nvidia recommande aux joueurs de n’utiliser que les paramètres MFG qui correspondent au taux de rafraîchissement de leur moniteur pour éviter les artefacts visuels.
  5. Reflex 2.0 : En tant que fonctionnalité indépendante du DLSS, Reflex 2.0 réduit la latence d’entrée, garantissant que les avantages de la génération de frames ne se traduisent pas par une augmentation du délai entre l’entrée de l’utilisateur et la réponse du jeu. Cela garantit que la performance du jeu reste fluide et réactive, même avec l’augmentation de la génération de frames.

>>>VB18 pour Godox V860II V850 V860C V860N Speedlite Flash

Comment le DLSS 4 élève la performance des jeux vidéo

L’intégration du modèle d’IA Transformer dans le DLSS 4 offre un énorme bond en avant tant au niveau des performances que de la qualité d’image. La capacité de générer plusieurs frames grâce à la Multi Frame Generation permet de pousser les taux de rafraîchissement plus haut, rendant les jeux plus fluides et immersifs, même sur des systèmes moins puissants. Couplé à Reflex 2.0, le DLSS 4 garantit que le gain en frames ne se fait pas au détriment de la latence.

En essence, le DLSS 4 offre un niveau de performance inédit et une fidélité visuelle exceptionnelle, en particulier pour les joueurs disposant des dernières cartes graphiques Nvidia, qui peuvent tirer pleinement parti de ces technologies pour vivre un jeu de nouvelle génération. Que vous jouiez en 4K ou avec un moniteur à taux de rafraîchissement élevé, le DLSS 4 promet des visuels plus nets, plus détaillés et plus fluides, en faisant un véritable changeur de jeu dans le monde des graphismes de jeux sur PC.

Le Samsung Galaxy S25 devient le premier smartphone à prendre en charge les Content Credentials pour les médias générés par l’IA

Après l’événement Samsung Unpacked, une annonce majeure a été faite—cette fois par Adobe. L’entreprise a confirmé que la série Galaxy S25 sera la première gamme de smartphones à intégrer les Content Credentials, un standard numérique conçu pour étiqueter les contenus générés par l’IA et assurer une transparence sur l’édition et la manipulation des images.

Que sont les Content Credentials ?

Développés par la Coalition for Content Provenance and Authenticity (C2PA)—dont Samsung est désormais membre—les Content Credentials agissent comme une “étiquette nutritionnelle” pour les contenus numériques. Ce métadonnées intégrées fournissent des informations sur :

  • L’origine et les modifications d’une image
  • L’utilisation éventuelle d’outils d’IA
  • Les altérations apportées au contenu original

L’objectif de cette initiative est de lutter contre la désinformation et les deepfakes générés par l’IA, un problème qui devient de plus en plus préoccupant avec l’évolution des outils d’IA générative.

Bien que les Content Credentials soient initialement déployés pour les images fixes, le standard devrait bientôt s’étendre aux vidéos, fichiers audio et documents. Les utilisateurs pourront vérifier l’authenticité et l’historique des modifications d’une image via l’outil d’authenticité d’Adobe, actuellement en phase bêta.

En plus de Samsung et Adobe, la C2PA regroupe certains des plus grands noms des secteurs des médias, des réseaux sociaux, de l’IA et du hardware :

  • Google, Intel, Microsoft, OpenAI et Amazon
  • Adobe, BBC, Meta, Sony et Truepic
  • Publicis et d’autres grandes agences publicitaires

Avec un tel soutien de l’industrie, il est probable que les Content Credentials deviennent un standard universel pour garantir la transparence des contenus générés par l’IA.

La solution « Qi2 Ready » de Samsung limite toujours la charge magnétique de type MagSafe

Samsung a récemment annoncé sa série Galaxy S25, et pour ceux qui espéraient enfin voir la charge sans fil Qi2 sur un flagship Android, il y a une bonne et une mauvaise nouvelle. Plutôt que d’intégrer directement Qi2 dans les S25, S25+ et S25 Ultra, Samsung a opté pour une approche « Qi2 Ready », ce qui signifie que la pleine compatibilité Qi2 n’est disponible qu’avec une coque spéciale.

Qi2 : La promesse de MagSafe pour Android

Introduit en 2023, le standard Qi2 s’inspire du système MagSafe d’Apple, en utilisant un anneau magnétique pour améliorer l’efficacité de la charge sans fil et permettre l’utilisation d’accessoires magnétiques. Tous les iPhone depuis l’iPhone 12 (sauf l’iPhone SE) prennent en charge Qi2 nativement, facilitant ainsi l’utilisation de supports magnétiques, batteries externes et chargeurs sans fil pour voiture.

Pour les utilisateurs d’Android, l’arrivée de Qi2 devait permettre de combler cet écart, en offrant enfin un standard magnétique universel aux fabricants comme Samsung et Google. L’objectif était de permettre aux utilisateurs d’utiliser les mêmes accessoires sur iPhone et Android, sans avoir besoin d’adaptateurs ou de solutions alternatives.

>>>BW53 pour Xiaomi Watch S1 Pro

Samsung et sa solution « Qi2 Ready » : Une avancée… mais pas assez

Les Galaxy S25 prennent bien en charge la charge sans fil Qi, mais pas Qi2 nativement. À la place, Samsung propose des coques Qi2 Ready, qui ajoutent un anneau magnétique à l’arrière du téléphone, imitant ainsi une compatibilité native avec Qi2.
Concrètement, cela signifie :

  • Avec une coque Qi2 Ready, le Galaxy S25 fonctionne exactement comme un téléphone Qi2 natif, avec la même vitesse de charge, efficacité énergétique et compatibilité avec les accessoires magnétiques.
  • Sans cette coque, les fonctionnalités Qi2 disparaissent, ce qui signifie pas de charge magnétique fiable ni d’accessoires compatibles.

Paul Golden, directeur marketing du Wireless Power Consortium, a confirmé que ces coques permettent d’atteindre la pleine vitesse de charge Qi2 sans que Samsung ait besoin d’ajouter des aimants directement dans le téléphone.

Pourquoi c’est frustrant pour les utilisateurs

Pour ceux qui utilisent toujours une coque, ce compromis ne pose pas vraiment de problème. En effet, selon les statistiques, 68 à 79 % des Américains protègent leur téléphone avec une coque en permanence.
Mais pour ceux qui préfèrent utiliser leur smartphone sans coque, cette solution est frustrante. Contrairement aux iPhones, où les aimants sont intégrés directement dans le téléphone, les Galaxy S25 perdent toute compatibilité Qi2 dès que la coque est retirée.
Cela peut poser problème dans plusieurs situations :

  • Retirer la coque pour utiliser un micro USB-C ou un stabilisateur (gimbal)
  • Alterner entre différentes coques (par exemple, une coque fine pour un usage quotidien et une robuste pour le sport)
  • Vouloir profiter d’un design épuré sans coque sans sacrifier la compatibilité Qi2

Pourquoi Samsung n’a-t-il pas directement intégré Qi2 ?

On ne sait pas exactement pourquoi Samsung n’a pas intégré Qi2 directement dans la série Galaxy S25, mais les raisons pourraient être liées aux coûts et aux contraintes de conception. Ajouter des aimants dans le téléphone nécessite des ajustements internes, et Samsung a peut-être jugé que la solution avec coque était plus simple et moins coûteuse à court terme.

Cependant, cette décision ajoute de la confusion pour les consommateurs. La différence entre Qi, Qi2 et Qi2 Ready n’est pas forcément évidente, et les utilisateurs risquent d’avoir du mal à comprendre ce qui est réellement compatible. Idéalement, Samsung et les autres fabricants Android devraient intégrer Qi2 directement dans leurs téléphones, sans nécessiter de solution intermédiaire.

>>>EB-BA166ABY pour Samsung Galaxy A16 5G

Un premier pas vers un avenir sans fil plus abouti

La bonne nouvelle, c’est que Samsung et Google ont confirmé que des téléphones Android entièrement compatibles Qi2 sortiront en 2025. Cela signifie que les futurs modèles haut de gamme – et peut-être même certains modèles milieu de gamme – auront enfin une compatibilité Qi2 native, sans qu’une coque spéciale soit nécessaire.

Mais il est surprenant que Samsung n’ait pas intégré cette technologie dès la série Galaxy S25. Finalement, les premiers vrais téléphones Qi2 sous Android pourraient être lancés en dehors de la gamme premium de Samsung, ce qui ressemble à une occasion manquée.

L’approche Qi2 Ready de Samsung est donc un compromis fonctionnel, mais ce n’est pas encore l’expérience MagSafe fluide et intégrée que les utilisateurs d’Android attendaient.
Pour l’instant, les fans de Samsung devront attendre 2025 pour voir arriver un véritable smartphone Qi2 sous Android – ou bien opter pour une coque Qi2 Ready et accepter ce compromis temporaire.

Canon dévoile un capteur plein format de 410 mégapixels, le plus haute résolution jamais atteinte dans sa catégorie

Canon a annoncé le développement d’un capteur CMOS plein format 35 mm de 410 mégapixels, établissant ainsi un nouveau record de densité de pixels pour un capteur de cette taille. Ce capteur 24K offre un niveau de détail sans précédent, le rendant particulièrement adapté aux domaines où une clarté extrême est essentielle, comme la surveillance, l’imagerie médicale et les applications industrielles.

>>>Li318991PVYTL  pour Blackview Mega 1

Une résolution, une polyvalence et des performances inégalées

Le capteur plein format de 410 mégapixels de Canon propose une résolution 198 fois supérieure à la HD et 12 fois supérieure à la 8K, permettant une conservation exceptionnelle des détails, même en recadrant ou en agrandissant les images. Contrairement à la plupart des capteurs ultra-haute résolution, généralement limités aux appareils photo moyen format, cette innovation est compatible avec les objectifs plein format existants, ce qui élargit considérablement ses applications.

Pour atteindre cette densité de pixels, Canon a mis au point un nouveau schéma de circuit et une structure empilée rétroéclairée, où les couches de pixels et de traitement du signal sont intercalées. Cela permet :

  • Des vitesses de lecture ultra-rapides atteignant 3 280 mégapixels par seconde
  • L’enregistrement vidéo à 8 images par seconde
  • Une version monochrome prenant en charge le pixel binning, offrant :
    • Des images plus lumineuses en combinant quatre pixels en un
    • Un enregistrement vidéo 100 mégapixels à 24 images par seconde

Ces avancées garantissent non seulement une résolution d’image inégalée, mais aussi un traitement des données ultra-rapide, rendant ce capteur idéal pour des usages professionnels exigeant une extrême précision visuelle.

>>>01AC366 pour IBM Storwize V5000 V5010 V5030 Gen2

Ce capteur pourrait-il arriver sur les appareils photo grand public ?

Bien que ce capteur soit principalement destiné aux applications professionnelles et industrielles, son développement démontre que cette miniaturisation extrême est désormais possible sur des capteurs plein format. S’il est peu probable qu’il apparaisse dans des appareils photo grand public dans l’immédiat, cette percée technologique suggère que les capteurs ultra-haute résolution pourraient progressivement être intégrés dans les futurs équipements photo et vidéo pour les passionnés recherchant la meilleure qualité d’image possible.

Pour l’instant, ce capteur de 410 MP représente une avancée majeure dans l’imagerie numérique, repoussant les limites de la photographie et de la vidéographie en très haute résolution.

Microsoft abandonne la marque Office et la rebaptise Microsoft 365 Copilot

Microsoft a officiellement retiré sa marque emblématique Office, renommant sa suite de productivité sous le nom de Microsoft 365 Copilot. Ce changement reflète l’accent croissant mis par l’entreprise sur l’intégration de l’intelligence artificielle (IA) dans ses produits et services.

Une nouvelle identité : Microsoft 365 Copilot

Selon un rapport de Windows Latest, cette transition s’accompagne d’un logo et d’une interface utilisateur repensés, renforçant la stratégie AI-first de Microsoft. Le nouveau logo intègre un badge M365 au-dessus de l’emblème Copilot, soulignant l’importance accrue des outils alimentés par l’IA dans la suite.

Microsoft a progressivement déployé la marque Copilot, positionnant l’IA comme un élément central de son écosystème de productivité. Cette refonte coïncide également avec une augmentation du prix de l’abonnement Microsoft 365, que l’entreprise justifie par l’intégration des fonctionnalités Copilot AI dans son offre de base.

>>>EB454357VU pour Samsung GT-S5360 S5380

Extension des capacités d’IA dans Microsoft 365

Avec cette nouvelle identité, les abonnés Microsoft 365 bénéficieront des fonctionnalités IA de Copilot dans Word, Excel, PowerPoint, Outlook et OneNote. Ces outils basés sur l’IA offriront :

  • Génération de contenu pour une création de documents plus rapide
  • Automatisation des tâches pour simplifier les flux de travail
  • Fonctionnalités de productivité avancées pour une meilleure efficacité

En outre, Microsoft lance l’application Microsoft Designer, un outil basé sur l’IA pour l’édition et la création d’images, élargissant ainsi son éventail d’applications améliorées par l’intelligence artificielle.

L’essor de l’IA chez Microsoft n’est pas nouveau. En novembre 2023, lors de la Microsoft Ignite Developers Conference, l’entreprise avait déjà rebaptisé Bing Chat en Copilot, consolidant encore davantage son engagement envers des expériences utilisateur basées sur l’intelligence artificielle.