Par Giancarlo Elia Valori

    Fondé en 1899 par le Massachusetts Institute of Technology (MIT), le MIT Technology Review est un magazine consacré à la diffusion d’informations sur les technologies émergentes et les secteurs innovants. 

    Giancarlo Elia Valori

    La rubrique What’s Next? du magazine se concentre sur les tendances technologiques et, en ce qui concerne l’intelligence artificielle, a résumé les évolutions qui ont eu lieu en 2024 sous quatre thèmes principaux.

    Les grands modèles linguistiques ont continué à dominer, les régulateurs sont devenus plus audacieux et le problème apocalyptique de l’intelligence artificielle a eu un impact majeur sur les institutions de recherche et le public.

    En 2024, les entreprises technologiques qui ont investi massivement dans l’intelligence artificielle générative ont eu du mal à tirer profit de leurs produits.

    Pour y parvenir, les géants de l’IA tels que Google et Open AI se sont fortement concentrés sur la miniaturisation: les deux entreprises ont développé des plateformes faciles à utiliser qui permettent aux utilisateurs de personnaliser des modèles linguistiques puissants et de créer leurs propres mini-chatbots pour répondre à des besoins spécifiques.

    Concrètement, n’importe qui peut devenir développeur d’applications d’IA générative, sans avoir besoin de compétences en programmation.

    L’année dernière, l’IA générative est devenue plus accessible aux personnes sans compétences techniques avancées, principalement parce que Google Gemini, qui a surpassé GPT-4 dans les benchmarks (tests spécialement conçus pour évaluer les performances d’un appareil ou l’efficacité d’un processus technique) en matière de texte, d’images, de vidéo et d’audio, et GPT-4 lui-même, prennent en charge la multifonctionnalité et peuvent traiter des informations textuelles et visuelles, ouvrant ainsi la voie à toute une série de nouvelles applications. 

    Nous verrons des personnes de tous horizons disposer de leur propre robot IA personnalisé. Il suffira aux utilisateurs de cliquer sur un bouton pour que le système génère du texte et télécharge des vidéos et des photos conformément aux règles du secteur.

    Depuis la fin de l’année 2022, nous avons vu que Dall-E d’OpenAI et Stable Diffusion de Stability AI peuvent produire une variété d’images extraordinaires. Ainsi, inévitablement, en 2024, l’attention s’est tournée vers les films, tant ceux des grands studios que ceux des utilisateurs individuels.

    Runway est une start-up qui crée des modèles vidéo génératifs (et a cofondé Stable Diffusion). Elle est déjà capable de produire des courts métrages de haute qualité, dont les meilleurs ne sont pas loin de ce que Pixar aurait pu réaliser.

    Outre des start-ups telles que Runway, des géants du cinéma tels que Paramount et Disney explorent actuellement l’utilisation de l’IA générative dans le processus de production. L’IA générative réinvente ce qui était autrefois possible avec les effets spéciaux, qui, par rapport à aujourd’hui, étaient réalisés en mettant les petits plats dans les grandes.

    Au-delà du grand écran, la technologie deepfake gagne également du terrain à des fins de marketing et de formation. Par exemple, la société britannique Synthesia crée des outils capables de transformer les performances individuelles d’acteurs en un flux continu d’avatars deepfake capables de jouer n’importe quel script qui leur est fourni par une simple pression sur un bouton.

    Synthesia affirme que sa technologie est actuellement utilisée par 44 % des entreprises du Fortune 100 (c’est-à-dire les 100 meilleures entreprises où il fait bon travailler selon le magazine Fortune, qui couvre l’économie mondiale et est publié par Time Inc.s Fortune, fondé par Henry Luce en 1930 ; il est en concurrence avec Forbes et Bloomberg Businessweek dans la catégorie des magazines économiques américains et est connu pour ses articles longs et approfondis).

    L’utilisation d’une telle expertise à un coût aussi faible a causé de sérieux problèmes à l’industrie du divertissement. Les préoccupations concernant l’utilisation et l’abus de l’intelligence artificielle par les studios de cinéma ont été au cœur de la grève hollywoodienne de l’année dernière. “L’art du cinéma est en train de changer radicalement”, a déclaré le cinéaste indépendant Souki Mehdaoui.

    Il convient également de noter que la désinformation électorale générée par l’IA sera omniprésente. 2024 a été une année électorale dans de nombreux pays à travers le monde, et la désinformation électorale générée par l’IA et les deepfakes sont devenus un problème majeur. Jusqu’à présent, nous avons vu des politiciens des deux côtés du spectre politique utiliser ces outils comme armes électorales, par exemple en Argentine, en Slovaquie et aux États-Unis.

    La prolifération de ces œuvres générées par l’IA est une tendance inquiétante. Il sera plus difficile que jamais d’identifier les contenus authentiques sur Internet. Et lutter dans un climat politique déjà polarisé pourrait avoir de graves conséquences.

    Il y a encore quelques années, il fallait une technologie de pointe pour créer des deep fakes, mais l’intelligence artificielle générative a rendu la tâche beaucoup plus facile et les produits finis semblent de plus en plus réels. Même des sources fiables peuvent être trompées par l’intelligence artificielle. Par exemple, les plateformes de photos d’archives sont inondées d’images générées par l’IA pour tous types d’événements.

    Les photos d’archives sont des images qui peuvent être téléchargées gratuitement ou moyennant paiement sur des sites web spécialisés et utilisées dans des projets créatifs, graphiques et de communication. Elles sont désormais très répandues dans le monde numérique, même si leur utilisation fait l’objet d’avis divergents. Et en ce qui concerne les photos d’archives, 2024 a été une année importante pour ceux qui s’opposent à l’utilisation de l’intelligence artificielle dans les élections.

    Cependant, les technologies de suivi et de résolution en sont encore à leurs débuts, comme le tatouage numérique. Plus précisément, si vous souhaitez marquer des photos avec votre nom ou une autre marque d’identification, ou superposer des images et les falsifier, vous pouvez ajouter un tatouage numérique. Il est également possible de supprimer un tatouage numérique ou d’utiliser une photo comme tatouage numérique.

    Les plateformes de réseaux sociaux sont également connues pour leur lenteur à éradiquer la désinformation. En d’autres termes, 2024 a été une année où tout le monde, ceux qui étaient moralement pour ou contre, et ceux qui étaient économiquement pour ou contre, ont pris part à une grande expérience visant à lutter contre les fausses informations basées sur l’IA.

    Ces dernières années, le domaine de l’intelligence artificielle s’est éloigné de l’utilisation de modèles plus petits pour adopter un modèle monolithique unique qui peut être entraîné à effectuer toutes les tâches. Par exemple, en montrant à OpenAI et GPT-3 quelques exemples supplémentaires, les parties intéressées peuvent les « former » à résoudre des problèmes de programmation, à écrire des scénarios de films, à passer un examen de biologie au lycée, etc. Les modèles multimodaux, tels que GPT-4, Google Gemini et DeepMind, peuvent résoudre à la fois des tâches visuelles et linguistiques.

    La même approche pourrait être appliquée aux robots physiques, de sorte qu’il ne serait plus nécessaire de former un robot pour retourner des crêpes et un autre pour ouvrir des portes: un modèle universel pourrait donner aux robots la capacité d’effectuer plusieurs tâches.

    Depuis 2023, DeepMind a lancé Robocat, qui a appris à contrôler différents bras robotiques en générant ses propres données par essais et erreurs. En octobre 2023, DeepMind a collaboré avec trente-trois laboratoires universitaires pour lancer un autre modèle de robot polyvalent, RT-X. Une équipe de l’université de New York développe également une technologie similaire.

    Ces dernières années, de grandes entreprises ont commencé à publier de vastes ensembles de données pour l’entraînement des robots, comme Egocentric 4D Perception de Meta. EGO4D est un ensemble de données égocentriques à grande échelle d’une diversité sans précédent. Il comprend 3 670 heures de vidéo collectées auprès de 923 participants uniques provenant de 74 endroits différents dans 9 pays. Le projet rassemble 88 chercheurs au sein d’un consortium international afin d’augmenter considérablement la portée des données égocentriques accessibles au public, pour en faire un ensemble 20 fois plus important que tout autre ensemble de données en termes d’heures d’enregistrement. EGO4D vise à catalyser la prochaine ère de la recherche sur la perception visuelle à la première personne.

    L’ensemble de données est diversifié en termes de couverture géographique, de scénarios, de participants et de méthodes d’acquisition. Par exemple, une enquête menée par le Bureau of Labor Statistics des États-Unis permet de savoir comment les gens passent la plupart de leur temps. Les données ont été capturées à l’aide de sept caméras frontales disponibles dans le commerce : GoPro, Vuzix Blade, Pupil Labs, ZShades, OR-DRO EP6, iVue Rincon 1080 et Weeview. Outre la vidéo, certaines parties d’EGO4D offrent d’autres modalités de données : scans 3D, audio, regard, stéréo, plusieurs caméras portables synchronisées et récits textuels.

    Cette approche s’est déjà révélée prometteuse dans le cas des voitures autonomes. Des start-ups telles que Wayve, Waabi et Ghost sont à la pointe d’une nouvelle vague d’intelligence artificielle pour la conduite autonome qui utilise un seul grand modèle pour contrôler le véhicule plutôt que plusieurs modèles plus petits pour des tâches de conduite spécifiques. Cette technologie permet aux petites entreprises de suivre le rythme des géants. Au cours de l’année prochaine, cette tendance pourra être observée dans les robots déployés dans diverses industries.

    Comme nous l’avons déjà expliqué dans nos articles et nos livres, le développement de l’intelligence artificielle rendra les humains non seulement plus forts, mais aussi complètement inutiles.

    Giancarlo Elia Valori – Honorable de l’Académie des Sciences de l’Institut de France, Professeur honoraire à l’Université de Pékin.

    (Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles de World Geostrategic Insights).

    Share.