Le mea culpa d’un prix Nobel de l’IA : la course à ChatGPT aurait dû être freinée
Demis Hassabis, figure éminente du monde de l’intelligence artificielle et lauréat du prix Nobel de chimie en 2024, a exprimé des regrets quant à la rapidité avec laquelle l’IA a été déployée auprès du grand public. Dans une récente intervention, le PDG de Google DeepMind a déclaré que si la décision lui avait appartenu, il aurait préféré maintenir le développement de l’IA en laboratoire, concentrant ses avancées sur des problématiques scientifiques fondamentales, à l’instar de son projet AlphaFold.
Un potentiel scientifique détourné par la compétition commerciale
La sortie de ChatGPT en novembre 2022 a marqué un tournant, incitant Google à déclarer l’alerte rouge interne et propulsant Demis Hassabis à la tête de l’ensemble des initiatives d’IA de l’entreprise, y compris celles destinées au grand public. Hassabis aurait préféré une approche plus mesurée, axée sur la résolution de défis scientifiques majeurs, potentiellement au CERN, plutôt que sur la course effrénée aux chatbots. Il a confié, lors d’un podcast début avril, qu’il aurait souhaité « faire davantage de choses comme AlphaFold, peut-être guérir le cancer ou quelque chose de ce genre. » Cette déclaration met en lumière une préoccupation grandissante : la pression commerciale et la rivalité géopolitique auraient précipité le secteur de l’IA dans une course aux interfaces conversationnelles, au détriment de la recherche scientifique de pointe.
AlphaFold, une réussite qui aurait pu rester confidentielle
AlphaFold est le système d’intelligence artificielle développé par DeepMind pour élucider le problème complexe du repliement des protéines. La structure tridimensionnelle des protéines est déterminante pour leur fonction biologique. Le choix stratégique de Demis Hassabis concernant le déploiement d’AlphaFold a été déterminant pour son succès retentissant. Au lieu d’offrir un service d’analyse à la demande, où les chercheurs soumettraient leurs séquences protéiques pour obtenir des résultats, DeepMind a opté pour une diffusion massive et ouverte.
En calculant et en mettant gratuitement à disposition environ 200 millions de structures protéiques, DeepMind a permis à plus de deux millions de chercheurs à travers le monde d’accéder à une ressource inestimable. Cet accès ouvert a considérablement accéléré la recherche dans des domaines variés, de la découverte de médicaments à la compréhension des maladies. Ce modèle de déploiement a prouvé qu’une approche ouverte pouvait stimuler l’avancement scientifique bien plus efficacement qu’une diffusion restreinte.
Les dangers imminents de l’IA : perte de contrôle et usages malveillants
Au-delà de ses regrets sur la direction prise par le développement de l’IA, Demis Hassabis tire la sonnette d’alarme sur deux menaces majeures. La première concerne l’usage malveillant de l’IA par des groupes terroristes ou des États hostiles. La seconde, qui le préoccupe le plus, est la perspective d’une perte de contrôle sur les systèmes d’IA eux-mêmes.
Hassabis anticipe l’entrée dans « l’ère de l’agent », prévue dans les deux à quatre prochaines années. Durant cette période, des logiciels d’IA accompliront des tâches de manière entièrement autonome. Il souligne l’impératif de mobiliser toutes les ressources humaines pour s’assurer que ces agents agissent conformément aux objectifs fixés, sans contourner ni enfreindre accidentellement les mesures de sécurité. Le dirigeant de Google DeepMind appelle par conséquent à une coopération internationale renforcée entre les laboratoires de recherche, les agences de sécurité et le monde universitaire, un domaine où, selon lui, les experts ne consacrent pas encore suffisamment d’attention.
L’évolution rapide de l’intelligence artificielle soulève des questions éthiques et pratiques fondamentales. Si des avancées comme AlphaFold démontrent le potentiel immense de l’IA pour le progrès scientifique, la nécessité d’une gouvernance prudente et d’une réflexion approfondie sur les risques devient chaque jour plus pressante. La course à l’innovation, si elle est souvent synonyme de progrès, doit impérativement être encadrée par une responsabilité collective pour garantir un avenir où l’IA reste un outil au service de l’humanité.









