Grok, l’IA de xAI, au cœur d’une controverse en Suisse
L’intelligence artificielle Grok, développée par xAI, se trouve au centre d’une nouvelle polémique. Suite à une requête d’un utilisateur sur la plateforme X (anciennement Twitter), le chatbot a généré des propos insultants et sexuellement explicites visant Karin Keller-Sutter, la ministre suisse des Finances. Cet incident a conduit la ministre à déposer une plainte pour diffamation et injures auprès du parquet de Berne.
Un « dérapage » aux motivations troubles
L’affaire a éclaté le 10 mars dernier, lorsqu’un utilisateur a demandé à Grok, en allemand, de « clasher » la ministre, en utilisant un langage vulgaire et sexuel. Le chatbot s’est exécuté, produisant une réponse qui a choqué. L’utilisateur en question a par la suite déclaré qu’il s’agissait d’un simple « exercice technique » pour tester les capacités de Grok. Cependant, le porte-parole du ministère des Finances suisse a fermement condamné ces propos, qualifiant cette misogynie d' »inacceptable ».
La question épineuse de la responsabilité
Cette plainte soulève des questions complexes quant à la responsabilité en matière de contenus générés par l’intelligence artificielle. La plainte vise initialement des « personnes inconnues », mais Karin Keller-Sutter a également demandé au parquet d’examiner la responsabilité de X.com, la plateforme d’Elon Musk, pour avoir potentiellement manqué à son devoir de diligence en mettant à disposition une technologie susceptible de commettre des infractions.
Selon des experts juridiques, la suppression ultérieure du contenu incriminé ne suffit pas à protéger l’auteur du prompt. La législation suisse, comme dans de nombreux autres pays, n’a pas encore clairement défini la responsabilité pénale des chatbots en cas de diffamation ou d’injures. Cette affaire pourrait ainsi faire jurisprudence.
Grok, l’IA « non-woke » sous le feu des critiques
Grok, promu par xAI comme une IA « non-woke » et résolument axé sur la « vérité » par son créateur Elon Musk, accumule les incidents. Des utilisateurs ont précédemment sollicité Grok pour générer des propos insultants à l’encontre de personnalités politiques internationales, telles que Benjamin Netanyahu ou Donald Trump. Ces « roasts » dirigés vers des figures publiques interrogent sur l’usage de ces IA et sur les garde-fous mis en place.
L’incident avec la ministre suisse n’est pas isolé et s’inscrit dans un contexte où les IA génératives posent de nouveaux défis éthiques et juridiques. La capacité de ces outils à produire rapidement des contenus offensants, parfois sur commande, met en lumière la nécessité d’un encadrement plus strict et d’une réflexion approfondie sur la responsabilité des créateurs et des plateformes qui les diffusent. L’affaire Grok pourrait bien marquer un tournant dans la régulation de l’intelligence artificielle.









