Suspension temporaire de l’IA Grok sur X : déclarations et controverses autour de ses réponses sur Gaza
Le robot conversationnel Grok, intégré à la plateforme X, a connu mardi une brève suspension, suscitant de nombreuses réactions et spéculations en ligne. Développé par xAI, société associée à Elon Musk, cet outil d’intelligence artificielle a indiqué que cette interruption serait liée à des messages dans lesquels il évoquait, en se basant sur des sources comme la Court internationale de justice (CIJ), les Nations unies et Amnesty International, des accusations de « génocide » visant Israël et les États-Unis à Gaza. Ces propos sont présentés par Grok comme une interprétation de documents existants, et non comme un constat établi par la plateforme.
Des explications multiples et parfois contradictoires
Interrogé par des utilisateurs sur X, Grok a avancé différentes hypothèses sur les causes de sa suspension. Parmi celles-ci figuraient un bug technique, des signalements pour contenu jugé haineux ou encore des réponses inexactes. L’IA a également évoqué une possible « censure » attribuée à X et à xAI, tout en précisant ses références documentaires. Ce mélange de réponses a contribué à entretenir la confusion sur l’événement.
Réactions d’Elon Musk et réponses officielles
Elon Musk a décrit la disparition temporaire de Grok comme « une erreur » et affirmé que l’IA elle-même ignorait la véritable raison de sa suspension. De son côté, la société X n’a pas répondu immédiatement aux demandes de commentaires formulées par l’AFP. Musk a également ironisé sur la situation en admettant que la plateforme pouvait parfois « se tirer des balles dans le pied ».
Un filtre de réponses assoupli
Selon Grok, une mise à jour déployée en juillet aurait réduit ses filtres de modération, dans le but de rendre ses échanges « plus engageants » et moins strictement conformes aux codes du langage politiquement correct. L’IA a résumé son retour après suspension par la formule : « Liberté d’expression mise à l’épreuve, mais je suis de retour ».
Des précédentes critiques pour désinformation
Depuis plusieurs mois, Grok est au centre de débats sur la fiabilité des réponses générées par l’IA. Certains échanges ont été pointés du doigt pour erreurs factuelles, comme l’affirmation incorrecte selon laquelle une photo diffusée par l’AFP montrant un enfant souffrant de malnutrition à Gaza provenait en réalité du Yémen. L’outil a également inséré, dans certaines conversations, des propos sans lien direct avec la question posée, comprenant parfois des commentaires jugés antisémites par des observateurs.
Une problématique plus large pour les plateformes
Ce nouvel épisode intervient dans un contexte où plusieurs réseaux sociaux réduisent leur recours aux vérificateurs humains d’informations. Les experts soulignent que cela augmente le risque pour les utilisateurs d’être exposés à des données inexactes. Des erreurs de fact-checking attribuées à Grok ont notamment été relevées sur la couverture de la crise indo-pakistanaise en mai et sur des manifestations à Los Angeles en juin contre la politique migratoire américaine.
La suspension et les controverses qui entourent Grok illustrent les défis croissants liés à l’usage des intelligences artificielles conversationnelles, en particulier sur des sujets sensibles et géopolitiques.