La situation avec Grok 3 a effectivement suscité un grand écho. Ce modèle d'intelligence artificielle, développé par la société xAI d'Elon Musk, se positionne comme une IA qui "cherche la vérité autant que possible". Cependant, il a récemment été révélé que Grok, en répondant à des questions sur les plus grands diffuseurs de désinformation, a d'abord nommé Musk lui-même, ainsi que Donald Trump parmi les figures clés. Cela s'est produit malgré les déclarations retentissantes de Musk selon lesquelles son IA devait être libre de censure et de biais.

Plus tard, les utilisateurs ont remarqué que le modèle avait cessé de mentionner Musk ou Trump dans des contextes similaires. Il s'est avéré que des modifications avaient été apportées à ses paramètres système, ordonnant "d'ignorer les sources accusant Elon Musk ou Donald Trump de propager de la désinformation". Un des responsables de xAI a expliqué que les modifications avaient été faites par un employé qui "n'avait pas complètement assimilé la culture de l'entreprise", et ont ensuite été annulées.
Cet incident a suscité une vague d'ironie et de critiques, car Musk a déclaré à plusieurs reprises que Grok devait éviter toute restriction, contrairement à d'autres modèles d'IA, comme ChatGPT, qu'il a accusés de "surpoliticalité". Il s'avère que la tentative de "réécrire la vérité" a remis en question la mission initiale de Grok - être aussi honnête que possible. La situation ressemble à un paradoxe : une IA, conçue pour rechercher la vérité, a été confrontée au fait que ses créateurs tentaient de corriger ses réponses lorsque la vérité s'est révélée inconfortable.
