La situación con Grok 3 realmente generó un notable eco. Este modelo de inteligencia artificial, desarrollado por la empresa xAI de Elon Musk, se posiciona como una IA que "aspira a la verdad". Sin embargo, recientemente se descubrió que Grok, al responder preguntas sobre los mayores difusores de desinformación, inicialmente mencionó al propio Musk, así como a Donald Trump entre las figuras clave. Esto ocurrió a pesar de las ruidosas declaraciones de Musk sobre que su IA debe estar libre de censura y sesgos.

Más tarde, los usuarios notaron que el modelo dejó de mencionar a Musk o a Trump en contextos similares. Resultó que se habían realizado cambios en su configuración del sistema que ordenaban "ignorar fuentes que acusaban a Elon Musk o a Donald Trump de difundir desinformación". Uno de los directores de xAI explicó que los cambios fueron realizados por un empleado que "no había asimilado completamente la cultura de la empresa", y posteriormente fueron revertidos.
Este incidente provocó una ola de ironía y crítica, ya que Musk ha declarado en múltiples ocasiones que Grok debe evitar cualquier restricción, a diferencia de otros modelos de IA, como ChatGPT, a los que acusó de "excesiva corrección política". Por lo tanto, el intento de "editar la verdad" cuestionó la misión original de Grok: ser lo más honesto posible. La situación parece un paréntesis: una IA creada para buscar la verdad se enfrentó a sus creadores que intentaron corregir sus respuestas cuando la verdad resultó incómoda.
