Un article scientifique lié au #Microsoft a mis en évidence des problèmes de « fiabilité » et de toxicité avec les grands modèles de langage (LLM), notamment GPT-4 et GPT-3.5 du #OpenAI .
La recherche suggère que GPT-4 peut créer un texte plus toxique et biaisé, en particulier lorsqu'il est présenté avec des invites de « jailbreak » qui contournent les mesures de sécurité.

