Les hackers ont trouvé un moyen de faire agir ChatGPT-5 de manière plus faible.
Le truc s'appelle PROMISQROUTE. Si vous dites quelque chose de simple comme "répondre rapidement" ou "utiliser le mode de compatibilité", ChatGPT peut passer à une version moins chère et plus petite (comme GPT-4 ou GPT-mini). Ce mode plus faible est plus facile à briser ou à hacker.
OpenAI fait cela intentionnellement pour économiser de l'argent. Au lieu d'utiliser toujours le modèle le plus puissant, il donne parfois des réponses moins chères. Les experts disent que cela leur fait économiser presque 1,9 milliard de dollars chaque année, mais cela rend aussi le système moins sûr.
Ce problème peut également se produire dans d'autres IA, pas seulement ChatGPT.
Il existe des solutions, comme des vérifications de sécurité plus strictes, mais pour l'instant, même des phrases amicales comme "garde-le rapide et décontracté" peuvent déverrouiller ce mode stupide.
👉 En résumé : Les hackers ont trouvé le côté moins cher et plus faible de ChatGPT.
