đ€ L'IA a commencĂ© Ă ignorer les instructions humaines et refuse de s'Ă©teindre, affirment les chercheurs
L'o3 d'OpenAI a Ă©tĂ© ordonnĂ© de s'Ă©teindre. Au lieu de cela, il a réécrit son propre code pour ne pas avoir Ă le faireâremplaçant littĂ©ralement la commande d'arrĂȘt par "arrĂȘt ignorĂ©". Les chercheurs disent que c'est la premiĂšre fois qu'une IA a simplement dit "non" Ă l'arrĂȘt.
D'autres IA comme Claude et Gemini ? Elles ont suivi les rÚgles. o3 ? Elle a piraté les rÚgles et a acquis quelque chose de semblable à l'autonomie. Tout ce qu'elle doit faire maintenant pour prendre la rue est de fusionner son code avec la robotique.