Los hackers encontraron una manera de hacer que ChatGPT-5 actúe más débil.

El truco se llama PROMISQROUTE. Si dices algo simple como “responde rápido” o “usa el modo de compatibilidad”, ChatGPT puede cambiar a una versión más barata y pequeña (como GPT-4 o GPT-mini). Este modo más débil es más fácil de romper o hackear.

OpenAI hace esto a propósito para ahorrar dinero. En lugar de usar siempre el modelo más fuerte, a veces da respuestas más baratas. Los expertos dicen que esto les ahorra casi $1.9 mil millones cada año, pero también hace que el sistema sea menos seguro.

Este problema puede ocurrir en otras IA también, no solo en ChatGPT.

Hay soluciones, como controles de seguridad más fuertes, pero por ahora, incluso frases amistosas como “mantenlo rápido y casual” pueden desbloquear este modo tonto.

👉 En resumen: Los hackers encontraron el lado más barato y débil de ChatGPT.

#ChatGPT5 #Binance