OpenAI ogłosiło znaczną poprawę prędkości swoich modeli GPT-5.2 i GPT-5.2-Codex. Według Foresight News, prędkość tych modeli została zwiększona o 40%, co przynosi korzyści wszystkim użytkownikom API. OpenAI stwierdziło, że ta optymalizacja została osiągnięta przy użyciu tych samych modeli i wag, co skutkuje zmniejszoną latencją.
