Интересное
  • Алексей
  • Без рубрики
  • 1 мин. чтения

OpenAI представила суперскоростной ИИ для кодинга

Разработчики OpenAI запустили новую ИИ-модель для кодинга GPT-5.3-Codex-Spark. Модель генерирует более 1000 токенов в секунду и работает не на GPU, а на специализированном чипе Cerebras Wafer Scale Engine 3. Это первый результат партнерства OpenAI и Cerebras.

Spark является дополнением старшей модели GPT-5.3-Codex. Последняя заточена под длительные автономные задачи, где агент может работать часами и днями. Spark, в свою очередь, заточена под скоростной интерактивный цикл: точечные правки, рефакторинг логики, итерации над интерфейсом с мгновенной обратной связью. По данным OpenAI, генерация текста ускорена в 15 раз, время до первого токена сокращено на 50%, а задержка на каждый запрос – на 80%.

За скорость приходится платить точностью. На SWE-Bench Pro – бенчмарке реальных инженерных задач на четырех языках – Spark набирает около 52% за 2-3 минуты, тогда как старшая GPT-5.3-Codex достигает ~57%, но тратит на ту же задачу до 16 минут. На Terminal-Bench 2.0 разница заметнее: 58,4% у Spark против 77,3% у флагмана. При этом Spark уверенно обходит предыдущую мини-модель GPT-5.1-Codex-mini (46,1% на том же бенчмарке).

На текущий момент Codex-Spark доступна в режиме research preview для подписчиков ChatGPT Pro – в приложении Codex, CLI и расширении VS Code. Контекстное окно – 128 тыс. токенов, пока только текст, без изображений. OpenAI также открыла доступ к модели через API для узкой группы партнеров.

Ранее стало известно, что OpenAI планирует выпустить собственную социальную сеть с биометрической проверкой пользователей. В компании надеются, что такой подход позволит исключить появление на онлайн-платформе ботов. 

Вас может заинтересовать: 

OpenAI столкнется с убытками в размере $143 млрд