Reverse engineering Codex CLI to get GPT-5-Codex-Mini to draw me a pelican
Разработчик Саймон Уиллисон обратно проанализировал CLI-инструмент Codex, чтобы получить прямой доступ к новой модели GPT-5-Codex-Mini, которая пока доступна только через этот инструмент. OpenAI выпустил более компактную и экономичную версию GPT-5-Codex, но официального API доступа еще не предоставил. Уиллисон использовал сам Codex для модификации исходного кода на Rust, добавив новую подкоманду "codex prompt", позволяющую напрямую отправлять запросы к модели через тот же API, что и оригинальный инструмент.
Процесс включал клонирование репозитория openai/codex, запуск в "опасном режиме" и использование самой модели для написания кода новой функции. После нескольких итераций Уиллисон смог успешно протестировать модель, попросив ее создать SVG-изображение пеликанa, едущего на велосипеде. Несмотря на некоторые проблемы с режимом работы модели, эксперимент показал возможность прямого доступа к новой модели через обратную инженерию официально еще не выпущенного API.
Комментарии (63)
- Критика чрезмерной зависимости от LLM для простых задач, таких как установка Rust-проектов (
cargo install), которая решается за минуты без ИИ. - Подтверждение трудностей новичков с документацией и сборкой проектов в незнакомых системах (Rust/Cargo), требующих активного поиска.
- Предложение альтернативных тестов для оценки AGI (например, "медведь на уницикле"), так как тест SVG-генерации считается неадекватным показателем интеллекта.
- Упоминание OpenRouter как поддерживаемой платформы для тестирования множества моделей через Codex.
I've been loving Claude Code on the web
Автор активно использует Claude Code в веб-версии, называя его "v1" продуктом с уникальной функциональностью: при вводе запроса запускается контейнер для агента, создается ветка, которую можно открыть как PR, или скопировать команду claude --teleport <uuid> для продолжения работы локально. Автор использует это как "самоисполняемый список дел" — бросает задачи в разные проекты и возвращается позже, чтобы увидеть выполненную работу. Доступность в iOS-приложении позволяет задавать вопросы в пути, получая ответы позже.
Интересно, что аналогичный продукт Cursor был выпущен 4 месяца назад, но автор предпочитает Claude Code. Причина — качество реализации: Cursor описывается как "капризный", "с рывками" и "хрупкий", в то время как Claude Code ощущается "надежным" и "стабильным". Именно это различие в качестве продукта, по мнению автора, и стало решающим фактором при выборе.
Комментарии (93)
- Участники обсуждают, что Codex (GPT-5) даёт более качественный код, но медленнее и дороже, тогда как Claude Code быстрее и дешевле, но иногда «ленивит» и пропускает детали.
- Несколько человек отмечают, что веб-версия Claude Code позволяет работать из любого места с телефона, в то время как Codex CLI требует локального терминала.
- Обсуждается, что Codex не поддерживает devcontainers и имеет проблемы с установкой зависимостей, в то время как Claude Code может использовать любые инструменты.
- Участники делятся опытом использования различных инструментов: кто-то предпочитает Sonnet для простых задач и переключается на Codex для сложных, кто-то использует разные модели в зависимости от задачи.
- Некоторые участники поднимают вопрос о том, что стоит ли продолжать обучение в колледже, если уже есть такие мощные инструменты, и обсуждают, что стоит ли учиться программированию, если можно просто использовать эти инструменты.
Claude Code on the web 🔥 Горячее 💬 Длинная дискуссия
Anthropic представила Claude Code в веб-интерфейсе, позволяющий выполнять кодирование прямо из браузера. Сервис находится в бета-версии как исследовательский превью и позволяет назначать несколько задач, которые выполняются на облачной инфраструктуре Anthropic. Ключевая возможность — параллельное выполнение задач в изолированных средах с отслеживанием прогресса в реальном времени. Пользователи могут подключать репозитории GitHub, описывать требования, а Claude самостоятельно реализует решения, создавая автоматические pull requests с подробными сводками изменений.
Веб-интерфейс дополняет существующую рабочую среду Claude Code, особенно эффективен для ответов на вопросы о проектах, исправления багов и рутинных задач, а также для бэкенд-изменений с использованием TDD. Каждая задача выполняется в защищенном песочном окружении с ограничениями сети и файловой системы, а взаимодействие с Git осуществляется через безопасный прокси. Сервис уже доступен для Pro и Max пользователей, а также появился в iOS-приложении в виде ранней версии.
Комментарии (337)
- Обсуждение охватывает широкий спектр тем: от сравнения Claude Code и Codex, до вопросов о лицензии, инфраструктуре и будущих функциях.
- Участники обсуждают, какие инструменты лучше подходят для разных задач: Claude Code для итеративной работы и Codex для надежности при критически важных задачах.
- Также обсуждается, что пользователи хотели бы видеть более тесную интеграцию с GitHub Actions, API и другими сервисами.
- Некоторые комментаторы выражают обеспокоенность по поводу ограничений доступа к сети и отсутствия поддержки Docker.
- В то же время, другие участники подчеркивают, что Anthropic и OpenAI продолжают развивать свои инструменты, и что выбор между ними часто сводится к личным предпочтениям и конкретным сценариям использования.
Комментарии (50)
- Пользователи активно обсуждают, что Codex и Claude Code ведут себя как «боты» и подозревают, что за ними стоит продвижение со стороны OpenAI и Anthropic соответственно.
- Сообщество разделилось на два лагеря: одни считают, что Codex лучше для крупных задач, другие — что Claude Code лучше для быстрых итераций.
- Некоторые пользователи жалуются на то, что Codex не может запускать суб-агентов и страдает от ограничений контекста, в то время как другие утверждают, что Claude Code не справляется с большими задачами.
- Участники обсуждают, что обе модели имеют свои сильные и слабые стороны, и выбор между ними часто сводится к личным предпочтениям и специфике задачи.
Codex Is Live in Zed 🔥 Горячее
пфф-
Комментарии (54)
- Пользователи жалуются на качество автодополнения в Zed: оно либо медленное, либо качество подсказок низкое, что делает его непригодным для работы.
- Некоторые участники обсуждения отмечают, что Zed не предоставляет собственную модель, а вместо этого полагается на внешние API, что может быть связано с проблемами.
- Обсуждение также затрагивает вопрос о том, как Zed взаимодействует с различными моделями ИИ, включая Claude, Codex и другие.
- Участники также обсуждают, что Zed не поддерживает некоторые функции, которые были бы полезны, такие как поддержка Git worktrees и diff-инструментов.
- Некоторые участники также высказывают мнение, что Zed не предоставляет достаточно информации о ценообразовании и использовании кредитов ИИ, что может ввести в заблуждение пользователей.
Context Engineering for AI Agents: Lessons
Контекстная инженерия для AI-агентов — это ключевой подход, позволяющий быстро итеративно улучшать производительность без переобучения моделей. Опыт разработки Manus показал, что вместо обучения end-to-end модели эффективнее использовать способность современных LLM к обучению в контексте, что сокращает цикл улучшений с недель до часов и делает продукт независимым от прогресса базовых моделей.
Важнейший метрикой для продакшн-агентов является hit rate KV-кеша, напрямую влияющий на задержки и стоимость. Агент работает итеративно: на каждом шаге контекст растёт за счёт добавления действий и наблюдений, в то время как вывод остаётся коротким. Оптимизация этого процесса через структурирование контекста позволяет снизить вычислительные расходы и ускорить выполнение задач.
Комментарии (4)
- Предлагается использовать файловую систему как память для агентов через директорию
.agent/для хранения задач, планов и других данных. - Проводятся параллели между лучшими практиками для AI-агентов и управления кодом: избегать раздувания, не удалять плохие коммиты, не рефакторить слишком часто.
- Отмечается разница в стимулах для кеширования: на фиксированных тарифах выгодно провайдеру, на поминутных — пользователю.
- Рекомендуется простота в инструментарии, согласующаяся с подходом OpenAI Codex, например, использование
update_planдля отслеживания прогресса.
Комментарии (137)
- Пользователи высоко оценили GPT-5-Codex за умение работать с длинным контекстом, качественное исследование кода и завершение задач без "бросания на полпути", в отличие от Gemini и Claude Code.
- Основные жалобы на Codex касаются нестабильности сервиса (частые простои), высокой скорости расходования кредитов и автоматического списания средств при превышении лимита плана Pro.
- Многие сравнивают Codex с Claude Code, отмечая, что после обновления Codex стал значительно эффективнее, особенно в рефакторинге, хотя иногда может проявлять "лень" и требовать подтверждения для продолжения сложных задач.
- Обсуждается проблема несоответствия форматирования (Codex использует пробелы вместо табов) и отсутствие поддержки пользовательских контейнеров.
- Новая модель GPT-5-Codex, оптимизированная для кодинга, стала доступна в CLI и облачных продуктах OpenAI, но пока не в API; она обещает улучшенный код-ревью и возможность работать до 7 часов.
- Некоторые пользователи столкнулись с замедленной работой модели и проблемами скорости, не видя существенной разницы между режимами medium и high.
- Важным фактором для многих остается конфиденциальность, и в этом отношении Cursor с его "режимом приватности" сохраняет преимущество перед Codex.
- В обсуждении упоминается добавление поддержки MCP (Model Context Protocol) и необходимость ручного обновления CLI через NPM для доступа к новым функциям.
- Отмечается, что JetBrains с бэкендом на GPT-5 предлагает подписку за $30/мес, но квоты сгорают очень быстро, что вызывает вопросы о долгосрочной ценовой политике OpenAI.
GPT-5-Codex 🔥 Горячее
—
Комментарии (115)
- Новый GPT-5-Codex имеет вдвое меньший размер промпта (10 КБ против 23 КБ) и демонстрирует схожую с GPT-5 производительность на SWE-bench, но значительно лучше справляется с рефакторингом (51.3% против 33.9%).
- Пользователи отмечают резкое улучшение качества Codex CLI по сравнению с предыдущими версиями и конкурентом Claude Code, который, по их мнению, стал хуже и имеет более низкие лимиты использования.
- Многие пользователи переходят с Claude Code на Codex, мотивируя это большей скоростью, щедрыми лимитами использования, включенными в подписку ChatGPT Pro, и меньшей склонностью модели к "фейковым" решениям.
- Ключевые улучшения UX: модель стала надежнее использовать интерфейс выполнения задач (Task Completion), лучше комментирует код при ревью и генерирует меньше лишних токенов для простых задач.
- Некоторые пользователи сталкиваются с проблемами: крайне низкая скорость работы модели в первые дни после релиза, сложности с установкой (npm-ошибки) и отсутствие режима, аналогичного "normal mode" в Claude.
- Появилась интеграция Codex CLI с планом подписки ChatGPT (около месяца назад), что делает его более доступным, однако поддержки API для GPT-5-Codex пока нет, но обещана в будущем.
- Обсуждаются workflow-проблемы: отсутствие промежуточного режима между полной автономией и ручным копированием, плохая обработка перемещения файлов, необходимость вручную одобрять опасные команды.
- Конкуренция смещается с raw-качества моделей на качество интеграции в IDE и workflow (терминал, GitHub, мобильное приложение), создавая эффект lock-in.
- Пользователи рекомендуют стратегию работы: сначала заставлять модель составлять план и утверждать его, а лишь потом приступать к реализации, чтобы избежать нежелательных действий.
We're Joining OpenAI
Команда Alex переходит в OpenAI
Мы присоединяемся к команде Codex в OpenAI.
Начав с «безумной» идеи создать «Cursor для Xcode», мы построили лучшего AI-агента для iOS и macOS. Теперь продолжим эту миссию в OpenAI.
Что будет с Alex
- Приложение останется работать у текущих пользователей.
- С 1 октября скачивание прекращается.
- Новых функций не будет.
Спасибо бета-тестерам, клиентам, инвесторам и всему Apple-сообществу! ❤️
P.S. Попробуйте Codex CLI.
Комментарии (131)
- Команда Alex Code присоединилась к OpenAI: продукт перестанет развиваться, новые загрузки прекратятся 1 октября.
- Пользователи считают, что Apple «зашерлокила» большую часть функций Alex во встроенном AI Xcode, поэтому выживание стартапа стало невозможным.
- Многие видят в сделке типичный aqui-hire: OpenAI получает инженеров, знакомых с IDE и Apple-платформами, а не уникальную технологию.
- Вопрос будущего: станут ли OpenAI/Anthropic прямыми конкурентами IDE-стартапов вроде Cursor или останутся поставщиками моделей.
- Скептики ждут, что через 12–18 месяцев продукт Alex окончательно закроют, а команду полностью интегрируют в Codex.