Cerebras Code now supports GLM 4.6 at 1000 tokens/sec
Cerebras привлек $1.1 млрд в раунде G по оценке $8.1 млрд, представив платформу для быстрой генерации кода на базе модели GLM-4.6. Эта модель обрабатывает более 1,000 токенов в секунду, занимая первое место в рейтинге вызова инструментов Berkeley Function Calling и демонстрируя производительность на уровне Sonnet 4.5 в веб-разработке. Платформа позволяет использовать GLM-4.6 с любым AI-дружелюбным редактором кода через API.
Компания предлагает три тарифных плана: бесплатный с ограниченным доступом, Pro за $50 в месяц (24 млн токенов в день) и Max за $200 (120 млн токенов). Эти варианты подходят как для небольших проектов, так и для полноценной разработки с интеграцией в IDE. Cerebras позиционирует свой сервис как решение для поддержания состояния потока программиста без ожидания генерации кода.
Комментарии (108)
- Cerebras Code с GLM 4.6 демонстрирует высокую скорость генерации (до 1000 ток/с), что значительно ускоряет итерации, особенно для UI-разработки и рутинных задач.
- Пользователи разделились: одни видят в скорости революцию для продуктивности ("секретное оружие"), другие скептичны, считая модель уступающей конкурентам (Claude, GPT) и сомневаясь в отсутствии квантования.
- Практическая ценность зависит от задач: скорость критична для быстрой обратной связи в веб-разработке, но менее полезна для глубокого кодирования или нишевых областей (embedded), где важнее точность.
- Поднимаются вопросы о реальной производительности модели, обоснованности цены ($50/мес) и устойчивости бизнес-модели, особенно при высоких затратах на токены.
- Аппаратная реализация (гигантский чип Cerebras) объясняет скорость, но вызывает споры о влиянии на качество вывода и отсутствие независимой верификации.
How I use every Claude Code feature 🔥 Горячее 💬 Длинная дискуссия
Автор активно использует Claude Code как для хобби-проектов, так и профессионально, где его команда потребляет несколько миллиардов токенов в месяц для генерации кода. По его мнению, пространство CLI-агентов стало конкурентным полем, но выбор разработчиков часто зависит от поверхностных различий в реализации функций или "тона" системных промптов, а не от фундаментальных различий. Автор предпочитает подход "забыл и забыл" — делегировать задачи, задавать контекст и позволять ИИ работать, оценивая результат по финальному PR, а не по процессу.
Ключевым элементом эффективного использования Claude Code является файл CLAUDE.md в корне репозитория, который служит "конституцией" для агента. В профессиональной среде этот файл строго поддерживается и достигает 13 КБ, потенциально вырастая до 25 КБ. Автор рекомендует начинать с ограничений, а не с полного руководства, избегать встраивания полного документации в контекст, не просто говорить "никогда", а предлагать альтернативы, и использовать CLAUDE.md как инструмент для упрощения внутреннего инструментария. Для совместимости с другими AI-IDE файл синхронизируется с AGENTS.md.
Комментарии (153)
- Обсуждение охватывает вопросы от синхронизации файлов агентов (AGENTS.md ↔ CLAUDE.md) до философии MCP и навыков (skills), а также затрагивает рабочий процесс с git-worktree и CLI-утилитами.
- Участники обмениваются опытом использования Claude Code, Cursor и других инструментов, обсуждают их преимущества и недостатки, а также их влияние на разработку и рабочий процесс.
- Обсуждаются проблемы с контекстом, который может использовать агент, и как лучше всего структурировать проекты для облегчения работы агента.
- Также затрагивается вопрос о том, как лучше всего использовать инструменты в зависимости от ситуации и как они могут быть улучшены.
Syntax highlighting is a waste of an information channel (2020) 🔥 Горячее
Синтаксическое выделение цветом полезно, но недоиспользует возможности цвета как канала информации. Цвет может нести гораздо больше информации, чем просто выделение синтаксиса. Например, можно использовать разные цвета, чтобы показать уровень вложенности скобок, что улучшает читаемость кода.
Другой пример — выделение импортов: можно подсвечивать идентификаторы, импортированные из других файлов, что помогает быстро понять зависимости. Также можно выделять аргументы функций иначе, чем локальные переменные, или использовать цвет для указания типов данных, даже если язык этого не требует.
Ещё одна идея — выделение функций, которые вызывают исключения, или функций, которые были изменены в последнее время. Это превращает подсветку из чисто декоративной функции в мощный инструмент для анализа кода и отладки.
Однако реализация таких функций сложна, так как требует доступа к AST и глубокого понимания кода, а не только лексического анализа. Кроме того, могут возникать конфликты, когда один элемент нужно выделить двумя разными способами одновременно. Нужно тщательно проектировать систему, чтобы избежать визуального хаоса.
В итоге, хотя современные IDE уже предоставляют некоторые из этих функций, мы далеки от полноценного использования цвета как информационного канала. Расширение этих возможностей может значительно улучшить читаемость и понимание кода.
Комментарии (134)
- Обсуждение показало, что большинство участников считают современные редакторы кода не используют цвет как информационный канал, а лишь как декоративный элемент.
- Участники подчеркнули, что вместо того, чтобы использовать цвет для передачи дополнительной информации, редакторы ограничиваются лишь базовой подсветкой синтаксиса.
- Некоторые участники упомянули, что такие вещи как подсветка потока данных, подсветка переменных и подсветка ошибок уже реализованы в таких IDE как IntelliJ IDEA, но не используются в других редакторах.
- Были также упомянуты такие вещи как подсветка важных частей кода, подсветка области видимости и подсветка неиспользуемого кода.
- Несколько участников выразили мнение, что цветовая схема должна быть более гибкой и адаптивной, чтобы отражать структуру и смысл кода, а не только его синтаксическую категорию.
Two things LLM coding agents are still bad at 🔥 Горячее 💬 Длинная дискуссия
LLM-агенты пока не умеют копировать и вставлять код — они только «записывают» его заново, что делает невозможным точный рефакторинг. И они не задают вопросов, а сразу делают предположения и бьются об стену. Эти две особенности делают LLM-агентов похожими на самоуверенных стажёров, а не на полноценных разработчиков.
Комментарии (340)
- LLM-агенты не умеют копировать-вставлять код, а только переписывают его из памяти, что может привести к ошибкам.
- Модели не задают уточняющих вопросов, что приводит к тому, что они делают предположения и ошибаются.
- LLM не могут использовать встроенные инструменты рефакторинга и вместо этого пытаются реализовать его самостоятельно, что может привести к ошибкам.
- Агенты не могут взаимодействовать с IDE и другими инструментами, что делает их менее эффективными.
- Модели не могут задавать уточняющие вопросы, что приводит к тому, что они делают предположения и ошибаются.
After nine years of grinding, Replit found its market. Can it keep it?
Replit, основанный в 2016 году, прошёл путь от «браузерный IDE» до «запускай код в 2 секунды» и, наконец, до «облачный GPU-ферма для миллионов людей». Но в 2025-м, когда компания оценивается в $3 млрд, она всё ещё не зарабатывает денег: 150 млн долл. годового дохода, 0 прибыли. Под давлением инвесторов, Replit теперь должен доказать, что может удержать рынок, который он только что нашёл.
Комментарии (119)
- Replit отказался от своей первоначальной идеи онлайн-IDE и перешёл на AI, что вызвало критику за отказ от уникального продукта и вступление в перенасыщенный рынок AI-инструментов.
- Сокращение штата на 50% и полный отказ от бесплатного уровня вызвали волну негатива, особенно в контексте обвинений в том, что компания не предоставляет ценность взамен деньгам инвесторов.
- Несмотря на то, что Replit утверждает, что они "выросли в доходах", критики указывают на то, что компания до сих пор не имеет устойчивой модели доходов и что их продукт может быть легко реплицирован крупными игроками.
- Некоторые комментаторы выражают ностальгию по старому Replit, особенно в контексте его использования в образовании, и обвиняют компанию в "предательстве" open-source энтузиастов, которые помогли ей на ранних этапах.
- В то же время, другие указывают на то, что Replit может быть приобретён крупной компанией, такой как OpenAI или Anthropic, как следствие его связей с YC, и что это может быть единственным способом для инвесторов вернуть свои деньги.
Rustroid, a Rust IDE for Android
Разработка Rustroid началась с увлечения Minecraft в детстве, когда на мобильном телефоне пришлось создавать моды без нормальных инструментов — только базовый редактор JSON. Это выявило острую нехватку developer tools под Android. Позже автор экспериментировал с Java, портируя игры через приложение CodeAssist, и освоил основы Android SDK.
С появлением ПК интерес сместился на Rust из-за его целостного инструментария (Cargo) и популярности. Выбор пал на Rust IDE, а не Java, из-за отсутствия аналогов и личной симпатии к языку. Проект начался на Java, но быстро перешел на Kotlin и Jetpack Compose — это оказалось эффективнее. Rustroid работает локально на устройстве, используя встроенный компилятор и пакетный менеджер Rust.
Комментарии (31)
- Обсуждается возможность и опыт программирования на телефоне с использованием различных инструментов (Termux, tmux, vim, внешние клавиатуры) и IDE.
- Отмечается, что кодинг на телефоне может быть актуален для пользователей без доступа к ПК, в поездках или в развивающихся странах.
- Поднимаются технические вопросы о работе конкретных приложений, их офлайн-доступности и интеграции с периферией (DeX, внешние экраны).
- Высказывается мнение, что рынок IDE для телефонов недостаточно развит, но имеет потенциал для быстрого прототипирования и работы "на ходу".
- Участники дискутируют, является ли скорость печати (WPM) ключевым фактором продуктивности в программировании, особенно с учетом развития ИИ-инструментов.
What happens when coding agents stop feeling like dialup?
Сейчас кодирующие агенты вроде Claude Code работают медленно и ненадёжно, напоминая dialup-модемы 90-х: частые сбои, необходимость перезапусков, скорость генерации всего 30-60 токенов в секунду. Это связано с взрывным ростом потребления токенов — по данным OpenRouter, объёмы выросли в 50 раз за короткий период, а агентные workflows требуют в 1000 раз больше ресурсов, чем обычные чаты.
Более высокая скорость, например 2000 токенов в секунду (как у Cerebras Code), кардинально меняет опыт: разработчик становится узким местом, а не модель. Это открывает путь к новому этапу — параллельным независящим агентам, которые предлагают несколько вариантов решения задачи с автоматической оценкой качества. Однако рост скорости лишь разгоняет спрос, создавая бесконечный цикл: чем лучше модели, тем сложнее задачи, которые мы им ставим.
Комментарии (133)
- Скептицизм относительно реального повышения продуктивности из-за LLM: AI может создавать иллюзию продуктивности, снижая когнитивную вовлеченность и порождая проблемы с качеством и сопровождением кода.
- Ключевая проблема — скорость и контекст: Медленная генерация токенов и постоянное переключение контекста нарушают состояние потока (flow), а ограничения контекста приводят к ошибкам и галлюцинациям.
- Сдвиг роли разработчика: Инструмент меняет фокус с написания кода на проверку, редактирование и управление AI-агентами, что требует постоянной бдительности и новых навыков.
- Зависимость от надежности провайдеров: Сбои в работе AI-сервисов сравнимы с остановкой производства, что создает риски для рабочего процесса.
- Разные стратегии и предпочтения в использовании: Одни разработчики ценят интегрированные в IDE решения (Cursor), другие предпочитают сторонних агентов (Claude, Codex) или используют LLM как «калькулятор» для рутинных задач и обучения.
GPT-5-Codex 🔥 Горячее
—
Комментарии (115)
- Новый GPT-5-Codex имеет вдвое меньший размер промпта (10 КБ против 23 КБ) и демонстрирует схожую с GPT-5 производительность на SWE-bench, но значительно лучше справляется с рефакторингом (51.3% против 33.9%).
- Пользователи отмечают резкое улучшение качества Codex CLI по сравнению с предыдущими версиями и конкурентом Claude Code, который, по их мнению, стал хуже и имеет более низкие лимиты использования.
- Многие пользователи переходят с Claude Code на Codex, мотивируя это большей скоростью, щедрыми лимитами использования, включенными в подписку ChatGPT Pro, и меньшей склонностью модели к "фейковым" решениям.
- Ключевые улучшения UX: модель стала надежнее использовать интерфейс выполнения задач (Task Completion), лучше комментирует код при ревью и генерирует меньше лишних токенов для простых задач.
- Некоторые пользователи сталкиваются с проблемами: крайне низкая скорость работы модели в первые дни после релиза, сложности с установкой (npm-ошибки) и отсутствие режима, аналогичного "normal mode" в Claude.
- Появилась интеграция Codex CLI с планом подписки ChatGPT (около месяца назад), что делает его более доступным, однако поддержки API для GPT-5-Codex пока нет, но обещана в будущем.
- Обсуждаются workflow-проблемы: отсутствие промежуточного режима между полной автономией и ручным копированием, плохая обработка перемещения файлов, необходимость вручную одобрять опасные команды.
- Конкуренция смещается с raw-качества моделей на качество интеграции в IDE и workflow (терминал, GitHub, мобильное приложение), создавая эффект lock-in.
- Пользователи рекомендуют стратегию работы: сначала заставлять модель составлять план и утверждать его, а лишь потом приступать к реализации, чтобы избежать нежелательных действий.
486Tang – 486 on a credit-card-sized FPGA board
486Tang — 486 на FPGA размером с банковскую карту.
Вчера выложил на GitHub 486Tang v0.1: порт ядра ao486 (MiSTer) на китайскую Tang Console 138K. Первый запуск x86 вне Altera.
Архитектура
- SDRAM вместо DDR3: 16-бит, читаем по 32 бита за такт (2× частота).
- IDE на SD: BIOS, VGA-BIOS, CMOS и IDENTIFY в первых 128 КБ карты; загрузчик FPGA читает их сам.
- DDR3 отдана только фреймбуферу.
Отладка
- Verilator: загрузка до DOS за минуту, полные вейвформы.
- Bochs-BIOS пишет в порт 0x8888; вывод в терминал симулятора и UART.
- Флаги
--sound,--ideдля быстрого трассирования подсистем. - 90 % багов — новый «клей»; пара сломалась из-за странного поведения синтезатора Gowin.
Производительность
Из коробки — 25 МГц 386-уровня.
Ускоряли:
- Разбили сеть сброса (5 000 фан-аут → репликация вручную).
- Укоротили путь выборки: в
decoder_regs.vвынесли расчётconsume_countиз критического пути, добавив регистр. - Проверяли изменения тестом test386.asm.
Цель — 33 МГц 486DX2.
Комментарии (51)
- Проект реализует 486 на FPGA с DDR3-памятью; автор признаёт, что эпохе соответствовали бы FPM/EDO, но SDRAM проще синхронизировать.
- Логики занято 44 %, BRAM — 59 %, место для периферии ещё есть.
- «Живые» 486-совместимые чипы сейчас — Vortex86, устаревшие Quark, Eden; китайские «586»-SoC пока редки.
- DDR3 имеет минимальную частоту, поэтому для ретро-проектов её приходится подстраивать, в отличие от старой SDRAM.
- Сообщество мечтает о кредито-карточной плате в корпусе Amiga-600, способной запускать DOOM и, теоретически, HL1.
Formatting code should be unnecessary 🔥 Горячее 💬 Длинная дискуссия
Форматирование кода должно быть лишним
В 80-х это уже знали.
Мой школьный учитель информатики, мистер Пейдж, участвовал в разработке компилятора Ada. Когда я в 2016-м жаловался на линтеры, он напомнил: проблему решили 40 лет назад. В Ada исходники не хранили — использовали IR-дерево DIANA. Каждый смотрел его в своём стиле: отступы, пробелы — всё равно.
Сейчас, в 2025-м, мы всё ещё спорим о запятых.
Как это работало
Рабочая станция Rational R1000 (1985) хранила не текст, а DIANA. IDE позволял редактировать дерево напрямую — проекционное редактирование. Компиляция была инкрементной, рефакторинг мгновенным, а «исходник» — просто красивой печатью дерева.
Плюсы: никаких holy-war’ов о табах, быстрая интеграция, встроенный VCS и отладка.
Минус: требовалась железная станция и знание Ada.
Вывод
Не нужно возвращаться к проекционным редакторам, но можно ли встроить идею «храним структуру, а не текст» в современные языки и IDE? Тогда форматирование станет личным вкусом, а не командным законом.
Комментарии (422)
- Одни считают форматирование важным каналом коммуникации и показателем вкуса/опыта разработчика, другие — пустым байкшедом, который должен решаться автоматическим линтером без обсуждений.
- Хранение кода не как текста, а как IR/AST (пример — Ada/DIANA, Unison) позволяет каждому видеть свой вариант форматирования, но ломает привычные grep, diff, git и другие текстовые инструменты.
- Проекционное редактирование (JetBrains MPS, Chrome DevTools «pretty») демонстрирует «один IR — много представлений», но требует специальных IDE и пока не стало массовым.
- Проблема смешанных языков, legacy, необходимости универсального стандарта IR и инерции экосистемы тормозит переход от plain-text.
- Автоформатеры (gofmt, Prettier, Black) уже закрывают 90 % вопросов: на сохранении/коммите единый стиль, локально можно настроить git-фильтры smudge/clean.
We're Joining OpenAI
Команда Alex переходит в OpenAI
Мы присоединяемся к команде Codex в OpenAI.
Начав с «безумной» идеи создать «Cursor для Xcode», мы построили лучшего AI-агента для iOS и macOS. Теперь продолжим эту миссию в OpenAI.
Что будет с Alex
- Приложение останется работать у текущих пользователей.
- С 1 октября скачивание прекращается.
- Новых функций не будет.
Спасибо бета-тестерам, клиентам, инвесторам и всему Apple-сообществу! ❤️
P.S. Попробуйте Codex CLI.
Комментарии (131)
- Команда Alex Code присоединилась к OpenAI: продукт перестанет развиваться, новые загрузки прекратятся 1 октября.
- Пользователи считают, что Apple «зашерлокила» большую часть функций Alex во встроенном AI Xcode, поэтому выживание стартапа стало невозможным.
- Многие видят в сделке типичный aqui-hire: OpenAI получает инженеров, знакомых с IDE и Apple-платформами, а не уникальную технологию.
- Вопрос будущего: станут ли OpenAI/Anthropic прямыми конкурентами IDE-стартапов вроде Cursor или останутся поставщиками моделей.
- Скептики ждут, что через 12–18 месяцев продукт Alex окончательно закроют, а команду полностью интегрируют в Codex.
Grok Code Fast 1 🔥 Горячее 💬 Длинная дискуссия
grok-code-fast-1 — новая модель xAI для агентного кодинга: быстрая, дешевая, заточена под ежедневную работу.
- Скорость: архитектура с нуля, оптимизация инференса, кеш >90 %. Десятки вызовов инструментов до того, как вы прочтёте первую строку мыслей.
- Цена: 0,20 $/1 M входных, 1,50 $/1 M выходных, 0,02 $/1 M кешированных токенов.
- Языки: TypeScript, Python, Java, Rust, C++, Go.
- Инструменты: grep, терминал, редактирование файлов — «родная» работа в IDE.
- Партнёры: временно бесплатно в Cursor, GitHub Copilot, Cline, Roo Code, Kilo Code, opencode, Windsurf.
Производительность
- 190 токенов/сек, SWE-Bench-Verified 70,8 %.
- Оценки реальными разработчиками: быстро и надёжно для рутинных задач.
Комментарии (462)
- Кто-то хвалит grok-code-fast-1 за скорость и качество, сравнивая с gpt-5-mini, другие считают «быстро, но тупо».
- Основная критика: упор на скорость вместо качества, неточные или вредные изменения кода, сомнительные внутренние бенчмарки.
- Несколько человек жалуются, что модель случайно удаляет код и скрывает кнопки «стоп».
- Подняты этические и экологические вопросы: нелегальные газовые турбины и «обученный нацистский бот».
- Часть пользователей просто рада быстрой бесплатной модели в Cursor/VS Code для простых задач.
Bring Your Own Agent to Zed – Featuring Gemini CLI
Теперь в Zed можно запускать сторонних агентов. Для этого мы создали Agent Client Protocol (ACP) — открытый JSON-RPC стандарт, и первым его внедрением стал Gemini CLI от Google.
Gemini CLI в Zed
- То же CLI, что и в терминале, но с интеграцией в редактор: live-предпросмотр изменений, мульти-буфер ревью, навигация между кодом и чатом.
- Всё работает как подпроцесс, общение через ACP вместо ANSI-кодов.
Agent Client Protocol
- ACP развязывает агентов от IDE: любой клиент, поддерживающий протокол, получает готовый UI.
- Данные не уходят на серверы Zed; код остаётся локально.
- Протокол под Apache-лицензией; уже есть пример для Neovim (Code Companion).
- Внутренний агент Zed теперь тоже использует ACP, поэтому улучшения UI доступны всем.
Присоединяйтесь
ACP открыт для форков и предложений. Мы хотим видеть экосистему специализированных агентов и поддержку в других редакторах. Исходники и примеры — в репозитории Zed.
Комментарии (34)
- Zed анонсировал Agent Client Protocol (ACP), что выглядит как попытка выйти из бизнеса Cursor и дать пользователям «принести своего агента».
- Пользователи хвалят скорость и активную разработку Zed, но жалуются на ESLint-проблемы и спрашивают, насколько гибко можно перенастроить редактор.
- Некоторые готовы платить за Zed (до 79 $/год), другие опасаются VC-финансирования и предпочитают Emacs/Neovim.
- Поднимаются вопросы о поддержке ACP такими агентами, как Claude Code и Cursor-agent, а также о пересечении с IBM Agent Communication Protocol.
Thrashing
Кратко: автор высмеивает идею «поставь себе счётчик, и машина поедет быстрее» — когда проблему многозадачности и выгорания сваливают на самого работника.
Почему мы тут оказались:
- Люди «тормозят» не из-за личной рассеянности, а потому что им одновременно вбросили кучу нерасставленных по приоритету задач.
- Руководство поощряет реакцию на каждый пинг вместо сосредоточенной работы, а потом удивляется, что все вымотаны.
- Статьи вроде «просто не отвлекайся» — это перекладывание вины: «ты сам виноват, что система сломана».
Инструменты:
- Trello, Asana и им подобные — не инструменты производства, а инструменты отчётности, переложенные на подчинённых.
- Настоящие инструменты (git, CI, IDE) — без них работа встает; без доски задач — нет.
Вывод:
Перестать многозадачить и перестать выгорать можно только тогда, когда за это возьмётся руководство. Ответственность за культуру и процессы никогда не лежит в кармане у людей внизу табели о рангах.
Комментарии (17)
- Менеджеры не могут расставить приоритеты, поэтому команда прыгает между задачами без фокуса.
- Постоянные «срочные» фичи ставятся выше качества и стабильности, разрушая архитектуру и мотивацию разработчиков.
- Инструменты вроде Jira превращаются в цель сами по себе, убивая продуктивность и душу команды.
- Недоверие и неуверенность руководства порождают микроменеджмент и бесконечные проверки «а точно ли ты занят тем, что нужно?».
- Когда ценят отчёты больше, чем результат, страдают и продукт, и карьеры разработчиков.
Sequoia backs Zed 🔥 Горячее 💬 Длинная дискуссия
Sequoia ведёт раунд $32 млн для Zed
Суммарное финансирование превысило $42 млн. Четыре года мы строили самый быстрый IDE, но это лишь фундамент. Следующая цель — живое, непрерывное сотрудничество, где разговоры о коде всегда связаны с актуальным состоянием проекта.
Проблема снимков
Git ограничивает обсуждение коммитами и ветками. Между коммитами разработчик работает изолированно; обсуждения в чатах быстро теряют связь с кодом. ИИ-агенты тем более страдают: каждый их шаг требует снимка, что тормозит итерации.
DeltaDB: версионирование операций
Мы создаём DeltaDB — систему, которая фиксирует каждое изменение на уровне операций через CRDT. Она совместима с Git, но позволяет:
- реальное время без снимков;
- пермалинки на символы, выживающие при любом рефакторинге;
- сохранение диалогов и контекста навсегда.
Как это работает
Инженер видит ошибку, кликает на строку и мгновенно получает историю обсуждений, предположений ИИ и решений команды. Всё — внутри IDE, без переключения на внешние сервисы.
Zed и DeltaDB будут open-source с платными опциями. Набираем команду — присоединяйтесь.
Комментарии (282)
- Вокруг Zed спор: продукт вызывает восторг качеством кода и скоростью, но $42 млн от Sequoia вызывают тревогу VC-«эншитификации».
- Главные сомнения: окупится ли такой капитал на «просто редакторе» и не приведёт ли к навязыванию AI-фич и сбора данных.
- Плюсы: финансирование даст ресурсы догнать Cursor/VS Code по AI и снизить трения миграции.
- Тех-фишка: анонс DeltaDB — версионирование уровня каждого символа через CRDT, совместимое с git.
- Часть пользователей уже ищет форки (Zedless) или возвращается к Sublime, опасаясь потери приватности и роста требований.
Left to Right Programming 🔥 Горячее 💬 Длинная дискуссия
Программа должна оставаться валидной по мере набора.
Python-списковые включения плохи: пока вы не допишете for line in text.splitlines(), редактор не знает тип line, не может подсказать split() и даже не понимает, существует ли переменная.
В Rust text.lines().map(|line| line.split_whitespace()) строится слева-направо: сразу после line. доступны методы, и код всё время «жив».
Принцип progressive disclosure: сложность появляется ровно тогда, когда нужна. В C функции для FILE* начинаются на f; вводишь f и видишь сотни вариантов, не понимая, какой подходит. В идеале file. показал бы read, close и т. д. прямо во время набора.
Python и JS:
map(len, text.split())
— неясно, как называется длина (len, length, size?).
text.split(" ").map(w => w.length)
— length и map подсказываются сразу после точки.
С ростом логики читаемость падает:
len(list(filter(lambda line: all([abs(x) >= 1 and abs(x) <= 3 for x in line]) ...
Комментарии (323)
- Обсуждение вращается вокруг идеи «слева-направо» синтаксиса: сначала контекст (объект, коллекция), потом действие, чтобы IDE могла мгновенно подсказывать.
- Критикуют Python- comprehensions и вложенные вызовы за «вправо-налево» порядок, мешающий автокомплиту и чтению.
- Многие хотят pipe-оператор (|>) или uniform call syntax, как в F#, Elixir, Nim, чтобы цепочки выглядели
data |> filter(...) |> map(...). - Противники считают, что язык не должен подстраиваться под автокомплит, а сложные цепочки лучше выносить в переменные или использовать методы.
- Примеры из SQL, JS/TS импортов, Rust for-loops и C# LINQ показывают ту же проблему: сначала надо указать, что ты хочешь получить, а потом — откуда.
Claude Code IDE integration for Emacs 🔥 Горячее 💬 Длинная дискуссия
Claude Code IDE для Emacs
Обзор
- Интеграция с Claude Code CLI через MCP создает двусторонний мост между Claude и Emacs.
- Claude получает доступ к возможностям Emacs: LSP, проекты, Elisp-функции, что делает его «понимающим Emacs» помощником в вашем рабочем процессе.
Возможности
- Автоопределение проекта и управление сессиями
- Терминал с цветом (vterm/eat)
- Реализация MCP для IDE-интеграции
- Инструменты для файлов, состояния редактора и рабочего пространства
- Расширяемый сервер MCP для Emacs-команд (xref, tree-sitter, project и др.)
- Диагностики Flycheck/Flymake
- Расширенный дифф с ediff
- Поддержка tab-bar и отслеживание выделений/буферов
Интеграция инструментов Emacs
- LSP через xref (eglot, lsp-mode) для навигации по коду
- Tree-sitter для анализа AST
- Imenu для структуры символов
- Project для операций на уровне проекта
- Любую команду/функцию Emacs можно выставить как MCP-инструмент: поиск и рефакторинг по проекту, доступ к режимам, выполнение кастомного Elisp.
Скриншоты
- Осведомленность об активном файле — знает, какой файл открыт
- Контекст выделения — работает с выделенным текстом
- Продвинутый дифф с диагностикой — ediff и доступ к ошибкам/предупреждениям
- Автоматические упоминания текста — вставка ссылок на выделение в диалог
- Восстановление сессии — продолжение разговоров с флагом –resume
Установка Предварительные требования
- Emacs 28.1 или новее
Комментарии (261)
- AI-инструменты вроде Claude Code делают Emacs/Vim конкурентоспособными: вместо самостоятельной реализации сложных IDE-функций редакторы просто интегрируются с готовыми агентами.
- Пользователи хвалят Emacs за полный доступ к состоянию редактора и возможность «на лету» менять поведение через Elisp, что идеально подходит для AI-агентов.
- Уже существует несколько реализаций интеграции (claude-code.el, eca, claude-code-emacs и др.); споры идут, какая из них лучше, но все признают, что встраивание в Emacs ускоряет рабочий процесс.
- Проблемы: сложность конфигурации, риск утечки чувствительных данных, привязка к конкретному провайдеру и необходимость локального запуска для приватности.