What the hell have you built 💬 Длинная дискуссия
Мне не хватает содержимого статьи, которую нужно пересказать. Вы предоставили только фразу "What the hell have you built", но не сам текст Hacker News.
Чтобы я мог создать точный и ёмкий пересказ на русском языке в формате Markdown (~170 слов в двух абзацах), пожалуйста, предоставьте содержимое статьи, которую вы хотите, чтобы я обработал.
Комментарии (169)
- Обсуждение вращается вокруг переусложнения, вызванной стремлением использовать "крутые" технологии вместо простых решений, что приводит к излишней сложности и отвлекает от решения реальных проблем стартапа.
- Участники обсуждения подчеркивают, что вместо того, чтобы использовать проверенные временем инструменты, разработчики часто выбирают сложные стеки технологий, что может быть вызвано как желанием продемонстрировать свои навыки, так и нежеланием заниматься "скучными" задачами.
- Также поднимается вопрос о том, что выбор технологий часто определяется не техническими потребностями, а социальными факторами, включая желание произвести впечатление на техническое сообщество или даже просто прокрастинация.
- Участники также обсуждают, что вместо того, чтобы фокусироваться на создании MVP, который может быть реализован с использованием простых и надежных инструментов, разработчики могут тратить время на изучение и внедрение ненужной сложности, что может привести к потере фокуса на продукте и его проблемах.
Developers are choosing older AI models
Разработчики все чаще выбирают старые модели ИИ вместо новых, данные показывают, что за первую неделю октября доля Sonnet 4.5 снизилась с 66% до 52%, в то время как Sonnet 4.0 выросла с 23% до 37%. Это не просто смена после обновления, а осознанный выбор моделей под конкретные задачи — новые версии ведут себя как альтернативы, а не как преемники. Sonnet 4.5 делает меньше вызовов инструментов (12.33 против 15.65), но генерирует на 37% больше контента (7.5k против 5.5k токонов), предпочитая глубокое размышление перед действием.
Модели демонстрируют специализацию: Sonnet 4.5 лучше подходит для сложных задач с длинным контекстом и автономного планирования, в то время как Sonnet 4.0 эффективен для структурированных редактирований и API-генерации. GPT-5 сохраняет стабильное использование около 10-12%, демонстрируя объяснительную гибкость. Разработчики явно выбирают модели не по новизне, а по соответствию специфическим рабочим процессам, что указывает на ранние этапы специализации в производственных средах.
Комментарии (125)
- Пользователи жалуются на постоянные изменения в моделях и интерфейсе, что вызывает стресс и вынуждает их возвращаться к предыдущим версиям.
- Стоимость и ограничения использования различных моделей варьируются непредсказуемо, что делает сложным планирование и сравнение стоимости.
- Некоторые пользователи отмечают, что новые модели не всегда лучше для их задач, и они продолжают использовать старые, если это возможно.
- Сообщество обсуждает, что отсутствие стабильности в моделях и API может быть более критичным фактором, чем отсутствие стабильности в других аспектах.
Write the damn code
Не стоит тратить время на бесконечную полировку промптов для ИИ, пытаясь добиться идеального результата «программированием на английском». Это неточный, медленный и мучительный путь.
Вместо этого пиши код сам: создавай черновую версию, рефактори готовый ответ ИИ или разрабатывай критичные части, а остальное доверяй модели. Так ты получишь гораздо лучший результат и останешься инженером, а не «шлифовщиком промптов». Используй ИИ активно, но не забывай, в чём твоя сила.
Комментарии (61)
- Разработчики отмечают, что ИИ-ассистенты полезны для быстрого поиска API, рефакторинга и работы в незнакомых средах, но часто мешают из-за навязчивого автодополнения.
- Оптимальной стратегией считается использование ИИ как "младшего разработчика": задание интерфейсов и тестов, а затем поручение реализации, либо написание кода самостоятельно с последующей оптимизацией ИИ.
- Чрезмерное доверие к генерации кода по промптам приводит к потере понимания кодовой базы, ошибкам и необходимости постоянно править вывод ИИ.
- Многие отключают автодополнение или переназначают горячие клавиши, так как агрессивные подсказки часто некорректны и отвлекают от работы.
- Высказываются опасения о влиянии ИИ на рынок труда, но скептицизм относительно полного замещения разработчиков в ближайшие 1-2 года.
Things you can do with a debugger but not with print debugging 💬 Длинная дискуссия
- Смотреть весь стек вызовов — мгновенно переходить к родительским фреймам и проверять переменные там.
- Вычислять выражения на лету — вызывать функции и менять состояние без перезапуска.
- Ловить исключения в точке броска — ставить брейкпоинт на
throwи видеть, почему упало. - Менять ход выполнения — подменить URL, флаг или объект прямо в памяти, не трогая код.
- Стандартизировать запуск — закоммитьте
.vscode/launch.json, и новичку хватит одного клика, чтобы запустить сервер или CLI с нужными env и аргументами.
Комментарии (199)
- Отладчики полезны, но часто ограничены: сети, прод-среды, сторонние библиотеки, оптимизация под release.
- Print-отладка универсальна: работает в любом языке, на удалёнке, в многопоточке и в kernel-space, не требует пересборки.
- Условные точки останова тормозят или врут; многие ставят «if (x) print("")» и брякают на неё.
- REPL, time-travel (rr/UndoDB), watch-точки на память и reverse-execution дают сверх-возможности, но доступны не везде.
- Итог: хороший инженер владеет и отладчиком, и логами, и профилировщиком, и выбирает инструмент под задачу.
Token growth indicates future AI spend per dev
- Kilo превысил 1 трлн токенов/мес в OpenRouter; Cline, Roo, Kilo растут из-за дросселирования Cursor и Claude.
- Стартапы рассчитывали: себестоимость токенов упадёт на 90 % за год, маржа станет +80 %.
- Вместо этого цена токенов фронтир-моделей не упала, а расход токенов на задачу вырос.
- Причины: модели стали крупнее, появились «длинные мысли» и агенты, которые запускают цепочки вызовов.
- Итог: расход на разработчика уже $20–40 к/мес и стремится к $100 к/год.
Комментарии (132)
- Почти все участники считают цифру в $100 000/год на разработчика безосновательной и преувеличенной.
- Основной аргумент: стоимость инференса либо быстро упадёт, либо станет дешевле запускать opensource-модели локально.
- Многие отмечают, что уже сейчас $100–200/мес хватает большинству, а при росте нагрузки выгоднее купить железо, чем платить за облако.
- Поднимается тема «токеномики»: расходы растут из-за параллельных агентов и увеличения контекста, но это пока не дотягивает до $100 000.
- Часть комментаторов указывает, что крупные компании вряд ли вернутся к on-prem, а будут торговаться за долгосрочные контракты у дешёвых провайдеров.
Комментарии (108)
New vibe coding definition just dropped! "Vibe-Coding is a dialogue-based coding process between a human and an AI where the human guides and the AI implements."Reminds me of Steve Yegge's short-lived CHOP - Chat Oriented Programming: https://sourcegraph.com/blog/chat-oriented-pr