LLMs aren't world models 🔥 Горячее 💬 Длинная дискуссия
LLMs не строят модель мира. Это не значит, что они бесполезны, а лишь то, что они не понимают, как устроена реальность, даже виртуальная.
Шахматы. Два года назад я сыграл с LLM: первые ходы она делала уверенно, но уже на 10-м ходе попыталась походить конём, которого не было на доске, и быстро проиграла. Повторил эксперимент сейчас — к 9-му ходу модель теряет позицию. Проанализировав триллион партий, LLM так и не выучила главное: чтобы ходить, нужно знать, где стоят фигуры. Это не требуется для предсказания текста партии.
Графика. Спросил, как работает «Normal blending» в Krita. Ответ: «цвет верхнего слоя просто отображается, возможно, с учётом прозрачности, без формул и вычислений».
Модель не понимает:
- Цвета в компьютере — это числа.
- Любое «влияние» прозрачности — это математическая операция.
- Если видно нижний слой, значит, итоговый цвет зависит от обоих слоёв.
Можно заставить LLM процитировать формулу альфа-смешивания, но это лишь показывает, что она умеет подобрать слова, а не понимает смысл.
Люди тоже могут путаться, но при достаточной мотивации разберутся. У LLM мотивация была: 200 млрд долларов на оборудование.
Комментарии (184)
- @antirez и другие приводят контрпримеры: даже крошечные трансформеры выучивают внутренние 8×8 «карты» позиций шахмат, а SOTA-модели действительно играют корректные ходы.
- @ordu, @skeledrew и @otabdeveloper4 спорят о «правильности» подхода: одни считают LLM «по-человечески» предиктивными, другие подчеркивают разницу в архитектуре и обучении.
- @ameliaquining выделяет единственное конкретное предсказание поста — «LLM никогда не справятся с большими кодовыми базами автономно» — и даёт ему 80 % на разобьются за два года.
- @libraryofbabel, @joe_the_user и @yosefk обсуждают интерпретабельность: наличие внутренних представлений не означает полноценной «модели мира», а измерения Elo и «автономность» нуждаются в точных определениях.
- @DennisP, @GaggiX, @og_kalu приводят ссылки на Genie-3, свежие arXiv-работы и видео, показывающие, что LLM (и мультимодальные модели) уже умеют играть в шахматы и кодить.
The History of Windows XP
Короткая история Windows XP
Microsoft к концу 90-х стал «фоном жизни» — любое изменение вызывало бурю, а через пару лет продукт становился обыденным. Компания мечтала избавиться от MS-DOS, пробовала XENIX, XEDOS, затем OS/2, но успех Windows 3 разрушил союз с IBM. Спасением стал Дэвид Катлер, перешедший из DEC: его команда создала Windows NT, совместимую с DOS, UNIX и OS/2. План убить DOS-наследие через Windows 2000 отменили 7 апреля 1999 г.
Комментарии (67)
- @ayaros и @Lammy вспоминают XP как «пик Microsoft»: обожают Luna/Neptune UI, музыку из тура и дизайн Watercolor.
- Критики (@krige, @spankibalt) считают тему XP «игрушечной» и скучной, предпочитая Classic Theme или вообще Linux.
- Ностальгия объясняется тем, что XP была первым компьютером миллениалов (@ianhawes), но технически уступала 2000 (@troupo, @lproven).
- Безопасность XP до SP2 была ужасной (@stetrain, @herbst), зато Vista/8 «убили» прогресс (@vjvjvjvjghv).
- Кто-то хранит запечатанную коробку XP (@cyrialize), кто-то даже шептал в OOBE-музыку (@EvanAnderson).
Open Lovable
open-lovable — утилита от mendableai, клонирует любой сайт и превращает его в современное React-приложение за секунды.
Репозиторий публичный, доступен на GitHub.
Комментарии (43)
- Проект называется «open-lovable», но не является ни клоном, ни открытой версией Lovable; требует внешние API-ключи (Firecrawl, e2b.dev) и не работает локально без них.
- Участники спорят о допустимости имени, считая его потенциальным нарушением товарного знака и маркетинговым «рост-хаком».
- Основная критика: жёсткая завязка на Firecrawl для скрапинга и отсутствие полностью FOSS-варианта всей цепочки.
- Предлагают альтернативы — bolt.diy, Modal, Daytona, freestyle.sh — и способы самостоятельно развернуть e2b/Firecracker.
- Некоторые хотели бы обратную задачу: превращение React-приложений в «нормальные» сайты без JS или в нативные веб-приложения.
Writing simple tab-completions for Bash and Zsh 🔥 Горячее
Как сделать простые таб-дополнения для Bash и Zsh
Li Haoyi, 7 августа 2025
Таб-дополнения в шелле удобны, но их настройка усложняется тем, что часть пользователей использует Bash в Linux, а другая — Zsh в macOS, и у них разные API. К тому же, пользователям полезно видеть описание каждого варианта, но это доступно только в Zsh.
В этой заметке показано, как реализовать кросс-платформенные дополнения с описаниями на примере Mill 1.0.3.
Базовый механизм
При нажатии <TAB>
шелл вызывает функцию, которой передаёт текущие слова и индекс слова под курсором. Функция возвращает список возможных дополнений.
_generate_foo_completions() {
local idx=$1; shift
local words=( "$@" )
local cur=${words[idx]}
local arr=(apple apricot banana cherry durian)
for e in "${arr[@]}"; do [[ $e == "$cur"* ]] && echo "$e"; done
}
_complete_foo_bash() {
local raw=($(_generate_foo_completions "$COMP_CWORD" "${COMP_WORDS[@]}"))
COMPREPLY=( "${raw[@]}" )
}
_complete_foo_zsh() {
local -a raw
raw=($(_generate_foo_completions "$CURRENT" "${words[@]}"))
compadd -- $raw
}
[[ -n $ZSH_VERSION ]] && { autoload -Uz compinit; compinit; compdef _complete_foo_zsh foo; } \
|| complete -F _complete_foo_bash foo
_generate_foo_completions
возвращает список вариантов._complete_foo_bash
и_complete_foo_zsh
преобразуют результат в формат нужного шелла.- Скрипт добавляется в
~/.bashrc
,~/.zshrc
и т.д.
Mill устанавливает дополнения командой:
$ ./mill mill.tabcomplete/install
Комментарии (82)
- Fish автоматически создаёт дополнения из man-страниц (
fish_update_completions
), что упрощает жизнь, если документация есть. - Пользователи bash и zsh жалуются на «слишком умные» дополнения, которые блокируют автодополнение имён файлов; предпочитают откат к простому поведению.
- Инструменты вроде
usage
,clap_complete
,claptrap
и_gnu_generic
позволяют быстро генерировать скрипты дополнений из--help
или описаний CLI. - Некоторые сторонние решения (Fig, Pixi) и оболочки вроде Murex и Nushell стремятся к единому стандарту автодополнения, но разнообразие синтаксиса CLI всё ещё мешает.
POML: Prompt Orchestration Markup Language
POML — язык разметки Prompt Orchestration Markup от Microsoft.
Проект в открытом доступе на GitHub: microsoft/poml
.
- Назначение: структурировать, версионировать и переиспользовать промпты для LLM.
- Формат: YAML-подобный, читаемый человеком и парсером.
- Возможности:
– параметризованные шаблоны,
– условные ветвления,
– импорт фрагментов,
– метаданные (автор, версия, модель). - CLI:
poml build
→ компиляция в чистый текст,poml test
→ прогон с примерами. - CI/CD: экшены GitHub для валидации и деплоя промптов.
- Интеграции: Python SDK, VS Code-расширение, экспорт в OpenAI, Azure, Bedrock.
Комментарии (36)
- POML — это XML-подобный DSL от Microsoft Research для «view-слоя» промптов, но выглядит как «JSX, только хуже» и заставляет писать код в строках.
- Участники сравнивают его с YAML-промптами GitHub, BAML (TypeScript-подобные схемы), Jinja и обычным XML, споря о необходимости новой библиотеки.
- Критика: один контрибьютор при $3T-спонсоре, нет SDK для .NET/C#, лишний tooling, «IP squatting», циклы в XML выглядят как костыль.
- Ирония: из-за потребности в точности неформальные LLM-промпты всё структурнее, как юридические документы.
Abogen – Generate audiobooks from EPUBs, PDFs and text 🔥 Горячее
abogen — консольный инструмент, превращающий EPUB, PDF и обычный текст в аудиокниги с синхронными субтитрами.
Возможности
- Форматы: EPUB, PDF, TXT.
- TTS-движки: Coqui TTS, OpenAI TTS, Edge TTS, Google TTS.
- Субтитры: SRT/VTT, привязанные к словам.
- Языки: 40+, включая русский.
- CLI:
abogen book.epub --voice en-US-AriaNeural --output book.m4b
.
Установка
pip install abogen
Использование
abogen mybook.pdf --voice ru-RU-SvetlanaNeural --format m4b
Ссылки
Комментарии (74)
- Пользователи обсуждают Abogen — GUI-обёртку над Kokoro TTS для генерации аудиокниг из текста.
- Качество голоса признаётся «ровным», но без эмоций и актёрской игры; для художественных книг это критично.
- Отмечены проблемы: долгие предложения обрезаются, «Mr.» читается с лишней паузой, видео-демо без звука в Firefox.
- Кто-то хочет API и автоматический пайплайн Calibre-Web → Abogen → Audiobookshelf, другие — формат DAISY и «голос Моргана Фримена».
- Итог: инструмент годен для личного использования и доступности, но пока не дотягивает до коммерческих аудиокниг.
Melonking Website
Всегда твой приятель, Мелон!
🍉
Ты покидаешь информационную магистраль!
Автовоспроизведение звука — лучше в Firefox.
Добро пожаловать в Мелонленд :^]
Музыка: johnny_ripper — by the sea ☺
Комментарии (26)
- Участники делятся впечатлениями от «нео-геосити»-сайта Melonland: радуются GIF-фонам, MIDI-музыке, iframe и живому гостевику.
- Все сходятся, что сайт вызывает ностальгию по 90-2000-м: нет бесконечного скролла, работает кнопка «Назад», форум с тредом «покажи своё рабочее место».
- Кто-то воспринимает это как подлинную «старую сеть», кто-то — как стилизованную реконструкцию молодыми.
- Сайт оказался на HN благодаря алгоритмам, иронизируют пользователи, но без них такие места остаются «домиком на дереве».
Комментарии (51)
- Пользователи делятся лайфхаками: «покупка» без покупки — добавлять в корзину/список желаний и не оплачивать, покупать б/у, вводить 24-часовой «кулдаун», думать о будущем переезде или о том, что детям придётся выбрасывать вещи.
- Некоторые наоборот решили тратить больше, пока молоды, или покупают драгоценные металлы, чтобы «поиграть» в инвестиции.
- Идея «магазина без покупок» вызвала споры: одни видят в нём терапию от шопоголизма, другие — всё тот же дофамин без реальных последствий.
- Предложили улучшения: AI-генерация бесконечного каталога, симуляция Amazon, «пустые» коробки, почтовые открытки вместо посылок, пост-чекаут-анализ «нужно vs хочется».
Комментарии (121)
- Критика GPT-5 сводится к тому, что это лишь инкрементальное улучшение, не оправдавшее ажиотажного хайпа.
- Пользователи жалуются на регресс: модель чаще «фантазирует», быстрее теряет контекст, реже говорит «не знаю» и медленнее думает, чем o3.
- Некоторые считают релиз скорее мерой по экономии GPU-ресурсов, чем технологическим прорывом.
- Статья Маркуса воспринимается как смесь здравой критики и личной обиды на Сэма Альтмана; многие упрекают её в сенсационности.
- Сторонники отмечают, что GPT-5 Pro всё же превосходит конкурентов, а главное преимущество OpenAI — не качество модели, а массовое потребительское признание ChatGPT.
GPTs and Feeling Left Behind
Читая очередной пост о том, как ИИ пишет целые библиотеки, я чувствую себя отстающим и решаю попробовать. Результат разочаровывает: несколько часов с моделью не дают даже половины задачи, которую я руками делаю за 25 минут.
Сравнение с Vim не работает: первый день в Vim я хоть медленно, но писал. С GPT могу день потратить и не получить ничего полезного.
Модели хороши для подбора слова, аннотации типа или поиска бага в одной функции. Но стоит задаче стать сложнее, как ИИ выдаёт мусор: импортирует несуществующие библиотеки, советует «написать самому» и при каждом исправлении вносит новые ошибки.
На Hacker News снова хвалят GPT, и я не могу совместить их опыт со своим. Кажется, что мне врут: «это молот неразрушимый», а в руках — бумажная фигурка, которой даже помидор не раздавить.
Комментарии (132)
- Кто-то восторгается Cursor/Claude и быстро набирает MVP, кто-то считает LLM-генерацию «тысячами строк мусора» и возвращается к ручному коду.
- Разница во впечатлениях объясняется выбором модели, способом взаимодействия и характером задач: новые мелкие проекты vs. огромные legacy-кодовые базы.
- Часть разработчиков использует LLM как «ускоренный Stack Overflow» и для рутинного бойлерплейта, другие отключают автодополнение из-за скрытых багов.
- Навык «prompt-инженерии» и контекст-менеджмента сравнивают с освоением Vim: сначала замедляет, потом ускоряет, но требует времени.
- Скептики упрекают маркетинг в FOMO и «газлайтинге», а сторонники считают, что просто нужно правильно выбрать инструмент и научиться с ним работать.