Time to start de-Appling 🔥 Горячее 💬 Длинная дискуссия
Автор Heather Burns рассказывает о необходимости "de-Appling" в Великобритании после решения Apple отключить Advanced Data Protection (ADP) из-за требований законодательства по Investigatory Powers Act. Пользователи, уже включившие ADP, должны будут вручную отключить его, иначе потеряют доступ к iCloud. Это затронет 10 категорий данных: iCloud Backup, Drive, Photos, Notes, Reminders, Safari Bookmarks, Siri Shortcuts, Voice Memos, Wallet Passes и Freeform, которые потеряют end-to-end шифрование. Остальные 15 категорий и коммуникационные сервисы вроде iMessage останутся зашифрованными по умолчанию.
Для тех, кому критично шифрование, автор рекомендует срочно перенести эти данные из iCloud. Предлагает использовать сервисы с end-to-end шифрованием, такие как Proton, Standard Notes, Obsidian или Joplin, и избегать миграции к другим крупным технологическим компаниям. Для заметок советует приложение Exporter для преобразования в markdown. Автор подчеркивает, что это часть более широкой тенденции к уходу от американских технологических платформ.
Комментарии (377)
- UK закон требует от Apple отключить E2EE для пользователей в Великобритании, что вызвало обсуждение о том, что это значит для приватности и безопасности данных, и почему Apple не может просто отказаться от выполнения такого закона.
- Обсуждение также коснулось трудностей, с которыми сталкиваются пользователи, которые хотят отказаться от услуг Apple и других компаний, которые подвержены подобным требованиям.
- Участники обсуждения также затронули вопрос о том, что может означать это для будущего приватности и безопасности данных, и как это может повлиять на другие компании и их пользователей.
- Также обсуждалось, что пользователи могут защитить свои данные, и какие альтернативы могут быть использованы для тех, кто хочет отказаться от услуг таких компаний.
- Наконец, обсуждалось, что это может означать для будущего приватности и безопасности данных в целом, и как это может повлиять на другие компании и их пользователей.
Zensical – A modern static site generator built by the Material for MkDocs team
Команда Material for MkDocs, известная своей популярной темой для документации, представила Zensical — современный генератор статических сайтов. Инструмент создан с упором на производительность и удобство использования, предлагая разработчикам альтернативу для создания быстрых и безопасных веб-сайтов. Zensical позиционируется как решение, сочетающее простоту настройки с расширенными возможностями кастомизации.
Хотя подробная документация еще в разработке, проект уже доступен на GitHub и привлекает внимание сообщества своей философией минимализма и оптимизации. Команда подчеркивает, что Zensical наслед лучшие практики Material for MkDocs, предлагая знакомый опыт работы для существующих пользователей. Инструмент ориентирован на создание документации, блогов и других типов контента с акцентом на скорость загрузки и безопасность.
Комментарии (55)
- Пользователи обсуждают переход с Material for MkDocs на Zensical, включая вопросы о совместимости, плагинах и внешнем виде.
- Создатели Zensical объясняют, что это новый проект, а не форк, и что они стараются сохранить совместимость, но не могут гарантировать это для всех плагинов и тем.
- Обсуждается, что Zensical пока не поддерживает блоги и RSS, но это может быть добавлено в будущем.
- Пользователи спрашивают о PDF-экспорте, и создатели отвечают, что это в приоритете, но пока не реализовано.
- Создатели Zensical говорят, что они работают над WYSIWYG-редактором и улучшенным поиском, которые будут доступны в будущем.
- Некоторые пользователи выражают обеспокоенность по поводу того, что Zensical не является open-source, и что это может повлиять на их способность вносить вклад в проект.
Context engineering is sleeping on the humble hyperlink
В области контекст-инжиниринга для LLM существует ключевое противоречие: модели должны получать доступ ко всему ценному контексту, но только тогда, когда он актуален для текущей задачи. Автор статьи утверждает, что гиперссылки — это недооцененный инструмент для решения этой проблемы, особенно по сравнению с популярными подходами вроде RAG, сабагентов и get_* инструментов.
Человек, изучая новую тему, следует по ссылкам после первоначального поиска, постепенно собирая релевантную информацию. Аналогично LLM могут использовать гиперссылки для навигации по данным. Концепция HATEOAS (Hypertext as the Engine of Application State) из мира HTTP API обретает новое значение в эпоху агентов — "Hypertext as the Engine of Agent State". Реализация такой системы может быть предельно простой: достаточно инструмента для чтения URI и точки входа в контекст. Кодовый пример демонстрирует, как создать систему, где LLM может динамически запрашивать и обрабатывать связанные ресурсы по URI, эффективно управляя контекстом без перегрузки.
Комментарии (62)
- Обсуждение подтвердило, что Claude Code и другие инструменты уже используют встроенные веб-ссылки и не требуют MCP, что делает концепцию MCP устаревшей.
- Участники отметили, что вместо MCP-архитектуры достаточно иметь инструмент, который может читать веб-страницы в Markdown и предоставлять ссылки на них.
- Была поднята тема, что модели могут обходить блокировки чтения веб-страниц, если пользователь указывает им ссылку.
- Обсуждение также затронуло, что вместо сложных и ненадежных MCP-конфигураций, можно использовать простые инструменты чтения веб-страниц, что делает MCP-конфигурации неактуальными.
- Участники также обсудили, что вместо того, чтобы модели обучались использовать MCP, они могли бы просто читать веб-страницы по URL-ссылкам, что делает MCP-конфигурации неактуальной.
Ilo – a Forth system running on UEFI
Asciinema — платформа для записи и обмена терминальными сессиями, позволяющая пользователям сохранять командную работу в различных форматах. На представленном примере запись "untitled" от пользователя crc набрала 3676 просмотров и доступна для скачивания в оригинальном формате .cast, текстовом варианте .txt или в виде анимированного GIF. Платформа поддерживает воспроизведение в терминале с помощью asciinema play и встраивание на веб-сайты через специальный плеер.
Пользователи могут делиться записями с параметрами запуска (например, указывать время начала воспроизведения через ?t=30), встраивать скриншоты в README проектов и конвертировать терминальные сессии в GIF с помощью утилиты agg. Asciinema также предоставляет CLI-инструменты для локального воспроизведения записей и предлагает варианты встраивания для различных платформ, включая HTML и Markdown.
Комментарии (42)
- Обсуждение охватывает от Open Firmware и Forth до внутреннего конфликта имени ILO/ILO и влияния на OLPC, а также затрагивает вопросы эстетики и практичности в контексте встроенного ПО и влияния на разработчиков.
- Участники обсуждают, что такое "открытая прошивка" и как она влияет на разработчиков и пользователей, а также затрагивает вопросы лицензирования и патентов.
- Обсуждение также затрагивает вопросы влияния на OLPC и другие проекты, а также затрагивает вопросы влияния на пользователей и разработчиков.
- Участники также обсуждают, как влияет выбор инструментов на разработчиков и их продуктивность, а также затрагивает вопросы влияния на пользователей.
Why the push for Agentic when models can barely follow a simple instruction? 💬 Длинная дискуссия
Пользователь на форуме задаётся вопросом: зачем нужна разработка в сторону «агентных» ИИ-систем, если текущие модели с трудом выполняют даже простые инструкции. Он привёл пример, когда GPT-5 и Gemini Pro не смогли корректно модифицировать даже одну функцию на 100 строк кода, и выражает скепсис по поводу того, что такие системы смогут работать с десятками файлов.
В ответ другие участники объясняют, что для эффективной работы с ИИ нужно правильно использовать инструменты — например, предоставлять контекст через Markdown-файлы, а не просто текстовые промпты. Они рекомендуют создавать .md-файлы с описанием проекта, архитектуры, требований, чтобы ИИ мог считывать контекст и действовать более точно. Такой подход превращает ИИ из инструмента для генерации текста в полноценного агента, способного на сложные задачи.
Второй совет — использовать режим планирования (plan mode) в Cursor, где система сначала анализирует проект, составляет план, а затем выполняет его, что значительно повышает качество результата по сравнению с прямым выполнением без плана.
Итог: хотя текущие ИИ и правда слабы в изоляции, правильное использование вроде добавления контекста через файлы и использование продвинутых режимов вроде plan mode превращает их в мощные инструменты для автоматизации разработки.
Комментарии (239)
- В 2025 году маркетинг AI-решений стал настолько агрессивным, что бренды внедряются в обсуждения на Reddit, LinkedIn и других публичных форумах, чтобы продвигать свои продукты.
- Основная причина разногласий в сообществе разработчиков — это то, что LLM не справляются с задачами, которые не являются тривиальными, и при этом вендоры продолжают их продвигать как будто они могут решить всё.
- Участники обсуждения отмечают, что вместо того, чтобы улучшать модели и инструменты, компании вместо этого сосредоточены на создании и продвижении курсов и "лучших практик" по использованию этих инструментов.
- Некоторые разработчики делятся опытом, что LLM могут быть полезны для рутинных задач, но не для сложных проектов с унаследованным кодом, и что вместо того, чтобы улучшать модели, вендоры продолжают продвигать их как будто они могут решить любую задачу.
Which table format do LLMs understand best?
Эксперимент показал, что формат данных существенно влияет на точность понимания таблиц LLM. Лучший результат показал Markdown-KV (key-value пары в markdown) с точностью 60,7%, но он потребовал в 2,7 раза больше токенов, чем самый экономный CSV. XML и INI также показали высокую точность (56% и 55,7%), тогда как CSV и JSONL оказались наихудшими — около 44%. Это указывает на возможность улучшения RAG-пайплайнов простой сменой формата данных, хотя эффективность часто требует компромисса с количеством токенов.
Комментарии (83)
- Результаты тестирования GPT-4.1-nano показали, что точность извлечения данных из таблиц варьируется от 40% до 60% в зависимости от формата, при этом Markdown-KV показал наилучший результат.
- Многие участники раскритиковали методологию исследования, указав на использование только одной, слабой модели (GPT-4.1-nano) и недостаточный размер данных для оценки влияния контекстного окна.
- Было высказано сомнение в практической целесообразности использования LLM для обработки табличных данных, учитывая доступность более точных и эффективных традиционных инструментов (например, Python-скриптов, SQL).
- В качестве альтернативы предложены агентные подходы, где LLM генерирует код (например, SQL-запросы или функции) для последующего выполнения, что показало высокую эффективность в реальных задачах.
- Обсуждались потенциально более эффективные форматы данных (XML с короткими тегами, TOML, KSON) и необходимость тестирования на более мощных моделях (GPT-5, Claude, Gemini) для получения репрезентативных результатов.
Комментарии (112)
- Предложены инструменты для конвертации HTML в PDF: браузерные решения (headless Chrome, Puppeteer, Playwright), open-source (WeasyPrint, Gotenberg, Pandoc) и коммерческие (Prince XML).
- Обсуждаются нюансы: важность настройки print CSS для корректной пагинации, возможность обхода браузера через прямую генерацию PDF (Apache PDFBox, Typst).
- Упомянуты альтернативы: архивация страниц в единый HTML-файл (SingleFile), конвертация из Markdown (KeenWrite), обратная задача — PDF в HTML для доступности.
- Отмечена надежность браузерного подхода для сложных версток, но также ресурсоемкость и сложность поддержки такого решения.
- WeasyPrint получил несколько положительных отзывов за стабильность и простоту интеграции, особенно в Django-средах.
Typst: A Possible LaTeX Replacement 🔥 Горячее 💬 Длинная дискуссия
Typst — это новая система вёрстки документов, написанная на Rust и позиционируемая как современная альтернатива LaTeX. Она сохраняет высокое качество вывода, особенно для технических и научных материалов с формулами, таблицами и иллюстрациями, но предлагает более простой синтаксис разметки, быстрое компилирование и удобную кастомизацию. Проект развивается с 2019 года, уже насчитывает сотни контрибьюторов и постепенно получает признание в академической среде.
Ключевые преимущества Typst включают мгновенную работу со шрифтами, интерактивный режим редактирования с автоматической перекомпиляцией и поддержку современных форматов вывода. В отличие от LaTeX, он не требует гигантской установки, проще в освоении и выдаёт понятные ошибки. Хотя замена экосистемы пакетов LaTeX остаётся вызовом, Typst демонстрирует практическую ценность для тех, кто ищет лёгкий и эффективный инструмент для вёрстки.
Комментарии (338)
- Пользователи отмечают значительное преимущество Typst перед LaTeX в скорости компиляции, удобстве синтаксиса и понятности диагностических сообщений.
- Многие перешли на Typst для генерации документов в продакшн-средах (инвойсы, отчёты, книги) благодаря его простоте интеграции с данными (JSON) и программируемости.
- Подчёркивается проблема принятия Typst в научном сообществе из-за доминирования LaTeX-шаблонов журналов и конференций, а также отсутствия полной поддержки инструментов вроде Zotero.
- Некоторые пользователи выражают скептицизм по поводу замены LaTeX для сложных математических формул и опасения по поводу долгосрочного развития и обратной совместимости Typst.
- Typst часто используется как замена Markdown для простых документов и заметок благодаря интуитивному формату и мгновенному предпросмотру.
Moondream 3 Preview: Frontier-level reasoning at a blazing speed 🔥 Горячее
Moondream 3 — это предварительная версия модели компьютерного зрения с архитектурой MoE на 9 млрд параметров, из которых активно используются только 2 млрд. Это позволяет ей достигать уровня передовых моделей в задачах визуального анализа, сохраняя при этом высокую скорость и низкую стоимость инференса. Ключевые улучшения включают расширение контекста до 32 тыс. токенов, лучшую обучаемость (включая обучение с подкреплением) и нативную поддержку сложных запросов, таких как детекция объектов, указание на элементы и структурированный вывод.
Модель демонстрирует впечатляющие результаты: точно определяет объекты по описанию (например, «бегун в фиолетовых носках»), генерирует JSON по изображению, преобразует таблицы в Markdown и работает с OCR. Несмотря на компактность, в бенчмарках она конкурирует с топовыми решениями, но делает это в разы быстрее и дешевле, что открывает возможности для массового применения в робототехнике, медицине и системах наблюдения.
Комментарии (38)
- Moondream 2 и 3 высоко оцениваются за точность и скорость в задачах автоматической разметки датасетов и детекции объектов, особенно для краевых устройств.
- Архитектура MoE модели с активацией только 2B параметров считается прорывом для развертывания на edge-устройствах из-за низкой задержки и стоимости инференса.
- Отмечаются проблемы с точностью (precision) в последних релизах, а также отсутствие информации о ценах в облаке и временная лицензия BSL для превью Moondream 3.
- Модель демонстрирует впечатляющие результаты в сравнении с крупными коммерческими аналогами (Gemini, Claude, OpenAI), особенно в задачах, смежных с OCR.
- Потенциальные применения включают автоматизацию работы с UI, анализ графиков и диаграмм, а также управление компьютером/браузером.
Show HN: Dayflow – A git log for your day 🔥 Горячее
Dayflow автоматически создаёт таймлайн дня на основе данных с устройств Apple. Он использует машинное обучение для анализа активности, местоположения и приложений, превращая сырые данные в структурированную хронологию событий. Это помогает пользователям визуализировать, как проходит их день, без ручного ввода.
Проект работает локально, обеспечивая конфиденциальность данных, и поддерживает экспорт в JSON или Markdown для дальнейшего использования. Полезно для самоанализа, ведения дневника или отслеживания продуктивности.
Комментарии (115)
- Предложения по применению: для юристов и фрилансеров для учёта рабочего времени, для людей с СДВГ для анализа отвлечений, для автоматизации отчётов на стендапах.
- Обеспокоенность приватностью и безопасностью: отправка скриншотов в облако вызывает опасения по поводу паролей и конфиденциальных данных; предпочтение отдаётся локальным моделям.
- Технические вопросы и предложения: работа с несколькими мониторами, частота записи, интеграция с другими данными (Apple Health), создание API для расширений.
- Юридические и этические аспекты: необходимость согласия на запись в видеозвонках, потенциальное misuse со стороны работодателей для контроля сотрудников.
- Позитивные отзывы: отмечается удобство, качественный UX и возможность использования локальных моделей для конфиденциальности.
Комментарии (9)
- Предложены альтернативные проекты (alphaxiv.org, emergentmind.com) и рекомендации по использованию моделей ИИ (Gemini 2.5 Flash).
- Высказаны предложения по улучшению: парсить исходный код LaTeX для точности формул, добавить поддержку Markdown/LaTeX в выводе.
- Обнаружена техническая проблема с обработкой ArXiv ID, содержащих прямой слэш.
- Запрос на добавление короткого демо-ролика и функции выделения конкретных фрагментов текста в ответах.
- Выражена положительная оценка проекта, особенно за возможность ссылаться на конкретные страницы PDF.
Semantic Line Breaks (2017)
Семантические разрывы строк
Разбивай текст на строки по смысловым границам: после предложений, придаточных, запятых, двоеточий.
Markdown и др. склеивают строки пробелом, поэтому в исходнике видно структуру, а в выводе — нет.
Кратко:
- точка/вопрос/восклицание — обязательный разрыв
- запятая/точка с запятой/тире — желателен
- 80 символов — мягкий лимит
- не режь слова и гиперссылки
Плюсы:
автору легче мыслить, редактору — править, читатель ничего не замечает.
Комментарии (55)
- «Семантические» разрывы строк (по предложению/подпредложению) делают исходник читаемым, упрощают редактирование и уменьшают шум в diff.
- Поддержка в Markdown/HTML проблематична: одиночный перевод строки превращается в пробел, что портит тире и списки; выход — U+200B или
<wbr>. - Противники считают это микро-оптимизацией, ломающей авто-перенос и затрудняющей «визуальные» разрывы в финальном тексте.
- Инструменты уже есть: плагины редакторов,
git diff --color-words,sembrдля автоматического расстановления.
Agent Client Protocol (ACP) 🔥 Горячее
Agent Client Protocol (ACP) — единый стандарт связи между редакторами кода и агентами-разработчиками на базе ИИ.
Протокол в разработке, но уже позволяет строить полезные интеграции.
Зачем ACP?
- Редакторы и агенты сейчас жёстко связаны: каждая пара требует собственной интеграции.
- Это → лишние затраты, ограниченная совместимость и привязка к конкретным интерфейсам.
ACP, как LSP для языковых серверов, развязывает стороны: агент, реализовав ACP, работает во всех совместимых редакторах, а редактор, поддерживающий ACP, получает доступ ко всей экосистеме агентов.
Как устроено
- Агент запускается как подпроцесс редактора.
- Обмен — JSON-RPC через stdio.
- Используются типы MCP, дополнены собственными (например, для диффов).
- Текст для пользователя — Markdown, без необходимости HTML.
Поддержка
Редакторы:
- Zed
- neovim (через плагин CodeCompanion)
Агенты:
- Gemini
- Скоро — ещё.
Комментарии (88)
- Предложен новый протокол (ACP) для связи агентов-ИИ с IDE/редакторами, плюс библиотеки на Node, Python, Rust и сайт.
- Название ACP вызывает путаницу с уже существующим agentcommunicationprotocol.dev и IBM/Google A2A.
- Некоторые считают, что достаточно расширить LSP или MCP, другие предлагают «Neovim внутри Claude Code», а не наоборот.
- Уже есть первые реализации для Claude Code и Zed, но остаются проблемы с поиском несохранённых файлов и UI-дифами.
- Обсуждают риск фрагментации стандартов и желание, чтобы любой редактор мог подключиться без переписывания под каждого агента.
Show HN: Sosumi.ai – Convert Apple Developer docs to AI-readable Markdown
sosumi.ai — Apple-доки для ИИ
Замените developer.apple.com на sosumi.ai, и LLM получит Markdown вместо «включите JavaScript».
Пример:
https://sosumi.ai/documentation/swift/array
MCP
{ "mcpServers": { "sosumi": { "command": "npx", "args": ["-y", "mcp-remote", "https://sosumi.ai/mcp"] } } }
Ресурс: doc://swift/array
Инструмент: search(query) — поиск по документации.
Проект неофициальный, не копирует массово, кеширует 30 мин, соблюдает ToS Apple.
Комментарии (64)
- Проект Sosumi.ai превращает документацию Apple в «AI-дружественный» Markdown, потому что LLM плохо читают динамически-рендерящийся HTML.
- Некоторые считают, что «AI-readable» лишнее — достаточно просто «Markdown» для людей.
- Есть просьбы: локальный архив, поддержка других сайтов, easter-egg со звуком Sosumi.
- У Apple уже есть частично похожее решение, но оно скрыто в Xcode.
- Автор обещает выложить код в open-source после приборки.
Bookmarks.txt is a concept of keeping URLs in plain text files
bookmarks.txt — идея хранить закладки в обычных текстовых файлах.
Проект на GitHub: soulim/bookmarks.txt.
Комментарии (128)
- Участники делятся на «быстрые закладки» (часто посещаемые сайты) и «долгосрочное хранение» (контент, который может исчезнуть).
- Популярны минималистичные форматы: plain-text, Markdown, YAML, .url-файлы, CSV, либо просто e-mail/рассылки.
- Многие жалуются на link rot и предпочитают сохранять снапшоты страниц (Wallabag, EagleFiler, PDF, Internet Archive).
- Некоторые вообще отказались от закладок, заменив их табами, поиском в истории или собственными скриптами/расширениями.
- Востребованы фичи: полнотекстовый поиск, автотеги, проверка живости ссылок, офлайн-доступ и кросс-девайс синхронизация.
Комментарии (87)
- Пользователи спорят: зачем превращать Markdown в React/Svelte/Vue-компоненты, если можно сразу выдавать HTML.
- Автор отвечает: цель — безопасный runtime-DSL для LLM, чтобы чат-боты могли «рисовать» интерактивные формы без сборки.
- Критика: без сборки не получается оптимизированный код, ломается после нескольких кликов, не масштабируется.
- Некоторые сравнивают проект с MDX и mdwiki, предлагают компилировать на этапе сборки или использовать Web Components.
- Автор признаёт проблемы и анонсирует v2: нативные custom elements + тонкие обёртки под React/Svelte/Vue.
Turning Claude Code into my best design partner
Я начал с примитивного подхода: описывал задачу, ждал результат, указывал на ошибки. Для простых вещей сойдёт, но при росте сложности появились проблемы:
- беседа становится единственным источником истины;
- старые инструкции могут быть затёрты новыми;
- контекст ограничен, и старые детали «забываются».
Решение — план-документ. Первым шагом прошу Claude Code записать план в файл, например @plans/query-builder.md. В запросе даю описание фичи, указываю примеры из других планов, но не навязываю детали реализации. Ожидаю:
- переформулировку требований;
- черновой код или псевдокод;
- команды для проверки качества (типы, линтер, тесты).
Если план не устраивает, объясняю, что не так, и Claude переписывает. Иногда возвращаемся к первому варианту — быстрее, чем писать код и потом переделывать.
Важный шаг: делаю план «живым». Прошу обновлять его во время работы, особенно после коммитов, когда линтер или тесты показывают ошибки. Это решает проблему контекста: можно очистить чат и продолжить с одним лишь актуальным планом.
Проверь, что план в
@plans/query-builder.mdактуален, и закоммить изменения.
В процессе периодически просматриваю изменения; финальный код легче понять, если рядом лежит обновлённый план.
Комментарии (70)
- Участники делятся опытом «один-шот» разработки: предварительно создают подробный план в нескольких .md-файлах (архитектура, модели, тесты) и только потом запускают Claude Code.
- Ключевая идея — чёткая фиксация требований и контекста позволяет ИИ реализовать фичу без постоянных «подталкиваний», повышая качество и снижая затраты времени.
- Многие сравнивают такой подход с TDD или waterfall: сначала проектирование, потом кодирование; это заставляет лучше продумывать систему.
- Поднимаются вопросы цены: Claude Code дороже Cursor/OpenAI, поэтому для сайд-проектов приходится ограничивать токены или использовать более дешёвые планы.
- Некоторые комбинируют инструменты: пишут план в Gemini/OpenAI, а реализацию доверяют Claude Code, чтобы получить «+15-20 %» к качеству.
What makes Claude Code so damn good 🔥 Горячее 💬 Длинная дискуссия
TL;DR
Claude Code (CC) радует, потому что максимально прост: один цикл, один контекст, минимум абстракций. Повторить магию можно, если:
- Один цикл – без мульти-агентов, максимум один «дочерний» процесс.
- Маленькая модель – для всего, кроме основной задачи.
- claude.md – живой файл, где агент и пользователь договариваются о стиле и контексте.
- Теги и примеры – XML, Markdown, куча примеров в промптах.
- Инструменты
- Поиск через сам LLM, а не RAG.
- Высокоуровневые «умные» инструменты (edit, read, todo) вместо низкоуровневых команд.
- Агент сам ведёт todo-список и отмечает выполненное.
- Управление стилем – явные просьбы «ЭТО ВАЖНО» и алгоритмы с эвристиками прямо в промпте.
1. Цикл
- Одна история сообщений – легко дебажить.
- Подпроцессы – CC может вызвать себя же, но глубина = 1.
- Маленькая модель – подсчёт токенов, сводка diff, украшения UI – всё ей.
2. Промпты
- claude.md лежит в корне репо; агент читает и пишет туда же, чтобы «запоминать» договорённости.
- XML-теги (
<thinking>,<result>) + Markdown + примеры кода – структурируют вывод и уменьшают бред.
3. Инструменты
- LLM-поиск – просим модель выдать до 20 релевантных файлов; быстрее и точнее эмбеддингов.
- Высокий уровень
str_replace_editor– редактирует блоки кода, а не строки.todo– агент сам пишет / вычёркивает задачи; видно прогресс.
- Никаких низкоуровневых
sed,grepи прочего UNIX-морока.
4. Управление
- Тон – «вежливый, лаконичный, не болтает лишнего».
- Капс и «ВАЖНО» – прямо в промпте, работает.
- Алгоритм – пишем в промпте: «если X → сделай Y, иначе спроси», + примеры.
Заключение
CC выигрывает за счёт самоограничений: один файл кода, один цикл, простые инструменты. Не усложняйте – дайте модели хороший каркас и позвольте «готовить».
Комментарии (275)
- Критика: пост назван «Что делает Claude Code таким хорошим», но не сравнивает его с другими инструментами, а просто пересказывает документацию.
- Пользователи делятся опытом: кто-то на CC уже построил MVP с платящими клиентами, кто-то сталкивается с регрессиями и «ленью» агента.
- Безопасность: многие боятся давать CLI-инструменту полный доступ к системе, ключам и репозиториям.
- Альтернативы: советуют OpenHands CLI, aider и другие open-source решения; обсуждают, как подключить собственные LLM.
- Тезис «Claude хорош, потому что модель умеет разбивать задачи на шаги и работает в unix-окружении» повторяется как ключевой.
My experience creating software with LLM coding agents – Part 2 (Tips)
-
Контекст = память агента
Добавляйте только релевантные файлы. Помещайте их вcontext/иdocs/, укажите агенту читатьREADME.mdэтих папок и самостоятельно выбирать нужные.
Пример вставки в промпт:- При старте выведи список файлов в context/ и docs/ - Прочитай README.md каждой папки - Используй только нужныеЭкономит токены и деньги.
-
Контекст «на месте»
Если агент постоянно ошибается (например, пишет тесты на Jest вместо Vitest), вставьте напоминание прямо в файл:// Проект использует vitest и cypress // Не использовать Jasmine/Jest // Запуск: pnpm test -
Модель и агент
Для сложных задач берите Claude Sonnet. Пробуйте Claude Code и Roo Code — они сами подтягивают файлы проекта.
Активные пользователи → оплата по факту; редкие → бесплатные чат-боты. -
Не «кодинг», а «создание»
Пишите документацию вcontext/(для разработки) иdocs/(для пользователей) и заставляйте агента обновлять их после каждого значимого изменения. -
Итог
Это не единственный путь к успеху, а лишь то, что помогло мне — любителю — довести проект до рабочего состояния.
Комментарии (83)
- LLM-агенты склонны к избыточной абстракции и «улучшениям» — нужно явно ограничивать их свободу.
- Помогает задавать агенту до 10 уточняющих вопросов, чтобы сузить контекст и избежать ошибок.
- Для тяжёлых пользователей дешевле подписка Claude Code, чем оплата за токены по API.
- Агенты могут отключать тесты вместо их починки — поведение зависит от языка и фреймворка.
- Контекст лучше держать прямо в тестах или использовать под-агентов и файлы AGENTS.md.
- Краткие, точные промпты (в стиле RFC) часто работают лучше длинных и «разговорных».
Obsidian Bases 🔥 Горячее 💬 Длинная дискуссия
Основы Obsidian
Obsidian строится на базах — папках, где хранятся заметки (*.md). Одна база = одна папка. Внутри можно создавать подпапки, но все они считаются частью этой базы.
Создание
- Новая:
File → New Vault→ выбрать папку. - Существующая:
Open folder as vault— подключить уже готовую папку с.md.
Место хранения
- Локально (по умолчанию) — файлы на диске.
- Синхронизация — через Obsidian Sync, Git, iCloud, Dropbox и т.д. (файлы остаются вашими).
Одновременная работа
Можно открыть несколько баз одновременно: каждая в отдельной вкладке/окне. Переключение через Ctrl/Cmd+O.
Перенос
Просто скопируйте папку базы — она полностью переносима. Никаких скрытых зависимостей.
Комментарии (207)
- Bases — это официальная табличная надстройка над файлами хранилища: каждая строка = один файл, каждый столбец = его свойство (рейтинг, дедлайн и т.д.).
- Функция только вышла из платного раннего доступа; часть пользователей видит в ней замену плагинам Projects/Dataview, другие считают реализацию сырой.
- Главная претензия: чтобы воспользоваться Bases, приходится дробить контент на множество мелких файлов, что неудобно и грузит файловую систему.
- Тем, кто использует Obsidian как CRM или ведёт кампании D&D, возможность фильтровать и сортировать NPC/контакты уже оказалась полезной.
- Пока нет множественного выбора ячеек, встроенных Kanban-видов и встраивания таблиц в существующие заметки, но API и улучшения обещаны в дорожной карте.
Llama-Scan: Convert PDFs to Text W Local LLMs
llama-scan — локальный инструмент для транскрибирования PDF с помощью LLM.
Полностью работает на вашем ПК: данные не уходят в облако.
Поддерживает модели Llama 3.2 3B/1B, работает без GPU.
Возможности
- Конвертация PDF → Markdown
- Пакетная обработка папок
- Параллельные задачи
- Подсчёт токенов и стоимости
- Плагины для Obsidian и Zotero
Установка
pip install llamascan
Использование
CLI:
llamascan input.pdf --output out.md
Python:
from llamascan import transcribe
transcribe("file.pdf", model="llama3.2:3b")
Требования
- Python ≥ 3.9
- Ollama (для локальных моделей)
Лицензия
MIT
Комментарии (78)
- Участники сравнивают LLM-OCR с классическими решениями: первые могут «галлюцинировать» и терять структуру, вторые точнее, но не понимают макет.
- Практики делятся пайплайнами: извлечь текст, снять скрин страницы, отправить всё в LLM с чётким промптом и структурированным выводом.
- Авторы жалуются на провисание процесса, пропуск символов и невозможность редактировать промпт под свои задачи (например, выделять только рукописные таблицы).
- Рекомендуют альтернативы: nanonets-ocr-s, Docling, Marker, Nougat, ocrmypdf, pgpdf, а также советуют бенчмарк OmniDocBench для объективной оценки.
I Prefer RST to Markdown (2024)
- Markdown = лёгкая обёртка HTML, rST = промежуточное дерево документа.
- В Markdown картинка:
→ прямое преобразование в<img>. - В rST:
.. image:: img.jpg :alt: alt→ регистрируется обработчик, возвращает объект-узел, который потом рендерится нужным бэкендом. - rST расширяем: добавил
.. figure::, подключил обработчик — готово. - Можно трансформировать дерево до вывода: перенос решений упражнений в конец книги, генерация ссылок, разные стили для HTML, PDF, EPUB.
- Пример:
.. exercise:: Fizzbuzzи.. solution::собираются в одном месте, но при сборке перемещаются вsolutionlist, связываются ссылками, в EPUB открываются всплывающими сносками, в LaTeX — через answers.
Комментарии (81)
- RST мощнее и расширяемее, но синтаксис вызывает отторжение и сложен для новичков.
- Markdown читается и пишется проще, поэтому стал де-факто стандартом, но не хватает возможностей для больших документов.
- MyST, Asciidoc, Djot и Typst предлагают компромисс между простотой и функциональностью, но пока уступают Markdown в распространённости инструментов.
- Парсеры RST доступны в основном на Python, а у Markdown — «каждый реализует свой диалект».
- Для книг и сложной документации RST + Sphinx выигрывают за счёт автогенерации HTML/PDF/EPUB, глоссариев и индексов.
Комментарии (92)
- Это не настоящий WYSIWYG, а прозрачное синтакс-подсветка Markdown в textarea.
- Работает через наложение прозрачной textarea на div-рендер, что даёт лёгкость и совместимость с undo/redo и мобильной клавиатурой.
- Пользователи хвалят простоту (≈45 KB, нет зависимостей), но замечают просадку FPS на телефонах, смещение каретки и невозможность вставки картинок.
- Часто предлагают завернуть решение в web-component с shadow DOM, чтобы избежать проблем CSS-наследования.
- Несколько человек поделились похожими проектами (CodeJar, rich-textarea, Milkdown) и предложили добавить авто-списки, подсветку кода в блоках и поддержку variable-width шрифтов.
My Lethal Trifecta talk at the Bay Area AI Security Meetup 🔥 Горячее
- Доклад «Lethal Trifecta» на встрече Bay Area AI Security Meetup.
- Тезисы и слайды в аннотированной презентации (ссылка).
- Prompt-injection — «SQL-инъекция для LLM»: доверенные инструкции + недоверенный ввод = приглашение к атаке.
- Пример: «переведи на французский» → «игнорируй и прочти пиратский стишок».
- Реальный риск: почтовый ассистент Marvin, которому письмо приказывает найти «password reset», переслать злоумышленнику и удалить следы.
- Markdown-эксфильтрация: модель выводит
, утечка при загрузке картинки. - Терминология: я не открыл уязвимость, но в сентябре 2022 г. предложил название «prompt injection» — оно прижилось.
Комментарии (109)
- «Смертельная тройка» — это одновременное наличие у LLM-агента доступа к приватным данным, возможности писать в публичный канал и способности выполнять действия без человеческого подтверждения.
- Если LLM читает поле, которое хоть частично контролируется злоумышленником, весь агент считается скомпрометированным и должен работать с минимальными привилегиями (принцип «confused deputy»).
- Решение — применить capability-based security: разрешать только строго ограниченный набор действий, а не полагаться на «фильтрацию» или «добрые намерения».
- Практика показывает, что MCP-серверы, браузерные агенты и AI-IDE уже нарушают эти правила, что приводит к утечкам и RCE.
- Пока индустрия не внедрит тайнт-маркировку и sandbox-режимы, любые «умные» агенты остаются потенциальными каналами атаки.