Hacker News Digest

Тег: #hugging-face

Постов: 7

AI documentation you can talk to, for every repo (deepwiki.com)

DeepWiki — это инструмент для индексации кода репозиториев, позволяющий "общаться" с их документацией через AI. Сервис использует Devin для анализа кода и предоставляет интерфейс для вопросов о любом проекте. Пользователи могут добавлять как публичные, так и приватные репозитории, получая мгновенные ответы по их структуре и функционалу. Это упрощает понимание сложных кодовых баз и ускоряет онбординг новых разработчиков.

На платформе уже доступны популярные репозитории, включая Microsoft VS Code (170k звёзд), Hugging Face Transformers (143k), LangChain (106k), SQLite (7.7k) и многие другие. DeepWiki позиционируется как решение для быстрого погружения в любой код без необходимости изучения документации вручную.

by jicea • 11 ноября 2025 г. в 04:38 • 115 points

ОригиналHN

#llm#documentation#repositories#code-analysis#vscode#hugging-face#langchain#sqlite

Комментарии (77)

  • Пользователи жалуются на качество автогенерируемой документации: она устаревшая, путает детали реализации с пользовательским API и содержит ошибки.
  • Некоторые участники считают, что если проект и так плохо документирован, то LLM-инструменты не спасут ситуацию, а другие указывают, что даже при наличии хорошей документации LLM может давать неверные сводки.
  • Обсуждается, что вместо попыток «автоматически документировать» код, лучше встроить LLM в IDE/editor и дать разработчику возможность взаимодействовать с LLM в процессе написания кода.
  • Поднимается вопрос о том, что если проект не имеет достойной документации, то LLM не сможет помочь, и что вместо этого лучше встроить LLM в IDE/editor и дать разработчику возможность взаимодействовать с LLM в процессе написания кода.

Kimi K2 Thinking, a SOTA open-source trillion-parameter reasoning model (moonshotai.github.io) 🔥 Горячее 💬 Длинная дискуссия

Kimi K2 Thinking — это новая модель от компании 01.AI, демонстрирующая впечатляющие способности в обработке длинных текстов. Модель способна анализировать документы до 128K токенов, что в 8 раз превышает возможности предыдущей версии. Это позволяет ей эффективно работать с целыми книгами, юридическими документами и научными исследованиями за один проход.

Разработчики подчеркивают, что K2 Thinking превосходит конкурентов в задачах, требующих глубокого понимания контекста, особенно на китайском языке. Тесты показывают, что модель достигает 90% точности в сложных аналитических задачах, что делает её одной из самых мощных на рынке. В то же время, компания заявляет о более эффективном использовании вычислительных ресурсов по сравнению с аналогами.

by nekofneko • 06 ноября 2025 г. в 15:06 • 845 points

ОригиналHN

#01.ai#moonshotai#kimi-k2#open-source#large-language-models#gpt-4.5#claude-3.5-sonnet#openrouter#hugging-face

Комментарии (381)

  • Китайские компании (Moonshot, DeepSeek, Qwen, GLM) за последние месяцы выпустили ряд открытых моделей, что ставит под сомнение привычное представление о том, что «открытый исходный код» — это западная практика.
  • Модель Kimi K2 Thinking показала себя как наилучшая в своем классе, превосходя GPT-4.5 и Claude 3.5 Sonnet, и при этом доступна через OpenRouter и Hugging Face.
  • Несмотря на то, что модель не является открытой, Moonshot AI предоставляет доступ к ней бесплатно, что вызывает вопросы о финансировании и стратегии.
  • Появление столь мощных открытых моделей вызывает вопросы о том, как они будут использоваться и как это повлияет на рынок ИИ.

EuroLLM: LLM made in Europe built to support all 24 official EU languages (eurollm.io) 🔥 Горячее 💬 Длинная дискуссия

EuroLLM — европейская языковая модель, поддерживающая все 24 официальных языка ЕС. Проект представляет две модели: EuroLLM-9B с 9 миллиардами параметров, обученную на более чем 4 триллионах токенов на 35 языках, и EuroLLM-1.7B, оптимизированную для работы на периферийных устройствах. Обе модели открыты для использования и доступны на Hugging Face. Проект получил поддержку от Horizon Europe, Европейского исследовательского совета и EuroHPC, а обучение проводилось на суперкомпьютере MareNostrum 5.

Команда EuroLLM, включающая исследователей из Университета Эдинбурга, Instituto Superior Técnico и других ведущих европейских институтов, стремится укрепить цифровый суверенитет ЕС и стимулировать инновации в области ИИ. В будущем планируется добавить мультимодальные возможности — обработку изображений и речи. Проект позиционируется как "механизм инноваций", предоставляя европейским исследователям и организациям доступ к отечественной LLM для дальнейшего развития.

by NotInOurNames • 28 октября 2025 г. в 14:58 • 731 points

ОригиналHN

#llm#horizon-europe#eurohpc#supercomputing#artificial-intelligence#natural-language-processing#multilingual#european-union#hugging-face

Комментарии (552)

  • Европейский проект EuroLLM-9B представляет собой модель 9B параметров, обученную на 24 официальных языках ЕС, но не раскрывает детали обучения и не предоставляет доступ к датасету.
  • Модель демонстрирует слабые результаты на бенчмарках и не может конкурировать с лучшими моделями, но при этом требует согласие на сбор персональных данных для доступа к весам.
  • Проект финансируется из бюджета ЕС в размере 50 миллионов евро, но при этом не предоставляет никаких выгод для европейских стартапов и компаний в отличии от американских и китайских моделей.
  • Появление EuroLLM-9B вызвало широкое обсуждение в сообществе, так как она не может конкурировать с другими моделями и не предоставляет никаких преимуществ для европейских пользователей.

VaultGemma: The most capable differentially private LLM (research.google)

  • VaultGemma — самая мощная языковая модель с дифференциальной приватностью.
  • Обучена на Gemma 2 2B, добавлен шум и обрезка градиентов; ε=9 за одну эпоху.
  • На 4 из 5 тестов MMLU Pro теряет ≤1 % точности по сравнению с базовой.
  • Код и веса открыты: Hugging Face.

by meetpateltech • 12 сентября 2025 г. в 16:14 • 84 points

ОригиналHN

#gemma#differential-privacy#machine-learning#llm#google#hugging-face

Комментарии (16)

  • Google выпустила VaultGemma-1B — «дифференциально-приватную» версию Gemma: веса можно скачать и запустить локально.
  • Обучение с DP-шумом даёт математическую гарантию: вероятность утечки любого конкретного примера ≤ e^ε (ε≈2) + крошечное δ; модель «почти не замечает» отдельные строки.
  • Польза — юридическая защита: слабее иск о нарушении авторского права и меньше рисков PII-утечки, поэтому можно масштабировать данные, включая медицинские или потоки повседневной активности.
  • Пока это скорее PoC и исследование, чем готовый продукт; Google может применять DP и для рекламных моделей.
  • Пользователь получает обычную 1B-модель, но с официальным сертификатом «не запомнила» тренировочные тексты — достаточно для локального запуска без доверия к облаку.

The AI Job Title Decoder Ring (dbreunig.com)

Ключевые слова титулов
AI-роли собираются из трёх блоков:

модификатор домен роль
Forward Deployed / Applied / — AI / ML / Gen AI Researcher / Engineer / Scientist / Architect / PM / Designer
  • Forward Deployed — работают у клиента, внедряют готовые модели.
  • Applied — строят продукты на базе моделей, но не обучают их.
  • AI — общий термин.
  • ML — классическое обучение моделей для узких задач.
  • Gen AI — генерация текста, картинок, звука; термин быстро устаревает.

Researcher и Scientist почти синонимы, но «исследователь» всё чаще означает «продуктовый инженер с OKR», а не академика.


Реальные примеры

  • AI Researcher — исследует архитектуру LLM.
  • Applied AI Engineer — интегрирует модели в продукт.
  • Forward Deployed AI Architect — проектирует решения на месте у заказчика.

by dbreunig • 21 августа 2025 г. в 19:22 • 76 points

ОригиналHN

#llm#machine-learning#gen-ai#pytorch#hugging-face

Комментарии (66)

  • «AI» стал маркетинговым зонтиком для всего, от LLM до обычного ML, а титулы вроде «AI Engineer» или «Forward Deployed Engineer» часто не отражают реальные задачи.
  • Участники смеются над инфляцией названий («Exalted Engineer», «Senior Anything-But-C-Level») и предлагают практичные эвристики: MLE = PyTorch, AI Engineer = Hugging Face, Researcher = пишет статьи.
  • Многие «AI-роли» на деле сводятся к обычной разработке без GPU и fine-tuning’а, а само слово «engineer» уже обесценено.
  • Популярность профессии взлетела после 2022 г. из-за денег, вызвав приток «хайпожоров» и «лестничных альпинистов», от которых «нормальные» инженеры мечтают избавиться.
  • Итог: вакансии описывают задачи лучше, чем громкие титулы, а понимание «AI» всё чаще заменяется лозунгом «дайте инвестиции».

Комментарии (47)

  • Команда подтвердила: датасеты закрыты, но признаёт, что открытые голосовые банки критичны для мало-рыночных языков.
  • В ближайшие 2 месяца выйдет распознавание речи (STT), включая урду.
  • Работают над офлайн-версиями и «горячими линиями» через операторов, чтобы охватить села без интернета.
  • Пока предоставляют только API; модели не выкладывают на Hugging Face, но планируют хакатон для разработчиков.
  • Крупные игроки игнорируют эти языки из-за малого спроса; команда стремится стать «региональным лидером» до появления конкурентов.

Open models by OpenAI (openai.com) 🔥 Горячее 💬 Длинная дискуссия

Открытые модели OpenAI

Продвинутые модели с открытыми весами для любого кейса и запуска где угодно.

Ссылки:

  • Загрузить на Hugging Face
  • Исходники на GitHub
  • Попробовать демо

Модели:

  • gpt-oss-120b — крупная модель для дата-центров и мощных ПК/ноутбуков.
  • gpt-oss-20b — средняя модель, работает на большинстве ПК/ноутбуков.

Преимущества:

  • Разрешительная лицензия: Apache 2.0 — свободная разработка, без копилефта и патентных рисков; подходит для экспериментов, кастомизации и коммерческого использования.
  • Для агентных задач: сильное следование инструкциям и работа с инструментами в ходе рассуждений (веб-поиск, запуск Python-кода).
  • Глубокая настраиваемость: выбор уровня «усилия рассуждений» (низкий/средний/высокий) и полно-параметрический финтюнинг под ваш кейс.
  • Полная «цепочка рассуждений»: доступна для удобной отладки и повышения доверия к ответам.

Интерактивное демо:

  • Простой playground для запуска обеих моделей в браузере.

by lackoftactics • 05 августа 2025 г. в 17:02 • 2083 points

ОригиналHN

#openai#llm#apache-2.0#python#hugging-face#github#rust#llama.cpp#ollama

Комментарии (845)

  • Обсуждение посвящено выходу открытых моделей OpenAI gpt-oss (20B и 120B), которые по бенчмаркам близки к o3/o4-mini и местами обгоняют открытые лидеры; многие отмечают, что 20B уже реально запускается локально на Mac/мобильных устройствах.
  • Пользователи делятся первыми впечатлениями и ссылками на обзоры/модель-карты, отмечая конкурентную производительность, совместимый токенайзер и адекватное лицензирование; есть поддержка в llama.cpp, Ollama, LM Studio, Harmony формат ответов и растущая роль Rust в инструментах OpenAI.
  • Скорости инференса сильно варьируются: от очень быстрых облачных провайдеров (Cerebras/Groq на OpenRouter) до заметных задержек локально при больших контекстах; производительность зависит от GPU/платформы и параметров квантования.
  • Отмечают стратегический сдвиг OpenAI к модели Meta: открытые веса как средство захвата экосистемы и снижения порога входа; звучат предположения, что релиз предвосхищает скорый анонс ещё более сильной закрытой модели.
  • Сообщество обсуждает экономику: гибридные пайплайны (локально — простые задачи, в облако — сложные), возможность заменять платные подписки локальным запуском, и общий тренд в пользу OSS при минимальной разнице в качестве.
  • Есть критика: у 120B встречаются галлюцинации на фактах, часть пользователей недовольна агрессивной безопасностью/отказами, отсутствием оптимизаций под RTX 50, а также неполной мультимодальностью.
  • В целом настроение позитивное: многие благодарят за «настоящий» открытый релиз с сопутствующими инструментами и ожидают независимых бенчмарков, которые могут закрепить лидерство gpt-oss среди текстовых открытых моделей.