AI documentation you can talk to, for every repo
DeepWiki — это инструмент для индексации кода репозиториев, позволяющий "общаться" с их документацией через AI. Сервис использует Devin для анализа кода и предоставляет интерфейс для вопросов о любом проекте. Пользователи могут добавлять как публичные, так и приватные репозитории, получая мгновенные ответы по их структуре и функционалу. Это упрощает понимание сложных кодовых баз и ускоряет онбординг новых разработчиков.
На платформе уже доступны популярные репозитории, включая Microsoft VS Code (170k звёзд), Hugging Face Transformers (143k), LangChain (106k), SQLite (7.7k) и многие другие. DeepWiki позиционируется как решение для быстрого погружения в любой код без необходимости изучения документации вручную.
Комментарии (77)
- Пользователи жалуются на качество автогенерируемой документации: она устаревшая, путает детали реализации с пользовательским API и содержит ошибки.
- Некоторые участники считают, что если проект и так плохо документирован, то LLM-инструменты не спасут ситуацию, а другие указывают, что даже при наличии хорошей документации LLM может давать неверные сводки.
- Обсуждается, что вместо попыток «автоматически документировать» код, лучше встроить LLM в IDE/editor и дать разработчику возможность взаимодействовать с LLM в процессе написания кода.
- Поднимается вопрос о том, что если проект не имеет достойной документации, то LLM не сможет помочь, и что вместо этого лучше встроить LLM в IDE/editor и дать разработчику возможность взаимодействовать с LLM в процессе написания кода.
Kimi K2 Thinking, a SOTA open-source trillion-parameter reasoning model 🔥 Горячее 💬 Длинная дискуссия
Kimi K2 Thinking — это новая модель от компании 01.AI, демонстрирующая впечатляющие способности в обработке длинных текстов. Модель способна анализировать документы до 128K токенов, что в 8 раз превышает возможности предыдущей версии. Это позволяет ей эффективно работать с целыми книгами, юридическими документами и научными исследованиями за один проход.
Разработчики подчеркивают, что K2 Thinking превосходит конкурентов в задачах, требующих глубокого понимания контекста, особенно на китайском языке. Тесты показывают, что модель достигает 90% точности в сложных аналитических задачах, что делает её одной из самых мощных на рынке. В то же время, компания заявляет о более эффективном использовании вычислительных ресурсов по сравнению с аналогами.
Комментарии (381)
- Китайские компании (Moonshot, DeepSeek, Qwen, GLM) за последние месяцы выпустили ряд открытых моделей, что ставит под сомнение привычное представление о том, что «открытый исходный код» — это западная практика.
- Модель Kimi K2 Thinking показала себя как наилучшая в своем классе, превосходя GPT-4.5 и Claude 3.5 Sonnet, и при этом доступна через OpenRouter и Hugging Face.
- Несмотря на то, что модель не является открытой, Moonshot AI предоставляет доступ к ней бесплатно, что вызывает вопросы о финансировании и стратегии.
- Появление столь мощных открытых моделей вызывает вопросы о том, как они будут использоваться и как это повлияет на рынок ИИ.
EuroLLM: LLM made in Europe built to support all 24 official EU languages 🔥 Горячее 💬 Длинная дискуссия
EuroLLM — европейская языковая модель, поддерживающая все 24 официальных языка ЕС. Проект представляет две модели: EuroLLM-9B с 9 миллиардами параметров, обученную на более чем 4 триллионах токенов на 35 языках, и EuroLLM-1.7B, оптимизированную для работы на периферийных устройствах. Обе модели открыты для использования и доступны на Hugging Face. Проект получил поддержку от Horizon Europe, Европейского исследовательского совета и EuroHPC, а обучение проводилось на суперкомпьютере MareNostrum 5.
Команда EuroLLM, включающая исследователей из Университета Эдинбурга, Instituto Superior Técnico и других ведущих европейских институтов, стремится укрепить цифровый суверенитет ЕС и стимулировать инновации в области ИИ. В будущем планируется добавить мультимодальные возможности — обработку изображений и речи. Проект позиционируется как "механизм инноваций", предоставляя европейским исследователям и организациям доступ к отечественной LLM для дальнейшего развития.
Комментарии (552)
- Европейский проект EuroLLM-9B представляет собой модель 9B параметров, обученную на 24 официальных языках ЕС, но не раскрывает детали обучения и не предоставляет доступ к датасету.
- Модель демонстрирует слабые результаты на бенчмарках и не может конкурировать с лучшими моделями, но при этом требует согласие на сбор персональных данных для доступа к весам.
- Проект финансируется из бюджета ЕС в размере 50 миллионов евро, но при этом не предоставляет никаких выгод для европейских стартапов и компаний в отличии от американских и китайских моделей.
- Появление EuroLLM-9B вызвало широкое обсуждение в сообществе, так как она не может конкурировать с другими моделями и не предоставляет никаких преимуществ для европейских пользователей.
VaultGemma: The most capable differentially private LLM
- VaultGemma — самая мощная языковая модель с дифференциальной приватностью.
- Обучена на Gemma 2 2B, добавлен шум и обрезка градиентов; ε=9 за одну эпоху.
- На 4 из 5 тестов MMLU Pro теряет ≤1 % точности по сравнению с базовой.
- Код и веса открыты: Hugging Face.
Комментарии (16)
- Google выпустила VaultGemma-1B — «дифференциально-приватную» версию Gemma: веса можно скачать и запустить локально.
- Обучение с DP-шумом даёт математическую гарантию: вероятность утечки любого конкретного примера ≤ e^ε (ε≈2) + крошечное δ; модель «почти не замечает» отдельные строки.
- Польза — юридическая защита: слабее иск о нарушении авторского права и меньше рисков PII-утечки, поэтому можно масштабировать данные, включая медицинские или потоки повседневной активности.
- Пока это скорее PoC и исследование, чем готовый продукт; Google может применять DP и для рекламных моделей.
- Пользователь получает обычную 1B-модель, но с официальным сертификатом «не запомнила» тренировочные тексты — достаточно для локального запуска без доверия к облаку.
The AI Job Title Decoder Ring
Ключевые слова титулов
AI-роли собираются из трёх блоков:
| модификатор | домен | роль |
|---|---|---|
| Forward Deployed / Applied / — | AI / ML / Gen AI | Researcher / Engineer / Scientist / Architect / PM / Designer |
- Forward Deployed — работают у клиента, внедряют готовые модели.
- Applied — строят продукты на базе моделей, но не обучают их.
- AI — общий термин.
- ML — классическое обучение моделей для узких задач.
- Gen AI — генерация текста, картинок, звука; термин быстро устаревает.
Researcher и Scientist почти синонимы, но «исследователь» всё чаще означает «продуктовый инженер с OKR», а не академика.
Реальные примеры
- AI Researcher — исследует архитектуру LLM.
- Applied AI Engineer — интегрирует модели в продукт.
- Forward Deployed AI Architect — проектирует решения на месте у заказчика.
Комментарии (66)
- «AI» стал маркетинговым зонтиком для всего, от LLM до обычного ML, а титулы вроде «AI Engineer» или «Forward Deployed Engineer» часто не отражают реальные задачи.
- Участники смеются над инфляцией названий («Exalted Engineer», «Senior Anything-But-C-Level») и предлагают практичные эвристики: MLE = PyTorch, AI Engineer = Hugging Face, Researcher = пишет статьи.
- Многие «AI-роли» на деле сводятся к обычной разработке без GPU и fine-tuning’а, а само слово «engineer» уже обесценено.
- Популярность профессии взлетела после 2022 г. из-за денег, вызвав приток «хайпожоров» и «лестничных альпинистов», от которых «нормальные» инженеры мечтают избавиться.
- Итог: вакансии описывают задачи лучше, чем громкие титулы, а понимание «AI» всё чаще заменяется лозунгом «дайте инвестиции».
Комментарии (47)
- Команда подтвердила: датасеты закрыты, но признаёт, что открытые голосовые банки критичны для мало-рыночных языков.
- В ближайшие 2 месяца выйдет распознавание речи (STT), включая урду.
- Работают над офлайн-версиями и «горячими линиями» через операторов, чтобы охватить села без интернета.
- Пока предоставляют только API; модели не выкладывают на Hugging Face, но планируют хакатон для разработчиков.
- Крупные игроки игнорируют эти языки из-за малого спроса; команда стремится стать «региональным лидером» до появления конкурентов.
Open models by OpenAI 🔥 Горячее 💬 Длинная дискуссия
Открытые модели OpenAI
Продвинутые модели с открытыми весами для любого кейса и запуска где угодно.
Ссылки:
- Загрузить на Hugging Face
- Исходники на GitHub
- Попробовать демо
Модели:
- gpt-oss-120b — крупная модель для дата-центров и мощных ПК/ноутбуков.
- gpt-oss-20b — средняя модель, работает на большинстве ПК/ноутбуков.
Преимущества:
- Разрешительная лицензия: Apache 2.0 — свободная разработка, без копилефта и патентных рисков; подходит для экспериментов, кастомизации и коммерческого использования.
- Для агентных задач: сильное следование инструкциям и работа с инструментами в ходе рассуждений (веб-поиск, запуск Python-кода).
- Глубокая настраиваемость: выбор уровня «усилия рассуждений» (низкий/средний/высокий) и полно-параметрический финтюнинг под ваш кейс.
- Полная «цепочка рассуждений»: доступна для удобной отладки и повышения доверия к ответам.
Интерактивное демо:
- Простой playground для запуска обеих моделей в браузере.
Комментарии (845)
- Обсуждение посвящено выходу открытых моделей OpenAI gpt-oss (20B и 120B), которые по бенчмаркам близки к o3/o4-mini и местами обгоняют открытые лидеры; многие отмечают, что 20B уже реально запускается локально на Mac/мобильных устройствах.
- Пользователи делятся первыми впечатлениями и ссылками на обзоры/модель-карты, отмечая конкурентную производительность, совместимый токенайзер и адекватное лицензирование; есть поддержка в llama.cpp, Ollama, LM Studio, Harmony формат ответов и растущая роль Rust в инструментах OpenAI.
- Скорости инференса сильно варьируются: от очень быстрых облачных провайдеров (Cerebras/Groq на OpenRouter) до заметных задержек локально при больших контекстах; производительность зависит от GPU/платформы и параметров квантования.
- Отмечают стратегический сдвиг OpenAI к модели Meta: открытые веса как средство захвата экосистемы и снижения порога входа; звучат предположения, что релиз предвосхищает скорый анонс ещё более сильной закрытой модели.
- Сообщество обсуждает экономику: гибридные пайплайны (локально — простые задачи, в облако — сложные), возможность заменять платные подписки локальным запуском, и общий тренд в пользу OSS при минимальной разнице в качестве.
- Есть критика: у 120B встречаются галлюцинации на фактах, часть пользователей недовольна агрессивной безопасностью/отказами, отсутствием оптимизаций под RTX 50, а также неполной мультимодальностью.
- В целом настроение позитивное: многие благодарят за «настоящий» открытый релиз с сопутствующими инструментами и ожидают независимых бенчмарков, которые могут закрепить лидерство gpt-oss среди текстовых открытых моделей.