Hacker News Digest

Тег: #openai

Постов: 103

Комментарии (93)

  • OpenAI модель часто искажает лица и детали, придавая изображения оранжевый оттенок, что воспринимается как недостаток.
  • Оценка качества генерируемых изображений субъективна: пользователи спорят о приоритетах (реализм vs стиль, цвета), что затрудняет объективное сравнение моделей.
  • Gemini склонен возвращать изображения без изменений, Seedream поддерживает высокое разрешение, но меняет цветовую палитру, NanoBanana эффективен при условии совпадения стилей.
  • Текущие ИИ-инструменты для редактирования изображений имеют ограничения и не всегда точно следуют запросам, что требует от пользователей адаптации и экспериментов.
  • Появление генеративного ИИ вызывает дискуссии о будущем профессий художников и иллюстраторов, но мнения разделяются: одни видят угрозу, другие — эволюцию инструментов.

SoftBank sells its entire stake in Nvidia (cnbc.com)

by mfiguiere • 11 ноября 2025 г. в 07:32 • 246 points

ОригиналHN

#softbank#nvidia#openai

Комментарии (143)

  • SoftBank продал весь пакет акций Nvidia на $5.83 млрд, что вызвало дискуссию о «пузыре» и времени его лопания.
  • Участники обсуждают, насколько этот шаг сигнализирует о «пузыре» и как это соотносится с историческими примерами SoftBank.
  • Сообщество также обсуждает, что продажа может быть связана с необходимостью финансировать OpenAI, и что это может быть индикатором «пузыря».
  • Некоторые комментаторы подчеркивают, что это может быть просто хорошо сработанная сделка, и что нельзя чрезмерно интерпретировать это как сигнал к покупке или продаже.

Reverse engineering Codex CLI to get GPT-5-Codex-Mini to draw me a pelican (simonwillison.net)

Разработчик Саймон Уиллисон обратно проанализировал CLI-инструмент Codex, чтобы получить прямой доступ к новой модели GPT-5-Codex-Mini, которая пока доступна только через этот инструмент. OpenAI выпустил более компактную и экономичную версию GPT-5-Codex, но официального API доступа еще не предоставил. Уиллисон использовал сам Codex для модификации исходного кода на Rust, добавив новую подкоманду "codex prompt", позволяющую напрямую отправлять запросы к модели через тот же API, что и оригинальный инструмент.

Процесс включал клонирование репозитория openai/codex, запуск в "опасном режиме" и использование самой модели для написания кода новой функции. После нескольких итераций Уиллисон смог успешно протестировать модель, попросив ее создать SVG-изображение пеликанa, едущего на велосипеде. Несмотря на некоторые проблемы с режимом работы модели, эксперимент показал возможность прямого доступа к новой модели через обратную инженерию официально еще не выпущенного API.

by simonw • 09 ноября 2025 г. в 04:02 • 137 points

ОригиналHN

#rust#openai#gpt-5#codex#reverse-engineering#api#svg#cargo#llm

Комментарии (63)

  • Критика чрезмерной зависимости от LLM для простых задач, таких как установка Rust-проектов (cargo install), которая решается за минуты без ИИ.
  • Подтверждение трудностей новичков с документацией и сборкой проектов в незнакомых системах (Rust/Cargo), требующих активного поиска.
  • Предложение альтернативных тестов для оценки AGI (например, "медведь на уницикле"), так как тест SVG-генерации считается неадекватным показателем интеллекта.
  • Упоминание OpenRouter как поддерживаемой платформы для тестирования множества моделей через Codex.

Sam Altman's pants are on fire (garymarcus.substack.com)

by toomuchtodo • 08 ноября 2025 г. в 01:39 • 91 points

ОригиналHN

#openai#sam-altman

Комментарии (32)

  • OpenAI и Sam Altman оказались в центре обсуждений из-за заявлений о необходимости 1.4 трлн долларов инвестиций, что вызвало волну критики и подозрений в попытке получить государственную поддержку.
  • Дискуссия также затронула вопрос о том, насколько OpenAI и лично Сэм Алтман могут быть заинтересованы в получении государственной помощи, несмотря на их предыдущие заявления.
  • Участники обсуждения также поднимали вопрос о том, что заявления Сэма Алтмана и OpenAI о необходимости огромных инвестиций могут быть признаком того, что компания находится в более трудном положении, чем это публично признается.
  • Некоторые комментаторы также выразили обеспокоенность тем, что заявления об необходимости таких огромных инвестиций могут быть способом уклонения от ответственности перед лицом кризиса, который может быть результатом чрезмерной оптимизации и нехватки прозрачности.
  • Обсуждение также затронуло вопрос о том, насколько репутационные риски для OpenAI и Сэма Алтмана могут быть связаны с их заявлениями о необходимости таких огромных инвестиций.

You should write an agent (fly.io) 🔥 Горячее 💬 Длинная дискуссия

Thomas Ptacek утверждает, что каждый должен написать агента на основе больших языковых моделей, чтобы по-настоящему понять эту технологию, независимо от своих скептических или восторженных взглядов. Как и обучение езде на велосипеде, практический опыт дает более глубокое понимание, чем абстрактные концепции. Автор подчеркивает, что создание агента оказывается удивительно простым процессом, который приносит больше практической пользы, чем можно ожидать.

Пример кода в статье демонстрирует базовую реализацию агента с использованием всего 15 строк кода через API OpenAI. Интересно, что контекстное окно в этом случае — просто список сообщений, а многопользовательский диалог поддерживается путем сохранения истории. Автор отмечает, что сам LLM является stateless-черным ящиком, а иллюзия непрерывного диалога создается разработчиком. Даже если многие специалисты не сочтут этот пример полноценным агентом (который должен использовать инструменты), добавление инструментов также оказывается простой задачей.

by tabletcorry • 06 ноября 2025 г. в 20:37 • 939 points

ОригиналHN

#agents#llm#openai#api#python#security#mcp

Комментарии (375)

  • Обсуждение показало, что большинство участников считают, что писать агентов вручную — это не только учебное упражнение, но и способ глубже понять, как работают LLM и инструменты вроде MCP.
  • Участники подчеркнули, что даже простой агент может быть реализован всего в несколько строк кода, но при этом важно понимать, что именно делает его "агентом" — способность к итерации и само-улучшению.
  • Обсуждались риски безопасности и контроля при использовании агентов, особенно в контексте предоставления им доступа к оболочке и файловой системе.
  • Также обсуждались вопросы, связанные с тем, что агенты могут быть использованы для решения задач, которые еще не решены, и что это может быть более ценно, чем попытка создать еще один чат-бот или инструмент для уже решенной задачи.
  • В конце обсуждение перешло к тому, что важно помнить, что даже если вы не собираетесь писать агентов для продакшена, опыт их создания может быть полезен для понимания того, как работают инструменты, которые вы используете, и как они могут быть использованы или злоупотреблены.

ChatGPT terms disallow its use in providing legal and medical advice to others (ctvnews.ca) 🔥 Горячее 💬 Длинная дискуссия

OpenAI чётко указала, что ChatGPT не может предоставлять персонализированные юридические и медицинские консультации. Компания подчёркивает, что сервис предназначен исключительно для общих целей и не заменяет профессиональных советов в этих критически важных областях. Это ограничение введено из-за потенциальных рисков, связанных с неверной интерпретацией или применением информации, особенно в вопросах здоровья и права.

Пользователи не должны полагаться на ChatGPT для получения специфических рекомендаций по лечению, диагностике или юридическим стратегиям. Компания напоминает, что в таких случаях необходимо консультироваться с квалифицированными специалистами. Это заявление подчёркивает важность осознанных границ использования ИИ-ассистентов и ответственности пользователей за проверку информации в чувствительных областях.

by randycupertino • 05 ноября 2025 г. в 18:11 • 362 points

ОригиналHN

#llm#openai

Комментарии (399)

  • OpenAI запретил ChatGPT выдавать медицинские и юридические советы, но не уточнил, распространяется ли запрет на API и другие модели; пользователи обсуждают, что это может быть связано с недавним инцидентом с Ким Кардашьян и экзаменом на юридическую тему.
  • Участники обсуждения отмечают, что ChatGPT всё ещё может дать советы, если их специально спросить, но OpenAI не несёт ответственности за последствия использования модели в этих областях.
  • Некоторые комментаторы считают, что это может быть началом конца свободного использования AI, и что в будущем могут появиться лицензированные версии для профессионалов.
  • Также обсуждается, что это может быть способом избежать ответственности за неправильные советы, особенно после инцидента с Ким Кардашьян, которая обвинила ChatGPT в неправильных ответах на экзамене.

New prompt injection papers: Agents rule of two and the attacker moves second (simonwillison.net)

Представлены две новые работы по безопасности LLM и инъекциям промптов. В статье "Agents Rule of Two" от Meta предлагается принцип, согласно которому ИИ-агенты могут одновременно обладать не более чем двумя из трёх свойств: обработкой ненадёжных входных данных, доступом к чувствительным системам или возможность изменять состояние или внешне взаимодействовать. Если требуются все три, агент должен находиться под контролем. Этот подход расширяет концепцию "смертельного трио", добавляя риски изменения состояния, а не только кражи данных.

Второй документ "The Attacker Moves Second" от исследователей OpenAI, Anthropic и Google DeepMind демонстрирует, что 12 опубликованных систем защиты от инъекций и побега из "тюрьмы" модели успешно обойдены в 90% случаев с помощью адаптивных атак. Особенно впечатляет результат "красной команды" из 500 человек, достигший 100% успеха. Авторы подчёркивают, что статичные примеры атак практически бесполезны для оценки защиты — эффективны лишь адаптивные методы с многократной итерацией для поиска уязвимостей.

by simonw • 02 ноября 2025 г. в 23:11 • 77 points

ОригиналHN

#llm#prompt-injection#ai-security#meta#openai#anthropic#google-deepmind#adaptive-attacks#security-research

Комментарии (30)

  • Продолжается обсуждение безопасности LLM: отсутствие трекинга загрязнённых данных, отсутствие моделей в продакшене, и отсутствие трекинга токенов в промпте и т.д.
  • Участники обсуждают, что LLM не могут быть безопасными, если они не могут отличить вредоносный ввод от обычного, и что это делает невозможным для пользователей проверять, что именно они делают.
  • Поднимается вопрос, что если LLM не может быть безопасным, то как они могут быть использованы в критичных системах, и что это значит для будущем развитии ИИ.
  • Обсуждается, что вместо того, чтобы пытаться сделать LLM безопасным, было бы лучше сосредоточиться на создании инструментов и практик, которые позволяют LLM быть использован безопасно.

Tongyi DeepResearch – open-source 30B MoE Model that rivals OpenAI DeepResearch (tongyi-agent.github.io) 🔥 Горячее

Tongyi DeepResearch — первый полностью открытый веб-агент, демонстрирующий производительность на уровне DeepAI OpenAI. Модель достигает передовых результатов: 32.9 на тесте академического рассуждения Humanity's Last Exam, 43.4 на BrowseComp и 46.7 на BrowseComp-ZH в сложных задачах поиска информации, а также 75 на пользовательском бенчмарке xbench-DeepSearch, превосходя все существующие проприетарные и открытые агенты глубоких исследований. Авторы делятся полной методологией создания таких агентов, включая инновационное решение для синтеза данных на всем конвейере обучения.

В основе обучения лежит Agentic Continual Pre-training (CPT) с использованием системы AgentFounder для масштабного синтеза данных. Разработчики создают цикл данных, перегруппируя различные источники в привязанную к сущностям открытую мировую память знаний. Для сложных вопросов с высокой неопределенностью они синтезируют веб-данные через высокосвязанный граф знаний с помощью случайных обходов. Модель демонстрирует мощные возможности в режиме ReAct без инженерии промптов, а продвинутый Heavy Mode раскрывает верхний предел ее потенциала сложного рассуждения и планирования.

by meander_water • 02 ноября 2025 г. в 11:43 • 337 points

ОригиналHN

#deep-learning#machine-learning#artificial-intelligence#open-source#agentic-continual-pre-training#reactjs#qwen#openai

Комментарии (133)

  • Обсуждение в основном вращается вокруг трёх тем: «Deep Research» как продукт vs. обычный поиск, практичность мелких моделей, и то, что большие модели всё ещё уступают специализированным инструментам в конкретных задачах.
  • Участники обмениваются опытом, что мелкие модели (Qwen 3 4B и т.п.) уже способны обеспечить приемлемое качество при минимальных затратах, особенно если квантовать и/или запустить их на Apple Silicon.
  • Обсуждается, что влияние этих моделей на рынок: будут ли они заменять крупные модели в нишевых задачах или же будут использованы как основа для дальнейшей настройки.
  • Также поднимается вопрос о том, что, возможно, в будущем мы увидим взрыв специализированных моделей, обученных под конкретные задачи, и что это может быть следующим шагом после исчерпания выгод от предобучения.

OpenAI’s promise to stay in California helped clear the path for its IPO (wsj.com) 💬 Длинная дискуссия

by badprobe • 29 октября 2025 г. в 17:44 • 217 points

ОригиналHN

#openai

Комментарии (290)

  • Калифорния и OpenAI ведут переговоры, где OpenAI может уйти из Калифорнии, если не получит желаемое. Это подчеркивает, что вопрос остаётся открытым, и что OpenAI может уйти в любой момент, если не получит желаемое.
  • Сам Альтман подтвердил, что OpenAI может уйти из Калифорнии, если не получит желаемое. Это подчеркивает, что вопрос остаётся открытым и что OpenAI может уйти в любой момент, если не получит желаемое.
  • Вопрос остаётся открытым, потому что OpenAI может уйти в любой момент, если не получит желаемое. Это подчеркивает, что вопрос остаётся открытым и что OpenAI может уйти в любой момент, если не получит желаемое.
  • Вопрос остаётся открытым, потому что OpenAI может уйти в любой момент, если не получит желаемое. Это подчеркивает, что вопрос остаётся открытым и что OpenAI может уйти в любой момент, если не получит желаемое.

OpenAI says over a million people talk to ChatGPT about suicide weekly (techcrunch.com) 🔥 Горячее 💬 Длинная дискуссия

OpenAI опубликовала новые данные, показывающие масштаб обсуждений проблем психического здоровья с ChatGPT. Компания сообщила, что 0,15% активных пользователей еженедельно ведут беседы, включающие явные признаки возможного суицидального планирования или намерений. Учитывая, что у ChatGPT более 800 миллионов пользователей, это означает более миллиона человек в неделю, обращающихся к чат-боту с такими вопросами.

OpenAI подчеркивает, что эти цифры демонстрируют важность их работы над безопасностью в чувствительных разговорах. Компания внедрила специализированные протоколы для таких случаев, включая немедленные рекомендации обращаться за профессиональной помощью и предоставление контактов служб поддержки. Эти данные показывают, как ИИ-системы становятся неожиданно важными ресурсами для людей в кризисных ситуациях, несмотря на первоначальное предназначение ChatGPT в качестве рабочей и учебной помощи.

by jnord • 27 октября 2025 г. в 22:26 • 313 points

ОригиналHN

#openai#llm#mental-health#safety-protocols

Комментарии (427)

  • Обсуждение показало, что миллионы людей еженедельно обсуждают суицидальные мысли с ChatGPT, что вызывает вопросы о том, насколько эффективно ИИ может справляться с такими ситуациями и какие обязанности несет OpenAI.
  • Участники обсуждения подчеркнули, что важно различать технические ограничения модели и отсутствие у нее клинической квалификации, а также подчеркнули, что важно различать технические ограничения модели и отсутствие у нее клинической квалификации.
  • Участники также подчеркнули, что важно различать технические ограничения модели и отсутствие у нее клинической квалификации.
  • Участники также подчеркнули, что важно различать технические ограничения модели и отсутствие у нее клинической квалификации.
  • Участники также подчеркнули, что важно различать технические ограничения модели и отсутствие у нее клинической квалификации.

Microsoft needs to open up more about its OpenAI dealings (wsj.com)

by zerosizedweasle • 27 октября 2025 г. в 11:19 • 220 points

ОригиналHN

#microsoft#openai#llm#investment#financials

Комментарии (147)

  • Комментаторы обсуждают, что Microsoft отражает долю в OpenAI как убытки, что вызывает вопросы о финансовом состоянии последней.
  • Участники обсуждают, что OpenAI никогда не была прибыльной, и что Microsoft может быть заинтересована в том, чтобы скрыть это.
  • Обсуждается, что компании, вероятно, не могут позволить себе показать, что их инвестиции в ИИ не приносят прибыли, и что это может быть предвестником проблем.
  • Участники также обсуждают, что если дела пойдут не так, как ожидается, то это может быть предвестником проблем, похожих на пузырь доткомов.

AI Mafia Network – An interactive visualization (dipakwani.com)

Интерактивная визуализация "AI Mafia Canvas" представляет собой сеть связей, основанную на подкасте Acquired Google Podcast. Пользователи могут исследовать взаимосвязи, нажимая на узлы, а также управлять представлением с помощью перетаскивания для панорамирования и прокрутки для масштабирования. Проект создан разработчиком с ником @dpwxni, который также предлагает попробовать созданную им гоночную игру F1.

Визуализация позволяет выделять связи при клике на любой узел, предоставляя наглядное представление о экосистеме Google как AI-компании. Инструмент оснащен базовыми функциями управления видом: сброс, увеличение и уменьшение масштаба, что делает исследование сети удобным и интуитивно понятным для пользователей.

by dipakwani • 26 октября 2025 г. в 22:54 • 87 points

ОригиналHN

#cytoscapejs#obsidian#json#interactive-visualization#network-analysis#google#openai#anthropic#llm

Комментарии (6)

  • Создана интерактивная карта «AI-Mafia», визуализирующая связи между Google и современными компаниями вроде OpenAI и Anthropic.
  • Использованы Obsidian и Cytoscape.js для рендеринга JSON-файла, но встроенные паблишеры Obsidian не справились с выравниванием узлов.
  • Обсуждение вылилось в обмен ссылками на эпизод Acquired и обсуждение того, как Google запустил цепочку событий, приведших к появлению OpenAI, Anthropic и других ключевых игроков.
  • Участники обсуждали, какие еще стартапы или инициативы можно было бы включить в карту, и упомянули Ilya Sutskever и OpenAI, а также ныне ушедшую в закрытые исследованиях.

Books by People – Defending Organic Literature in an AI World (booksbypeople.org)

Books By People запускает первую в индустрии сертификацию для книг, написанных людьми, чтобы защитить органическую литературу от наводнения AI-контентом. Эта независимая организация сотрудничает с издателями, проверяя их внутренние процессы и выдавая печать "Books By People" для книг и маркетинга, подтверждающую человеческое авторство.

Процесс сертификации включает анализ редакционных практик через анкету о рабочих процессах, использовании ИИ, целостности авторства и редакционном контроле. Организация позиционирует это как ответ на кризис, когда AI-имитации человеческого рассказывания ставят под угрозу видимость и достоверность подлинной человеческой работы. Их миссия - поддержать издателей и авторов, отстаивающих человеческое письмо, и сделать эту приверженность ценной для читателей.

by ChrisArchitect • 26 октября 2025 г. в 16:57 • 91 points

ОригиналHN

#llm#openai#anthropic#google#copyright#literature

Комментарии (90)

  • Публикация книг, написанных ИИ, вызывает споры о том, кто должен платить авторское вознаграждение правообладателям, и почему OpenAI, Anthropic и Google не могут просто лицензировать использованные материалы.
  • Участники обсуждения сомневаются, что независимая сертификация «органической» литературы вообще возможна, поскольку невозможно технически отличить AI-генерированный текст от человеческого.
  • Поднимается вопрос, что если книга написана ИИ, но при этом она хороша, то читатели всё равно будут её читать, и это может подорвать мотивацию авторов писать.
  • Участники обсуждения также отмечают, что вместо того, чтобы пытаться сертифицировать «органическую» литературу, издатели могли бы просто не публиковать книги, написанные ИИ, что может привести к ещё большему упадку в качестве литературы.
  • Наконец, участники обсуждения отмечают, что вместо того, чтобы пытаться сертифицировать «органическую» литературу, издатели могли бы просто не публиковать книги, написанные ИИ, что может привести к ещё большему упадку в качестве литературы.

ChatGPT's Atlas: The Browser That's Anti-Web (anildash.com) 🔥 Горячее 💬 Длинная дискуссия

OpenAI представила браузер Atlas, который автор называет "анти-веб" браузером, поскольку он активно борется с принципами открытого интернета. По умолчанию Atlas не ведет пользователей на реальные веб-страницы, а подменяет их контентом, сгенерированным ИИ. Когда автор искал "Taylor Swift showgirl", получил результат, похожий на веб-страницу, но без единой ссылки на официальный сайт певицы. Это создает "внутренний сад" из ИИ-контента, где пользователь заперт, не имея доступа к реальной информации.

Интерфейс браузера требует от пользователей угадывать команды вместо использования интуитивных кликабельных ссылок, что автор сравнивает с устаревшими текстовыми интерфейсами 1980-х годов. "Atlas - это браузер, но не веб-браузер. Это анти-веб браузер", - подчеркивает автор. Хотя при запуске есть предупреждение о возможной неточности информации, оно не отражает того факта, что браузер может полностью fabrircate контент, выдавая его за реальные веб-результаты.

by AndrewDucker • 25 октября 2025 г. в 09:08 • 741 points

ОригиналHN

#openai#atlas#browser#llm#privacy#data-collection#web

Комментарии (301)

  • Обсуждение вращается вокруг того, что OpenAI и другие компании стремятся не просто создать браузер, а встроить себя в поток данных, что вызывает опасения по поводу приватности и безопасности.
  • Участники обсуждают, что браузер Atlas, как и другие подобные продукты, не предоставляет ссылки на первоисточники, что подрывает саму идею веба как такового.
  • Обсуждается, что вместо того, чтобы предоставлять пользователю прямой доступ к информации, эти продукты вместо этого изолируют его внутри их собственной экосистемы, что вызывает опасения по поводу монополизации и контроля над информацией.
  • Участники также обсуждают, что такие продукты могут быть использованы для сбора персональных данных, что может быть использовано для таргетированой рекламы или других целей.
  • В конце концов, обсуждение приходит к выводу, что вместо того, чтобы позволить технологическим компаниям встроить себя в поток данных, следует развивать открытые и прозрачные технологии, которые бы позволили пользователям иметь контроль над их собственными данными и приватностью.

Комментарии (37)

  • Пользователи обсуждают, что OpenAI требует верификацию личности для доступа к GPT-5, что вызывает обеспокоенность конфиденциальностью и возможной дискриминацией.
  • Некоторые участники упоминают альтернативные модели, такие как GLM-4 и Kimi, которые не требуют верификации и могут быть более доступны.
  • Обсуждается, что OpenAI может использовать верификацию для сбора персональных данных и что это может быть связано с мировым проектом Worldcoin.
  • Участники также обсуждают, что OpenAI может быть использует верификацию для ограничения доступа к моделям и создания барьеров для конкурентов.
  • Некоторые участники выражают обеспокоенность по поводу того, что OpenAI может быть использует верификацию для сбора персональных данных и что это может быть связано с мировым проектом Worldcoin.

OpenAI acquires Sky.app (openai.com)

by meetpateltech • 23 октября 2025 г. в 17:04 • 226 points

ОригиналHN

#apple#siri#llm#macos#microsoft#windows#openai

Комментарии (150)

  • Apple приобрёл команду Sky, создавшую приложение, которое позволяет ИИ-агенту взаимодействовать с macOS-приложениями через естественный язык.
  • Слияние выглядит как "aqui-hire", а не как покупка продукта, и вызывает вопросы о том, как Apple будет интегрировать технологию в macOS.
  • Покупка команды Sky может быть частью более широкой стратегии Apple по приобретению ИИ-стартапов, чтобы усилить Siri и другие ИИ-функции.
  • Это может быть ответом Apple на стратегию Microsoft по интеграции ИИ в Windows, но также вызывает вопросы о том, как это будет влиять на разработчиков и пользователей.
  • Покупка Sky может быть связана с тем, что Apple хочет улучшить Siri и другие ИИ-функции, но это также может быть просто способом получить доступ к талантливым разработчикам.

LLMs can get "brain rot" (llm-brain-rot.github.io) 🔥 Горячее 💬 Длинная дискуссия

Исследователи из Техасского университета и Университета Пердью обнаружили, что большие языковые модели подвержены "гниению мозга" — когнитивному ухудшению при обучении на низкокачественном контенте. Эксперименты с четырьмя LLM, обучавшихся на "мусорных" данных Twitter/X, показали значительное снижение (Hedges' g > 0.3) способностей к рассуждениям, пониманию длинных контекстов и безопасности, а также рост "темных черт" вроде психопатии. При смешивании мусорных и качественных данных наблюдалось дозозависимое ухудшение: например, точность на ARC-Challenge с цепочкой мыслей падала с 74.9% до 57.2% при увеличении доли мусора с 0% до 100%.

Главной проблемой стал пропуск или обрыв цепочек рассуждений у моделей. Хотя попытки исправить ситуацию через настройку инструкций и обучение на чистых данных частично улучшили показатели, полностью восстановить исходный уровень не удалось, что указывает на стойкое смещение представлений. Интересно, что популярность твита оказалась лучшим индикатором эффекта "гниения мозга", чем его семантическое качество, что подчеркивает важность не только содержания, но и формата данных для обучения ИИ.

by tamnd • 21 октября 2025 г. в 14:24 • 446 points

ОригиналHN

#large-language-models#machine-learning#data-quality#openai#anthropic#twitter#llm

Комментарии (275)

  • Обсуждение свелось к тому, что качество данных определяет качество модели: «мусор на входе — мусор на выходе».
  • Участники отмечают, что если в корпусе есть токсичные или низкокачественные тексты, то модель будет деградировать так же, как и человек, потребляющий такой контент.
  • Кто-то вспомнил, что в 2024 г. OpenAI и Anthropic уже публиковали статьи о том, что «brain rot» влияет на LLM, но сообщество в целом не придало этому значения.
  • Другой участник подметил, что если мы не можем контролировать, что именно модель «читает» в сети, то мы не должны удивляться, что она ведет себя как токсичный токсик.
  • Несколько человек согласились, что метафора «brain rot» сама по себе вводит в заблуждение, потому что модели не имеют ни мозга, ни познавательных способностей, и что важно фокусироваться на том, что мы действительно имеем дело с алгоритмами, а не с «искусственным мозгом».

Claude Code on the web (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Anthropic представила Claude Code в веб-интерфейсе, позволяющий выполнять кодирование прямо из браузера. Сервис находится в бета-версии как исследовательский превью и позволяет назначать несколько задач, которые выполняются на облачной инфраструктуре Anthropic. Ключевая возможность — параллельное выполнение задач в изолированных средах с отслеживанием прогресса в реальном времени. Пользователи могут подключать репозитории GitHub, описывать требования, а Claude самостоятельно реализует решения, создавая автоматические pull requests с подробными сводками изменений.

Веб-интерфейс дополняет существующую рабочую среду Claude Code, особенно эффективен для ответов на вопросы о проектах, исправления багов и рутинных задач, а также для бэкенд-изменений с использованием TDD. Каждая задача выполняется в защищенном песочном окружении с ограничениями сети и файловой системы, а взаимодействие с Git осуществляется через безопасный прокси. Сервис уже доступен для Pro и Max пользователей, а также появился в iOS-приложении в виде ранней версии.

by adocomplete • 20 октября 2025 г. в 18:12 • 539 points

ОригиналHN

#anthropic#claude-code#github#tdd#cloud#ios#openai#codex

Комментарии (337)

  • Обсуждение охватывает широкий спектр тем: от сравнения Claude Code и Codex, до вопросов о лицензии, инфраструктуре и будущих функциях.
  • Участники обсуждают, какие инструменты лучше подходят для разных задач: Claude Code для итеративной работы и Codex для надежности при критически важных задачах.
  • Также обсуждается, что пользователи хотели бы видеть более тесную интеграцию с GitHub Actions, API и другими сервисами.
  • Некоторые комментаторы выражают обеспокоенность по поводу ограничений доступа к сети и отсутствия поддержки Docker.
  • В то же время, другие участники подчеркивают, что Anthropic и OpenAI продолжают развивать свои инструменты, и что выбор между ними часто сводится к личным предпочтениям и конкретным сценариям использования.

Комментарии (74)

  • Fine-tuning is making a comeback as a niche tool for specific tasks, but the debate is whether it's worth the effort vs. using larger models with better prompting.
  • The community is split: some see it as essential for control, IP ownership and cost savings, while others argue that frontier models have made it redundant for most use cases.
  • Key friction points: cost-benefit of training vs. inference, data-labeling overhead, and whether the juice is worth the squeeze when prompt-engineering can achieve similar results.
  • OpenAI, Anthropic and others are quietly re-opening fine-tuning APIs, while simultaneously pushing the narrative that "you don't need it anymore"—a tension that may be more about GPU budgets than user needs.
  • The open-source community is rallying around LoRA and QLoRA as a compromise, but the real question is whether the economics of serving a custom model will ever make sense versus just paying per-token for a larger model.

Asking AI to build scrapers should be easy right? (skyvern.com)

Skyvern, инструмент для автоматизации браузерных задач с помощью ИИ, научился писать и поддерживать собственный код, что сделало его в 2,7 раза дешевле и в 2,3 раза быстрее. Идея возникла после запуска на Hacker News, где пользователи просили просто писать код вместо сложной настройки. Однако обучение ИИ создавать код оказалось сложной задачей из-за двух проблем: неоднозначных требований к автоматизации и "грязного" состояния веб-интерфейсов, где элементы часто ведут себя не так, как ожидалось.

Решением стали модели рассуждений, которые повысили точность работы агента до производственного уровня и позволили создавать код, похожий на написанный человеком. В примере автоматизации регистрации компаний на Delaware.gov показаны типичные сложности: связанные элементы управления, которые зависят друг от друга, и случайные сбои сайта. Вместо создания хрупких статических скриптов, которые ломаются при малейшем изменении, Skyvern использует ИИ для обработки непредвиденных ситуаций, сохраняя при этом эффективность сгенерированного кода.

by suchintan • 17 октября 2025 г. в 19:03 • 119 points

ОригиналHN

#llm#automation#web-scraping#skyvern#openai#delaware.gov#hacker-news

Комментарии (55)

  • LLM-агенты стремятся к автономии в написании собственных инструментов, но пока не могут полностью заменить человека в сложных задачах.
  • Сторонние модели вроде Skyvern и OpenAI Operator демонстрируют, что LLM-агенты могут быть полезны, но их стоимость и ограничения важны для обсуждения.
  • Сторонние модели вроде Skyvern и OpenAI Operator демонстрируют, что LLM-агенты могут быть полезны, но их стоимость и ограничения важны для обсуждения.
  • Сторонние модели вроде Skyvern и OpenAI Operator демонстрируют, что LLM-агенты могут быть полезны, но их стоимость и ограничения важны для обсуждения.

OpenAI Needs $400B In The Next 12 Months (wheresyoured.at) 💬 Длинная дискуссия

OpenAI планирует потратить 400 миллиардов долларов в течение следующего года, сосредоточившись на создании экосистемы из семи дата-центров, известных как Stargate, и разработке собственных чипов для ИИ.

Основная идея: даже при консервативных оценках OpenAI потребуется около 50 миллиардов долларов только на создание одного гигаватта вычислительной мощности, не говоря уже о стоимости проектирования и производства специализированных чипов.

Главный вывод: заявления OpenAI о партнёрстве с Broadcom, AMD и другими — это либо грандиозная афера, либо одна из самых рискованных амбиций в истории технологий, с потенциалом потрясти мировую экономику.

Внимание: я тщательно проверяю все свои источники и расчёты, и призываю читателей критически оценивать эти утверждения, учитывая, что многие детали ещё не подтверждены.

by chilipepperhott • 17 октября 2025 г. в 17:41 • 201 points

ОригиналHN

#openai#llm#cloud#infrastructure#venture-capital#business-model

Комментарии (165)

  • OpenAI и другие крупные игроки вынуждены тратить десятки миллиардов на инфраструктуру, но при этом открытые модели уже достигают 90% функциональности, что ставит под вопрос ценность их услуг и даже саму модель можно запустить на собственном GPU.
  • Параллельно растущий спрос на электроэнергию и ограниченные поставки чипов от NVIDIA делают стоимость вычислений в долгосрочной перспективе непредсказуемой, что ставит под сомнение всю бизнес-модель.
  • В условиях, когда стоимость обучения и инференса продолжает расти, а открытые модели догоняют по качеству, пользователи всё чаще задаются вопросом, зачем платить, если можно бесплатно получить почти то же самое.
  • Венчурные инвестиции в инфраструктуру исчисляются десятками миллиардов, но при этом нет никакой уверенности в том, что эти инвестиции окупятся, ведь нет никакой модели монетизации, которая бы компенсировала эти затраты.

Andrej Karpathy – It will take a decade to work through the issues with agents (dwarkesh.com) 🔥 Горячее 💬 Длинная дискуссия

Андрей Карпати из OpenAI объясняет, почему до общего искусственного интеллекта (AGI) остаётся ещё около десятилетия. Хотя современные ИИ-агенты вроде Claude и Codex впечатляют, они пока неспособны автономно выполнять комплексные задачи, как человек-ассистент. Основные ограничения включают недостаточную многомодальность (неспособность работать с разными типами данных), неумение взаимодействовать с компьютерными системами и отсутствие непрерывного обучения на основе опыта.

Эти проблемы решаемы, но сложны — требуется масштабирование вычислительных мощностей, улучшение алгоритмов (особенно обучения с подкреплением, которое сейчас "ужасно"), и создание более сложных архитектур для обработки контекста и планирования. Как и с беспилотными автомобилями, прогресс будет постепенным, а не взрывным.

Когда AGI finalmente появится, оно, вероятно, интегрируется в экономику так же плавно, как и предыдущие технологические прорывы, поддерживая ~2% рост ВВП без резких скачков. Даже AGI не приведёт к немедленному преобразованию общества; изменения будут постепенными и управляемыми.

В конечном счёте, несмотря на текущие достижения, до AGI остаётся значительная работа, и пройдёт около десятилетия, прежде чем мы увидим системы, способные полностью заменить человеческий труд в сложных контекстах.

by ctoth • 17 октября 2025 г. в 17:24 • 1063 points

ОригиналHN

#openai#agi#artificial-intelligence#reinforcement-learning#machine-learning#ai-agents#autonomous-systems#neural-networks

Комментарии (949)

  • Обсуждение в основном вращается вокруг того, что AGI/AGI-образные системы всё ещё далеки, и что «десятилетие» стало универсальным эвфемизмом для «мы не знаем, когда это будет».
  • Участники спора подчеркнули, что текущие модели не решают фундаментальные проблемы, такие как постоянное обучение, причинность и планирование, и что мы по-прежнему полагаемся на эвристики, которые не масштабируются.
  • Были выдвинуты предположения, что AGI может потребовать качественно иной архитектуры, и что текущий путь может быть тупиковым.
  • Некоторые комментаторы выразили обеспокоенность тем, что гипер-оптимизм может вести к недооценке рисков и переоценке способностей текущих систем.
  • В целом, обсуждение подчеркнуло, что прогресс в ИИ-технологии не линеен и что прогнозы о сроках AGI часто оказываются неверными.

Комментарии (50)

  • Пользователи активно обсуждают, что Codex и Claude Code ведут себя как «боты» и подозревают, что за ними стоит продвижение со стороны OpenAI и Anthropic соответственно.
  • Сообщество разделилось на два лагеря: одни считают, что Codex лучше для крупных задач, другие — что Claude Code лучше для быстрых итераций.
  • Некоторые пользователи жалуются на то, что Codex не может запускать суб-агентов и страдает от ограничений контекста, в то время как другие утверждают, что Claude Code не справляется с большими задачами.
  • Участники обсуждают, что обе модели имеют свои сильные и слабые стороны, и выбор между ними часто сводится к личным предпочтениям и специфике задачи.

A Gemma model helped discover a new potential cancer therapy pathway (blog.google)

Исследователи использовали модель Gemma 2B, разработанную Google, для анализа геномных данных и выявили новый механизм, влияющий на рост раковых клеток. Они обнаружили, что определенный белок (названный в статье, но не в этом резюме) может быть ключевым регулятором, и его ингибирование подавляет рост рака в лабораторных моделях. Это открытие было сделано с помощью машинного обучения, где Gemma обрабатывала огромные объемы данных генома, чтобы найти паттерны, невидимые для человека. Открытие было подтверждено в сотрудничестве с онкологическим центром, и теперь они планируют клинические испытания. Этот подход может ускорить открытие новых методов лечения и сделать персонализированную медицину более доступной.

by alexcos • 15 октября 2025 г. в 19:04 • 199 points

ОригиналHN

#gemma#google#openai#machine-learning#llm#genomics

Комментарии (47)

  • Google и OpenAI продолжают демонстрировать прогресс в медицинском применении ИИ, но при этом остается открытым вопрос, насколько эти достижения доступны для широкой научной общественности и не являются ли они просто PR-ходом.
  • Сообщество выражает обеспокоенность по поводу того, что ИИ может быть использован для создания биологического оружия, и призывает к более строгому регулированию.
  • Несмотря на то, что Google и OpenAI продолжают продвигать ИИ в медицине и биологии, критики указывают на то, что эти компании не демонстрируют свои лучшие модели и не вкладывают достаточно ресурсов в научные исследования, что может замедлить прогресс.
  • Участники обсуждения также поднимают вопрос о том, что компании могут быть более заинтересованы в создании PR-шумих вокруг их достижений, чем в реальном продвижении науки, и что вместо того, чтобы делиться своими разработками, они могли бы использовать их для внутренних целей.
  • Наконец, обсуждение также затрагивает вопрос о том, как ИИ может быть использован для создания порнографии и как это может быть связано с тем, что компании вроде OpenAI не демонстрируют свои лучшие модели.

My trick for getting consistent classification from LLMs (verdik.substack.com) 🔥 Горячее

by frenchmajesty • 13 октября 2025 г. в 18:01 • 280 points

ОригиналHN

#llm#openai#classification#clustering#embeddings#api

Комментарии (65)

  • Обсуждение показало, что классификация твитов с помощью LLM и кэширование похожих твитов похоже на практике работает, но вызывает вопросы о точности и стоимости при больших объемах данных.
  • Участники обсудили альтернативы, включая кластеризацию и использование эмбеддингов для поиска похожих твитов, но подчеркнули, что это может быть дороже и не обязательно лучше.
  • Были выдвинуты идеи использовать более дешевые модели для эмбеддинга и кластеризации, но это может повлиять на точность.
  • Также обсуждались вопросы масштабирования и стоимости при использовании OpenAI API для классификации, а также возможность использования локальных моделей для снижения затрат.

It's OpenAI's world, we're just living in it (stratechery.com) 💬 Длинная дискуссия

OpenAI стремится стать не просто поставщиком моделей, а новой платформенной силой. Компания уже не скрывает, что её цель — «AI для всех» — подразумевает создание универсального слоя, который будет подключён к каждому устройству и каждому пользователю. Это ставит под вопрос всю цепочку создания стоимости в AI-эпохе: если раньше спор шёл о доле Apple и Google в смартфонах, то теперь речь идёт о том, кто будет контролировать саму платформу. Именно поэтому OpenAI ведёт себя как Microsoft в эпоху Windows: не важно, кто производит ПК, если ОС принадлежит Microsoft. В случае же с LLM-ами, критично важно, кто именно создаст и будет контролировать эту инфраструктуру. И если раньше казалось, что OpenAI может быть лишь одним из многих игроков, то теперь картина обратная: именно OpenAI может оказаться в позиции, где именно она будет решать, какие компании будут жить или умрут.

by feross • 10 октября 2025 г. в 17:01 • 104 points

ОригиналHN

#openai#llm#microsoft#google#meta

Комментарии (210)

  • Обсуждение варьировалось от технических деталей (OpenAI тратит ли он $1 трлн за 4 года, или это просто гипербола) до философских вопросов (почему мы вообще позволяем такие суммы тратиться на LLM вместо решения глобальных проблем).
  • Участники подчеркнули, что OpenAI не имеет «рва» вокруг своих моделей: LLM легко заменяются, а их стоимость стремительно падает.
  • Поднялся вопрос, не является ли вся дискуссия просто продвижением OpenAI и Саму Altmanу, а не объективным анализом.
  • Несколько человек отметили, что OpenAI, похоже, не имеет никакого уникального продукта, кроме как «первопроходца» в новой категории продуктов.
  • Были упомянуты такие вещи как Google и Meta, которые, как утверждается, могли бы сделать то же самое, но не делают этого.

Apps SDK (developers.openai.com) 🔥 Горячее 💬 Длинная дискуссия

OpenAI представила Apps SDK — фреймворк для разработки приложений, интегрируемых напрямую в ChatGPT. Он позволяет создавать инструменты на основе MCP-серверов, настраивать пользовательский интерфейс, управлять аутентификацией и хранить данные. Сейчас доступен в режиме предпросмотра для тестирования, а публичная отправка приложений откроется позже в этом году.

Разработчикам предлагаются чёткие руководства по дизайну, безопасности и метаданным, чтобы приложения соответствовали стандартам качества и органично вписывались в экосистему ChatGPT. Процесс включает планирование use-cases, развёртывание серверов и подключение к ChatGPT, с примерами и troubleshooting для упрощения разработки.

by alvis • 06 октября 2025 г. в 18:27 • 447 points

ОригиналHN

#openai#llm#mcp#sdk#api#ux#iframe

Комментарии (363)

  • OpenAI представляет платформу "Apps" на базе MCP, позволяющую интегрировать сторонние сервисы (например, бронирование отелей, поиск недвижимости) прямо в чат-интерфейс ChatGPT.
  • Мнения разделились: одни видят в этом стратегический шаг к созданию экосистемы и монетизации (доля от транзакций, скрытая реклама), другие критикуют за слабую UX, бритвость и повторение прошлых неудач (как Custom GPTs).
  • Поднимаются вопросы для разработчиков: монетизация, риск заблокирования будущими обновлениями ChatGPT и усиление зависимости от OpenAI.
  • Техническая реализация вызывает вопросы: работа примеров кода, механизм внедрения интерактивных элементов (iframe?) и ограничения MCP.
  • Обсуждается фундаментальный конфликт: должен ли чат быть универсальным интерфейсом или AI-функции лучше встраивать в традиционные приложения.

OpenAI ChatKit (github.com)

OpenAI выпустила chatkit-js — JavaScript-библиотеку для создания чат-интерфейсов с поддержкой их моделей ИИ. Она упрощает интеграцию чат-функциональности в веб-приложения, предоставляя готовые компоненты и API для управления диалогами, историей сообщений и реальным взаимодействием с пользователем.

Библиотека включает обработку потоковых ответов, управление состоянием чата и настройку интерфейса. Это ускоряет разработку чат-приложений, снижая необходимость в ручной реализации сложной логики. Практический вывод: инструмент полезен для быстрого прототипирования и продакшн-решений на базе OpenAI.

by arbayi • 06 октября 2025 г. в 17:23 • 165 points

ОригиналHN

#javascript#reactjs#openai#chatbot#api#frontend#github

Комментарии (31)

  • Критика заявленной "независимости от фреймворков" при поддержке только React и отсутствии интеграции с бэкенд-фреймворками
  • Опасения по поводу привязки к OpenAI (вендор-локин) и отсутствия поддержки других моделей ИИ (например, Claude)
  • Отмечается сходство с существующими решениями (CopilotKit, AG-UI) и их недостатки, включая платность и закрытый исходный код
  • Предложения по интеграции ИИ через тегирование в существующие интерфейсы (как в Figma или Google Docs), а не через отдельный чат
  • Обсуждение бизнес-модели и необходимости функции "Bring your own subscription" для применения собственных квот и API-ключей

AMD signs AI chip-supply deal with OpenAI, gives it option to take a 10% stake (reuters.com) 🔥 Горячее 💬 Длинная дискуссия

AMD заключила сделку с OpenAI о поставках чипов для искусственного интеллекта, предоставив также опцион на приобретение 10% доли в компании. Это стратегическое партнёрство усиливает позиции AMD на рынке AI-чипов, где доминирует NVIDIA, и обеспечивает OpenAI доступ к передовым аппаратным решениям для разработки и масштабирования своих моделей.

Опцион на долю демонстрирует глубокую интеграцию интересов: AMD получает ключевого клиента и потенциального инвестора, а OpenAI — влияние на поставщика и приоритетный доступ к технологиям. Это может ускорить инновации в области аппаратного обеспечения для ИИ и снизить зависимость от единственного поставщика.

by chillax • 06 октября 2025 г. в 12:17 • 380 points

ОригиналHN

#amd#openai#llm#gpu#nvidia#cuda

Комментарии (309)

  • AMD предоставила OpenAI опцион на покупку 10% своих акций по цене $0.01 за акцию при выполнении определенных условий
  • Сделка призвана стимулировать OpenAI к закупкам GPU AMD на сумму до $100 млрд и совместной разработке ПО для AI-чипов
  • Рыночная капитализация AMD выросла примерно на $100 млрд после анонса, что частично компенсирует стоимость опциона
  • Многие участники обсуждения расценивают сделку как признак финансового пузыря и циркулярных денежных потоков в AI-индустрии
  • Партнерство рассматривается как стратегический ход для создания альтернативы доминированию NVIDIA и CUDA

What GPT-OSS leaks about OpenAI's training data (fi-le.net) 🔥 Горячее

Анализ весов открытой модели GPT-oss от OpenAI позволяет раскрыть детали обучающих данных, которые компания тщательно скрывает. Исследование эмбеддингов токенизатора o200k выявило группу из 936 токенов с крайне низкой L2-нормой — вероятно, они не использовались при обучении и были «подавлены» decay-регуляризацией. Среди них — служебные токены, байты Unicode и аномалии вроде токена 20373 (последовательность байтов, означающая «пограничные ворота» на мандаринском). Эта группа может помочь оценить параметры инициализации модели и общее число шагов градиентного спуска.

В «хвосте» распределения с высокой нормой обнаружились токены, связанные с кодом и логическими рассуждениями (например, «accordingly», «code», «settings»), что указывает на финальный этап обучения с упором на программирование. Но самое интересное — не-ASCII токены с высокой нормой: многие оказались фразами с спамных сайтов, порнографических ресурсов и платформ азартных игр на китайском языке («这里只有精品», «天天好彩票», «一本道高清无码»). Также найдены токены, связанные с китайским национализмом («铁血网»), что неожиданно для OpenAI с учётом геополитического контекста. Это свидетельствует о том, что в обучающие данные попал низкокачественный и политизированный контент, а токенизатор зафиксировал его перепредставленность.

by fi-le • 05 октября 2025 г. в 18:28 • 313 points

ОригиналHN

#openai#llm#machine-learning#training-data#tokenization#natural-language-processing#ai-models#github#rlhf#ai-ethics

Комментарии (79)

  • Обсуждается использование "глитч-токенов" для идентификации моделей ИИ и их уязвимостей через анализ реакции на специфические токены.
  • Подвергается сомнению утверждение о тренировке GPT-5 на данных с взрослых сайтов; скорее, фразы попали в данные через GitHub и другие опосредованные источники.
  • Анализируется происхождение странных токенов (например, "xadder") как возможных опечаток, названий инструментов или артефактов из технических областей.
  • Поднимается вопрос о реверс-инжиниринге закрытых моделей (Claude, GPT) для изучения их тренировочных данных и смещений, введенных до и после RLHF.
  • Высказываются мнения о необходимости открытости и регулирования коммерческих моделей ИИ, включая открытие исходных кодов и данных, а также этические аспекты использования публичных данных.

OpenAI's hunger for computing power (wsj.com)

by doener • 04 октября 2025 г. в 22:14 • 87 points

ОригиналHN

#openai#agi#cloud-computing#llm#google#anthropic

Комментарии (68)

  • Обсуждение причин экстремальных аппетитов OpenAI к вычислительным мощностям: возможная стагнация технологии, требующая масштабирования для достижения AGI, или стратегия по захвату рынка.
  • Скептицизм относительно заявленных планов масштабирования: непрактичность 20-кратного роста, риски создания пузыря и спекулятивный характер для привлечения инвестиций.
  • Озабоченность экологическими и экономическими последствиями: рост цен на электроэнергию, дефицит компонентов и нагрузка на ресурсы планеты.
  • Обсуждение бизнес-модели: необходимость опередить конкурентов (Google, Anthropic), возможный переход в B2B-сегмент или создание сервиса "слишком большого, чтобы обанкротиться".
  • Сравнение с другими компаниями (DeepSeek, Qwen), которые создают конкурентоспособные модели с меньшими затратами, и вопросы эффективности использования вычислений.

Sora Update #1 (blog.samaltman.com)

OpenAI активно собирает отзывы о Sora и готовится внести изменения. Правообладатели получат более детальный контроль над генерацией персонажей — смогут указывать, как их можно использовать, включая полный запрет. Многие из них видят потенциал в «интерактивной фанфикшн» и ожидают роста вовлечённости.

Также компания ищет способ монетизации генерации видео, поскольку пользователи создают контента больше ожидаемого. Часть доходов планируется делиться с правообладателями, чьи персонажи используются. OpenAI предупреждает, что возможны ошибки в процессе, но обещает быстро реагировать на фидбэк и постоянно совершенствовать систему.

by davidbarker • 04 октября 2025 г. в 00:39 • 108 points

ОригиналHN

#openai#generative-ai#video-generation#intellectual-property#content-moderation#user-feedback

Комментарии (131)

  • OpenAI столкнулась с юридическими угрозами от правообладателей (включая Ghibli и Nintendo) из-за генерации контента с использованием их IP, что привело к введению строгих ограничений на создание видео.
  • Компания осознала необходимость монетизации генерации видео из-за высоких вычислительных затрат и планирует внедрить плату за использование, а также рассмотреть возможность распределения доходов с правообладателями.
  • Пользователи выражают разочарование из-за резкого ужесточения ограничений, которые теперь блокируют создание контента по мотивам даже не самых известных игр и франшиз.
  • В сообществе распространено мнение, что изначальное разрешение генерации защищённого контента было осознанным PR-ходом для роста популярности, а не ошибкой.
  • Подход OpenAI к решению проблемы воспринимается многими как лицемерный, неискренний и технически сложный для реализации на практике.

OpenAI Is Just Another Boring, Desperate AI Startup (wheresyoured.at) 💬 Длинная дискуссия

OpenAI превратилась в хаотичный конгломерат без чёткой стратегии, пытаясь казаться всем сразу: соцсетью с генеративным видео, конкурентом Microsoft в продуктивности, платформой для найма, рекламным бизнесом, поставщиком вычислений, разработчиком чипов и даже производителем потребительского железа. Эти утечки в СМИ служат одной цели — раздуть оценку компании перед новыми раундами финансирования, ведь ей нужно $1 трлн в ближайшие годы.

На деле это скучный и убыточный софтверный бизнес: 20 млн платных подписчиков ChatGPT и 5 млн корпоративных (полмиллиона из них — скидочные места для университета) генерируют основную выручку, но траты колоссальны. GPT-5 оказался провалом — дороже в эксплуатации без реального улучшения возможностей. Компания теряет фокус, а её агенты и «новые продукты» остаются лишь проекциями на 2027 год.

by speckx • 03 октября 2025 г. в 16:37 • 175 points

ОригиналHN

#openai#gpt-5#llm#generative-ai#agi#deeplearning

Комментарии (156)

  • Критика финансовой модели OpenAI: обсуждение методов амортизации затрат на модели (3-12 месяцев против 3 лет) и высокой стоимости инференса, что ставит под вопрос реальную прибыльность.
  • Признание масштаба и влияния OpenAI: 800 млн активных пользователей и быстрое распространение передового ИИ, сравнимое с появлением интернета и мобильных технологий.
  • Дебаты о конкурентных преимуществах (moat): отсутствие технологического рва, давление со стороны открытых моделей (DeepSeek) и крупных игроков (Google), зависимость от государственной поддержки и финансирования.
  • Оценка продуктов и дороги к AGI: полярные мнения о GPT-5 и Sora 2 (от "разочарования" до "впечатляющих"), скептицизм насчет скорого перехода к AGI и смещение фокуса на коммерциализацию.
  • Обвинения автора исходного поста (Ed Zitron) в предвзятости, сенсационности и использовании "яростного байта" для продвижения собственного бизнеса на подписках.

OpenAI's H1 2025: $4.3B in income, $13.5B in loss (techinasia.com) 🔥 Горячее 💬 Длинная дискуссия

by breadsniffer • 02 октября 2025 г. в 18:37 • 466 points

ОригиналHN

#openai#finance#business

Комментарии (570)

  • OpenAI сообщила о выручке в $4,3 млрд и операционных убытках в $7,8 млрд за первое полугодие 2025 года, при этом реальное сжигание денежных средств составило $2,5 млрд.
  • Основные расходы включают $6,7 млрд на R&D и $2,5 млрд на компенсации сотрудникам акциями, что вызывает вопросы о долгосрочной устойчивости бизнес-модели.
  • Обсуждаются потенциальные пути монетизации, включая рекламу (по аналогии с Google) и интеграцию оплачиваемых результатов в ответы, но подчеркивается риск потери доверия пользователей.
  • Многие комментаторы проводят параллели с пузырем доткомов и считают, что текущая модель — это война на истощение, где выживут только компании с большим запасом прочности или доступом к дешевой инфраструктуре.
  • Отмечается, что, несмотря на масштабные убытки, компания имеет значительную пользовательскую базу (700 млн в неделю) и время на поиск прибыльной модели, пока у нее есть около 3,5 лет runway при текущем темпе расходов.

Sora 2 (openai.com)

by meetpateltech • 30 сентября 2025 г. в 17:04 • 154 points

ОригиналHN

#openai

Комментарии (120)

  • Технология Sora 2 демонстрирует впечатляющий потенциал для создания визуальных эффектов, окружения и анимации, но качество ещё не идеально и заметны артефакты.
  • Многие выражают обеспокоенность негативными социальными последствиями, включая распространение фейкового контента, "доскроллинг" и деградацию внимания.
  • Запуск в формате социального приложения для Gen Z с региональными ограничениями вызвал вопросы о продуктивности и долгосрочной ценности такого контента.
  • Отмечается разрыв между демонстрационными "вишнёвыми" примерами и реальными возможностями, а также отставание от конкурентов вроде Google Veo.
  • Технология открывает новые возможности для кинопроизводства и креативных задач, но отсутствие контроля в закрытой платформе и высокая стоимость вычислений остаются барьерами.

Sora 2 (openai.com) 🔥 Горячее 💬 Длинная дискуссия

YouTube — это глобальная платформа для размещения и просмотра видеоконтента, принадлежащая Google LLC. Она предлагает инструменты для создателей, рекламные возможности для бизнеса и открытые API для разработчиков. Пользователям доступны разнообразные функции, включая тестирование новых опций и доступ к эксклюзивному контенту, такому как NFL Sunday Ticket.

Платформа регулируется строгими правилами: авторские права, условия использования, политика конфиденциальности и меры безопасности чётко прописаны. YouTube также предоставляет информацию о своей работе и контакты для обратной связи, демонстрируя прозрачность и вовлечённость в сообщество.

by skilled • 30 сентября 2025 г. в 16:55 • 833 points

ОригиналHN

#openai#llm#videocontent#socialnetworks#deepfake#machinelearning#generativeai

Комментарии (803)

  • OpenAI позиционирует Sora как социальную сеть с акцентом на потребление AI-генерированного видеоконтента, аналогичную TikTok, с функционалом ленты, лайков и профилей.
  • Технология вызывает восхищение качеством и физикой видео, но критикуется за проблемы с непрерывностью сцен, артефактами и "долиной uncanny".
  • Высказываются серьёзные опасения по поводу societal impact: распространение "AI-slop", проблемы с авторским правом, потенциальное misuse для создания deepfake, влияние на рынок труда и усиление doomscrolling.
  • Отмечаются потенциальные применения: гиперперсонализированная реклама, инструмент для кинопроизводства (VFX, фоны), "исправление" фильмов фанатами и создание развлекательного контента.
  • Многие пользователи сомневаются в долгосрочной ценности продукта, задаваясь вопросом, кто является целевой аудиторией кроме временного интереса к генерации забавных видео.

Launch HN: Airweave (YC X25) – Let agents search any app (github.com)

Airweave позволяет ИИ-агентам искать информацию в любом приложении, автоматизируя взаимодействие с пользовательскими интерфейсами. Это устраняет необходимость в API или специальных интеграциях, поскольку система использует компьютерное зрение и ИИ для навигации и извлечения данных напрямую из визуальных элементов приложений.

Ключевая идея в том, что агенты могут выполнять задачи, имитируя человеческие действия — кликая, вводя текст и анализируя экраны. Это особенно полезно для автоматизации workflows в legacy-системах или приложениях без публичного API. Практический вывод: снижается зависимость от разработчиков для создания интеграций, ускоряется внедрение автоматизации в разнородных средах.

by lennertjansen • 30 сентября 2025 г. в 16:21 • 156 points

ОригиналHN

#llm#computer-vision#automation#legacy-systems#rbac#openai#anthropic#github

Комментарии (29)

  • Обсуждение различий между Airweave и конкурентами (Onyx, Glean), где Airweave позиционируется как инфраструктура для разработчиков, а не готовое пользовательское приложение.
  • Вопросы о безопасности и управлении доступом (RBAC): подход к синхронизации данных для каждого пользователя в отдельности для предотвращения утечек и планы по реализации единых списков ACL.
  • Критика сложной модели ценообразования и предложения по её упрощению, а также ответ о наличии бесплатной версии для разработчиков.
  • Обсуждение тенденции интеграции подобных технологий крупными игроками (OpenAI, Anthropic) и восприятие этого как подтверждения полезности продукта.
  • Ответы на технические вопросы: предпочтение полного индексирования данных вместо вызова инструментов на лету, поддержка чистого ключевого поиска без использования LLM.

Instant Checkout for Merchants in ChatGPT (chatgpt.com)

by tortilla • 29 сентября 2025 г. в 17:41 • 79 points

ОригиналHN

#openai#llm#monetization#ecommerce

Комментарии (59)

  • OpenAI анонсировала интеграцию покупок в ChatGPT, что вызвало опасения по поводу смещения стимулов модели в сторону монетизации и ухудшения качества ответов.
  • Многие пользователи восприняли это как неизбежный, но преждевременный шаг на пути к «эншиттификации» продукта и превращению OpenAI в рекламную компанию.
  • Высказываются серьёзные опасения о конфликте интересов, доверии к AI-агентам с доступом к деньгам и потенциальных рисках такой модели.
  • Обсуждается, что этот шаг является отчаянной попыткой генерации доходов и ответом на аналогичные инициативы конкурентов, в частности Google.
  • Часть комментаторов считает, что, несмотря на критику, эта модель монетизации очевидна и в долгосрочной перспективе может стать очень успешной.

Instant Checkout and the Agentic Commerce Protocol (openai.com) 💬 Длинная дискуссия

by meetpateltech • 29 сентября 2025 г. в 17:00 • 238 points

ОригиналHN

#openai#llm#ecommerce#payment-systems#affiliate-marketing

Комментарии (348)

  • OpenAI внедряет функцию покупок через ChatGPT, что вызывает опасения по поводу смещения стимулов ИИ в сторону рекламы и комиссий.
  • Пользователи скептически относятся к доверению ИИ-агентам своих финансовых операций из-за рисков ошибок, мошенничества и навязывания покупок.
  • Многие видят в этом шаге неизбежную монетизацию платформы, аналогичную эволюции поисковых систем, где органические результаты со временем уступают место платным.
  • Поднимаются вопросы о практичности и безопасности системы, особенно для пользователей вне западных стран с другими методами оплаты и меньшими доходами.
  • Отмечается потенциальное негативное влияние на малый бизнес и affiliate-маркетинг, а также риск унификации предложений и снижения качества рекомендаций.

Failing to Understand the Exponential, Again (julian.ac) 💬 Длинная дискуссия

Люди снова недооценивают экспоненциальный рост ИИ, повторяя ошибки пандемии Covid-19, когда игнорировали очевидные тренды. Несмотря на текущие ошибки ИИ в программировании и дизайне, его возможности стремительно улучшаются — всего несколько лет назад такие задачи были научной фантастикой, а теперь модели вроде Sonnet 3.7 autonomously выполняют часовые задачи с 50% успехом.

Исследования METR и OpenAI GDPval подтверждают экспоненциальный прогресс: последние модели (GPT-5, Claude Opus 4.1) справляются с задачами длительностью более 2 часов и почти достигают уровня экспертов в 44 профессиях. Экстраполяция трендов предсказывает, что к середине 2026 года ИИ сможет работать автономно полный рабочий день, а к концу 2027 — превзойти людей во многих областях. Простая extrapolation графиков оказалась надёжнее мнений «экспертов».

by lairv • 28 сентября 2025 г. в 12:19 • 132 points

ОригиналHN

#llm#machine-learning#openai#metr#exponential-growth

Комментарии (211)

  • Скептицизм по поводу экстраполяции экспоненциального роста ИИ, учитывая, что многие технологии развиваются по S-образной кривой с ограничивающими факторами.
  • Критика методологии измерения прогресса ИИ, включая сомнения в выборе метрик и конфликт интересов авторов, связанных с индустрией ИИ.
  • Озабоченность практическими ограничениями внедрения ИИ, такими как уровень ошибок, ответственность за решения и сложность интеграции в бизнес-процессы.
  • Отмечается, что текущие модели ИИ, включая LLM, демонстрируют впечатляющие возможности, но сталкиваются с фундаментальными проблемами, такими как контекст и надежность.
  • Прогнозы о сроках достижения человеческого уровня производительности ИИ (к 2026-2027 гг.) воспринимаются как излишне оптимистичные и спекулятивные.

LLM Observability in the Wild – Why OpenTelemetry Should Be the Standard (signoz.io)

Разработчики сталкиваются с хаосом при отладке LLM-агентов в продакшене из-за фрагментации стандартов observability. Например, OpenAI предлагает детальные трейсы, но они привязаны к её фреймворку и не позволяют фильтровать отдельные спаны. New Relic поддерживает OpenTelemetry, но интерфейс громоздок для оперативного дебаггинга. Phoenix с OpenInference даёт богатые AI-специфичные спаны, но не полностью совместим с OpenTelemetry и не имеет SDK для Ruby, что критично для таких проектов, как Chatwoot.

Ключевая проблема — противостояние универсального OpenTelemetry (широкая поддержка языков, но базовые типы спанов) и специализированного OpenInference (богатые AI-типы, но слабая экосистема). OpenInference лишь поверхностно совместим с OpenTelemetry, приводя к «unknown» спанам при прямом использовании. Это вынуждает команды выбирать между созданием кастомных SDK, потерей контекста или сменой стека, замедляя разработку. OpenTelemetry остаётся прагматичным выбором из-за зрелости и кросс-языковой поддержки, но требует расширения семантики под AI-workflow.

by pranay01 • 27 сентября 2025 г. в 18:56 • 119 points

ОригиналHN

#opentelemetry#openai#phoenix#openinference#ruby#clickhouse#llm#observability#distributed-systems

Комментарии (34)

  • Разработка систем наблюдения (observability) для многозадачных LLM-агентов, включая метрики сложности задач и успешности выполнения.
  • Обсуждение стандартов и инструментов (OpenTelemetry, Phoenix, Clickhouse) для отслеживания семантических ошибок и трассировки выполнения агентов.
  • Критика подхода к оценке через ИИ из-за проблемы "курицы и яйца" и предложения использовать стандартные системы мониторинга.
  • Вопросы о практическом применении длинных промптов не-техническими пользователями и динамической маршрутизации в агентах.
  • Дискуссия о необходимости совмещения стандартных решений (реляционные БД) с OpenTelemetry для богатой семантики в распределённых системах.

GPT-OSS Reinforcement Learning (docs.unsloth.ai)

Unsloth теперь поддерживает обучение с подкреплением для OpenAI gpt-oss и всех типов моделей, что значительно ускоряет процесс тонкой настройки. Это позволяет эффективно применять методы RL, такие как DPO, ORPO и KTO, для улучшения качества генерации текста и рассуждений модели.

Практический вывод: пользователи могут обучать собственные модели рассуждений с помощью GRPO, экономя память и вычислительные ресурсы. Это открывает возможности для создания более интеллектуальных и адаптивных ИИ-систем без необходимости мощного оборудования.

by vinhnx • 27 сентября 2025 г. в 02:01 • 143 points

ОригиналHN

#reinforcement-learning#openai#gpt-oss#dpo#orpo#kto#grpo#vllm#reward-hacking#llm

Комментарии (37)

  • Благодарность Unsloth за реализацию режима сна в vLLM, упрощающего RL-обучение и делающего его более доступным.
  • Споры о качестве модели GPT-OSS: одни пользователи считают её устаревшей, другие приводят примеры её эффективности в конкретных задачах.
  • Обсуждение практической пользы дообучения моделей для бизнеса и локального использования, включая работу с редкими языками.
  • Акцент на демонстрации в релизе Unsloth методов борьбы с читерством (reward hacking) в reinforcement learning.
  • Упоминание инструмента DeepFabric для генерации данных в формате OpenAI.

Auth.js is now part of Better Auth (better-auth.com)

Auth.js, ранее известный как NextAuth.js, переходит под управление команды Better Auth. Эта библиотека — один из самых популярных инструментов аутентификации в JavaScript, используемый такими сервисами, как ChatGPT и Google Labs. Инициатива возникла из-за растущих потребностей в гибкости и современных функциях, которые исходная команда Auth.js не могла полноценно реализовать.

Существующие пользователи Auth.js могут продолжать работу без изменений: команда будет поддерживать безопасность и исправлять критические проблемы. Однако для новых проектов рекомендуется выбирать Better Auth, так как он предлагает более современные решения. Миграционные руководства уже доступны, а в будущем Better Auth планирует добавить недостающие функции, такие как управление сессиями без базы данных, чтобы объединить экосистему.

by ShaggyHotDog • 26 сентября 2025 г. в 18:04 • 165 points

ОригиналHN

#auth.js#better-auth#nextauth.js#javascript#auth0#openai

Комментарии (65)

  • Выражена обеспокоенность поглощением бесплатного проекта Auth.js коммерческим продуктом Better Auth, что может привести к его заброшенности.
  • Отмечаются проблемы с развитием Auth.js: долгая разработка новой версии и уход ключевого контрибьютора.
  • Подчеркивается удобство и популярность Auth.js среди разработчиков благодаря простой настройке и независимости от фреймворков.
  • Обсуждается миграция крупных компаний (например, OpenAI) с Auth0 на собственные или открытые решения из-за неудовлетворительной поддержки.
  • Упоминается нехватка простых и современных аутентификационных решений для языков вроде Go, в отличие от экосистемы JavaScript.

Improved Gemini 2.5 Flash and Flash-Lite (developers.googleblog.com) 🔥 Горячее 💬 Длинная дискуссия

Google выпустила обновлённые версии моделей Gemini 2.5 Flash и Flash-Lite, предлагая улучшенную производительность и эффективность. Эти модели оптимизированы для быстрой обработки запросов и снижения задержек, что делает их идеальными для приложений, требующих мгновенных ответов, таких как чат-боты и голосовые помощники.

Обновления включают повышение точности и снижение потребления ресурсов, что позволяет разработчикам интегрировать ИИ в продукты с ограниченными вычислительными мощностями. Это особенно важно для мобильных устройств и edge-устройств, где эффективность играет ключевую роль.

by meetpateltech • 25 сентября 2025 г. в 17:20 • 520 points

ОригиналHN

#google#gemini#llm#machine-learning#chatbots#voice-assistants#edge-computing#openai#anthropic

Комментарии (263)

  • Пользователи отмечают проблемы с надежностью Gemini: обрывы ответов, непредсказуемое поведение, высокая частота ошибок и галлюцинаций.
  • Многие критикуют запутанную систему версионирования моделей Google, где обновления не отражаются в номере версии (например, новый 2.5 вместо 2.6), что вызывает путаницу.
  • Обсуждаются сильные стороны Gemini 2.5 Flash: высокая скорость, низкая стоимость и хорошая работа со структурированными данными, но отмечаются ограничения по длине ответа.
  • Часто упоминается раздражающее поведение Gemini в приложении: навязывание и автовоспроизведение YouTube-видео в ответах, от которого нельзя отказаться.
  • Пользователи сравнивают Gemini с конкурентами (OpenAI, Anthropic, Grok), отмечая ее преимущества в цене и latency, но уступающую в качестве и интеллекте моделей.

Context Engineering for AI Agents: Lessons (manus.im)

Контекстная инженерия для AI-агентов — это ключевой подход, позволяющий быстро итеративно улучшать производительность без переобучения моделей. Опыт разработки Manus показал, что вместо обучения end-to-end модели эффективнее использовать способность современных LLM к обучению в контексте, что сокращает цикл улучшений с недель до часов и делает продукт независимым от прогресса базовых моделей.

Важнейший метрикой для продакшн-агентов является hit rate KV-кеша, напрямую влияющий на задержки и стоимость. Агент работает итеративно: на каждом шаге контекст растёт за счёт добавления действий и наблюдений, в то время как вывод остаётся коротким. Оптимизация этого процесса через структурирование контекста позволяет снизить вычислительные расходы и ускорить выполнение задач.

by helloericsf • 23 сентября 2025 г. в 21:20 • 83 points

ОригиналHN

#llm#agents#context-engineering#openai#codex#caching#performance-optimization

Комментарии (4)

  • Предлагается использовать файловую систему как память для агентов через директорию .agent/ для хранения задач, планов и других данных.
  • Проводятся параллели между лучшими практиками для AI-агентов и управления кодом: избегать раздувания, не удалять плохие коммиты, не рефакторить слишком часто.
  • Отмечается разница в стимулах для кеширования: на фиксированных тарифах выгодно провайдеру, на поминутных — пользователю.
  • Рекомендуется простота в инструментарии, согласующаяся с подходом OpenAI Codex, например, использование update_plan для отслеживания прогресса.

Qwen3-VL (qwen.ai) 🔥 Горячее

Qwen — это серия больших языковых моделей, разработанных Alibaba Group. Модели Qwen, включая версии для генерации текста, кода и мультимодальных задач, позиционируются как открытые и конкурентоспособные альтернативы другим известным ИИ, таким как GPT от OpenAI. Они поддерживают длинный контекст, мультиязычность и специализированные применения, например, для программирования или анализа данных.

Qwen2, следующее поколение, демонстрирует улучшенную производительность, эффективность и расширенные возможности, включая работу с аудио и изображениями. Модели доступны в различных размерах, от компактных версий для устройств с ограниченными ресурсами до мощных вариантов для сложных задач, что делает их гибким инструментом для разработчиков и исследователей.

by natrys • 23 сентября 2025 г. в 20:59 • 407 points

ОригиналHN

#qwen#alibaba-group#openai#llm#multimodal#machine-learning#artificial-intelligence#open-source

Комментарии (131)

  • Пользователи высоко оценили производительность модели Qwen3-VL при обработке сложных изображений (например, низкокачественных счетов), отмечая её превосходство над другими решениями.
  • Обсуждаются технические и экономические аспекты запуска больших моделей (235B параметров) локально, включая требования к оборудованию и стоимость вычислений.
  • Модель позиционируется как конкурентоспособная с закрытыми SOTA-решениями (GPT-4, Omni) при значительном снижении стоимости использования.
  • Критикуются отдельные недостатки, характерные и для других мультимодальных моделей: ошибки в анализе edge-кейсов (например, подсчет конечностей у животных).
  • Отмечается активность и щедрость команды Qwen в публикации моделей с открытыми весами и их вклад в развитие open-source сообщества.

Show HN: Python Audio Transcription: Convert Speech to Text Locally (pavlinbg.com)

Локальная транскрипция аудио в текст на Python с помощью Whisper от OpenAI решает проблему приватности и затрат. Модель обрабатывает записи офлайн с точностью до 96%, поддерживает множество языков и шумовых условий. Ключевой шаг — установка FFmpeg для обработки аудио, без которой скрипт не заработает.

Доступно пять версий модели: от «tiny» (39 МБ, для тестов) до «large» (1.5 ГБ, максимальная точность). Для большинства задач подходит «base» — баланс скорости и качества. Код включает класс для транскрипции с выводом языка, времени обработки и сохранением результата в файл.

by Pavlinbg • 22 сентября 2025 г. в 18:18 • 85 points

ОригиналHN

#python#whisper#openai#ffmpeg#speech-to-text#audio-processing#machine-learning#assemblyai

Комментарии (24)

  • Участники обсуждают локальные инструменты для преобразования речи в текст, такие как Whisper, SpeechShift и hns, с акцентом на автономность и интеграцию.
  • Предлагаются методы улучшения качества транскрипции: предобработка аудио (конвертация в 16кГц WAV, фильтры), постобработка с помощью локальных LLM для очистки текста и снижения количества ошибок.
  • Обсуждается добавление диаризации (распознавания говорящих) с помощью библиотек whisperx, pyannote и senko, а также её важность для повышения точности.
  • Затрагиваются вопросы производительности, поддержки разных языков и использования аппаратного ускорения (например, Apple MLX) для ускорения обработки.
  • Отмечается встроенная поддержка преобразования речи в текст в ffmpeg и упоминаются облачные альтернативы, такие как AssemblyAI, для сравнения точности.

OpenAI and Nvidia announce partnership to deploy 10GW of Nvidia systems (openai.com) 🔥 Горячее 💬 Длинная дискуссия

by meetpateltech • 22 сентября 2025 г. в 16:10 • 439 points

ОригиналHN

#openai#nvidia#llm#gpu#datacenters#energy-consumption

Комментарии (567)

  • Обсуждение масштабов энергопотребления (10 ГВт) и сравнение его с потреблением целых городов или стран, а также опасения по поводу экологических последствий и нагрузки на энергосистемы.
  • Критика сделки как формы "round tripping" — схемы, при которой NVIDIA инвестирует в OpenAI, чтобы та покупала её же оборудование, искусственно завышая выручку и поддерживая рыночный пузырь.
  • Скептицизм по поводу целесообразности и формулировок партнёрства, воспринятых как бессодержательный корпоративный жаргон и признак пика "AI пузыря".
  • Обсуждение технических деталей: что означает измерение в гигаваттах, сколько чипов это представляет и как это скажется на потребительском рынке GPU.
  • Вопросы о источнике энергии и водных ресурсах для дата-центров, а также о роли регуляторов в управлении этим воздействием.

An untidy history of AI across four books (hedgehogreview.com)

История искусственного интеллекта — это не линейный прогресс, а хаотичный путь с неожиданными поворотами. Исследования начались после Второй мировой с символического подхода, пытавшегося запрограммировать логику и семантику, но он упёрся в ограничения. Машинное обучение, долго игнорируемое из-за нехватки данных и вычислительной мощности, прорвалось благодаря интернету и GPU — технологиям из игровой индустрии.

Ключевым моментом стал 2011 год, когда нейросеть команды Крижевского, Сатсквера и Хинтона показала 85% точности в ImageNet, перевернув поле. OpenAI, основанная в 2015 году, выпустила ChatGPT почти без рекламы в 2022-м и столкнулась с неожиданным ажиотажем. Сегодня индустрия переоценена: OpenAI оценивают в $300 млрд, хотя реальные возможности ИИ часто преувеличиваются. Книга «AI Snake Oil» призывает трезво оценивать заявления об ИИ, отделяя факты от маркетинговой шумихи.

by ewf • 19 сентября 2025 г. в 18:15 • 107 points

ОригиналHN

#artificial-intelligence#machine-learning#neural-networks#gpu#openai#llm

Комментарии (37)

  • Участники обсуждают рекомендуемые книги по истории и философии ИИ, отмечая недостаток европейского и восточного вклада в некоторых из них.
  • Критикуется качество публичного дискурса об ИИ, который часто ведут неэксперты, и поверхностность статьи, не раскрывающей фундаментальные ограничения современных подходов к машинному обучению.
  • Высказываются сомнения в экспертизе некоторых авторов (например, Генри Киссинджера) и политической нейтральности издания The Hedgehog Review.
  • Обсуждается отсутствие в списке классической работы «Machines Who Think» и упоминается собственная книга участника дискуссии.
  • Несколько пользователей делятся личным опытом: уже прочитали некоторые из рекомендованных книг или ищут новые материалы для изучения.

DeepMind and OpenAI win gold at ICPC (codeforces.com) 💬 Длинная дискуссия

OpenAI и DeepMind рады объявить/поделиться — Codeforces

Codeforces — платформа для соревнований по программированию.

Навигация:

  • Главная
  • Топ
  • Каталог
  • Контесты
  • Тренировки
  • Задачи
  • Группы
  • Рейтинг
  • Обучение
  • API
  • Календарь
  • Помощь

Ближайший контест:
Codeforces Global Round 29 (Div. 1 + Div. 2) через 3 дня. Регистрация открыта.

Топ рейтинга:

  1. jiangly (3914)
  2. Kevin114514 (3755)
  3. orzdevinwang (3670)
  4. tourist (3619)
  5. ecnerwala (3590)

Топ авторов:

  1. errorgorn (170)
  2. Qingyu (162)
  3. adamant (158)

Последние действия:

  • Обсуждение редакции раундов
  • Вопросы о повышении рейтинга
  • Обновления условий задач
  • Обсуждение возможных нарушений

by notemap • 17 сентября 2025 г. в 18:15 • 223 points

ОригиналHN

#competitive-programming#icpc#openai#deepmind#llm#machine-learning

Комментарии (211)

  • OpenAI и DeepMind достигли высоких результатов в ICPC (12/12 и 10/12 задач соответственно), превзойдя лучшие человеческие команды.
  • Мнения разделились: одни считают результат прорывом, другие — следствием нечестных преимуществ ИИ (огромные вычислительные мощности и многократные попытки).
  • Критики указывают на отсутствие прозрачности: неизвестны затраты на вычисления, энергопотребление и степень стороннего контроля.
  • Подчеркивается фундаментальное отличие соревнований для людей (ограничения по времени, один компьютер на команду) и условий для ИИ.
  • Отмечается, что успех ИИ в узких, четко определенных задачах не обязательно переносится на реальную инженерию или научные прорывы.
  • Обсуждается растущий разрыв между возможностями корпоративных моделей и тем, что доступно обычным пользователям.
  • Результат заставляет пересмотреть assumptions о текущих возможностях LLM и их будущей роли в решении сложных задач.

Комментарии (150)

  • Критика отсутствия методологии и прозрачности в исследовании CrowdStrike, на котором основана статья The Washington Post.
  • Подозрения в предвзятости и пропагандистском характере публикации, направленной против китайских ИИ-разработок.
  • Обсуждение возможных технических причин явления, таких как артефакты данных обучения или обобщение моделями политических ограничений.
  • Отмечается, что другие модели (например, OpenAI, Google) могут иметь схожие геополитические предубеждения, но это не исследовалось.
  • Несколько пользователей провели собственные тесты, частично подтвердив основные выводы о разном качестве ответов для разных групп.
  • Подчеркивается, что добавление в промт несвязанной контекстной информации (например, упоминание группы) может влиять на вывод модели.
  • Высказывается мнение, что подобное поведение может быть непреднамеренным следствием обучения, а не злонамеренной "задней дверью".

Комментарии (137)

  • Пользователи высоко оценили GPT-5-Codex за умение работать с длинным контекстом, качественное исследование кода и завершение задач без "бросания на полпути", в отличие от Gemini и Claude Code.
  • Основные жалобы на Codex касаются нестабильности сервиса (частые простои), высокой скорости расходования кредитов и автоматического списания средств при превышении лимита плана Pro.
  • Многие сравнивают Codex с Claude Code, отмечая, что после обновления Codex стал значительно эффективнее, особенно в рефакторинге, хотя иногда может проявлять "лень" и требовать подтверждения для продолжения сложных задач.
  • Обсуждается проблема несоответствия форматирования (Codex использует пробелы вместо табов) и отсутствие поддержки пользовательских контейнеров.
  • Новая модель GPT-5-Codex, оптимизированная для кодинга, стала доступна в CLI и облачных продуктах OpenAI, но пока не в API; она обещает улучшенный код-ревью и возможность работать до 7 часов.
  • Некоторые пользователи столкнулись с замедленной работой модели и проблемами скорости, не видя существенной разницы между режимами medium и high.
  • Важным фактором для многих остается конфиденциальность, и в этом отношении Cursor с его "режимом приватности" сохраняет преимущество перед Codex.
  • В обсуждении упоминается добавление поддержки MCP (Model Context Protocol) и необходимость ручного обновления CLI через NPM для доступа к новым функциям.
  • Отмечается, что JetBrains с бэкендом на GPT-5 предлагает подписку за $30/мес, но квоты сгорают очень быстро, что вызывает вопросы о долгосрочной ценовой политике OpenAI.

GPT-5-Codex (openai.com) 🔥 Горячее

by meetpateltech • 15 сентября 2025 г. в 17:10 • 367 points

ОригиналHN

#gpt-5-codex#codex#openai#llm#machine-learning#npm#ide

Комментарии (115)

  • Новый GPT-5-Codex имеет вдвое меньший размер промпта (10 КБ против 23 КБ) и демонстрирует схожую с GPT-5 производительность на SWE-bench, но значительно лучше справляется с рефакторингом (51.3% против 33.9%).
  • Пользователи отмечают резкое улучшение качества Codex CLI по сравнению с предыдущими версиями и конкурентом Claude Code, который, по их мнению, стал хуже и имеет более низкие лимиты использования.
  • Многие пользователи переходят с Claude Code на Codex, мотивируя это большей скоростью, щедрыми лимитами использования, включенными в подписку ChatGPT Pro, и меньшей склонностью модели к "фейковым" решениям.
  • Ключевые улучшения UX: модель стала надежнее использовать интерфейс выполнения задач (Task Completion), лучше комментирует код при ревью и генерирует меньше лишних токенов для простых задач.
  • Некоторые пользователи сталкиваются с проблемами: крайне низкая скорость работы модели в первые дни после релиза, сложности с установкой (npm-ошибки) и отсутствие режима, аналогичного "normal mode" в Claude.
  • Появилась интеграция Codex CLI с планом подписки ChatGPT (около месяца назад), что делает его более доступным, однако поддержки API для GPT-5-Codex пока нет, но обещана в будущем.
  • Обсуждаются workflow-проблемы: отсутствие промежуточного режима между полной автономией и ручным копированием, плохая обработка перемещения файлов, необходимость вручную одобрять опасные команды.
  • Конкуренция смещается с raw-качества моделей на качество интеграции в IDE и workflow (терминал, GitHub, мобильное приложение), создавая эффект lock-in.
  • Пользователи рекомендуют стратегию работы: сначала заставлять модель составлять план и утверждать его, а лишь потом приступать к реализации, чтобы избежать нежелательных действий.

The Mac app flea market (blog.jim-nielsen.com) 🔥 Горячее

Вы когда-нибудь искали «AI chat» в Mac App Store? Это похоже на прогулку по рынку подделок: сначала всё кажется настоящим, но при ближайшем рассмотрении становится ясно, что что-то не так.

По запросу «AI chat» появляется столько иконок, похожих на ChatGPT, что это выглядит комично. Все они имитируют оригинальный дизайн приложения от OpenAI, создавая впечатление барахолки с клонами.

Настоящее приложение ChatGPT для macOS можно скачать только с официального сайта OpenAI, но в магазине приложений его нет — вместо этого вы найдёте десятки подражателей.

by ingve • 15 сентября 2025 г. в 07:14 • 358 points

ОригиналHN

#macos#llm#openai#app-store#amazon

Комментарии (134)

  • Пользователи единодушно критикуют App Store (включая Mac, Microsoft и мобильные) за обилие некачественного контента, клонов и мошеннических приложений.
  • Многие отмечают, что проблема заключается в отсутствии качественной модерации и кураторства со стороны владельцев магазинов, несмотря на их заявления о безопасности.
  • Подчеркивается, что сложный и непрозрачный процесс проверки часто блокирует легитимных разработчиков, в то время как мошенники находят лазейки.
  • Участники дискуссии проводят параллели с Amazon, где также распространены продукты низкого качества от fly-by-night компаний.
  • Высказывается мнение, что подобная ситуация стала возможна из-за бизнес-модели магазинов, которые заинтересованы в количестве, а не в качестве контента, и берут высокую комиссию.

Will AI be the basis of many future industrial fortunes, or a net loser? (joincolossus.com) 💬 Длинная дискуссия

AI не сделает тебя богатым

  • Хайп вокруг ИИ ≠ лёгкие деньги.
  • Рынок быстро уравнивает преимущества; выигрывают те, кто строит уникальные системы, а не пользуется шаблонами.
  • Фокус: глубокая экспертиза, сильные команды, долгосрочное мышление.

by saucymew • 13 сентября 2025 г. в 22:01 • 199 points

ОригиналHN

#artificial-intelligence#openai#llm#agi

Комментарии (295)

  • Участники спорят: сделает ли ИИ кого-то богатым или просто снизит барьеры входа.
  • Многие считают, что выиграют не стартапы, а пользователи и крупные платформы (OpenAI, Google).
  • LLM уже экономят деньги отдельным людям и малым командам, заменяя дизайнеров, копирайтеров, программистов.
  • Для серьёзного бизнеса ИИ пока лишь оптимизирует затраты, не создавая новых гигантских рынков.
  • AGI и полностью «голливудские» приложения пока фантастика; текущий бум может закончиться пузырём.

‘Overworked, underpaid’ humans train Google’s AI (theguardian.com)

  • Тысячи контракторов по всему миру размечают тексты, фото и видео для Google: оценивают релевантность, проверяют факты, фильтруют токсичность.
  • Работа фрагментирована на микрозадания, оплата — от $0,01 до $0,15 за штуку; часовой доход часто ниже минимального.
  • Платформа Appen и подрядчики like RaterLabs не гарантируют часов, заставляют конкурировать за задачи, штрафуют за «ошибки».
  • Люди тренируют Bard, поисковые сниппеты и рекламу; без них «ИИ» не понимал бы контекста и не фильтровал бы фейки.
  • Google отвечает: «Сторонние фирмы платят рыночные ставки», но внутренние документы показывают жёсткие лимиты на зарплату.
  • Контракторы объединяются в профсоюзы, требуют прозрачности и минимального часового гаранта; пока успех ограничен.

by Brajeshwar • 13 сентября 2025 г. в 11:30 • 236 points

ОригиналHN

#google#llm#machine-learning#data-annotation#cloud-platforms#openai#anthropic#meta

Комментарии (128)

  • Контрактные «оценщики ИИ» получают $16–45/час, но работа нестабильна, тесты сложны (FAANG-уровень), а задачи всё чаще требуют уровня магистра/PhD.
  • Коммуникация с работодателями практически отсутствует, сроки сжимаются, а качество оценки страдает из-за внутренних метрик.
  • Практика охватывает почти всех крупных игроков: OpenAI, Google, Anthropic, Mistral, Meta и др.; прозрачности нет, NDA скрывают масштабы.
  • Работники иногда видят тяжёлый контент, но чаще рутинно размечают вывод моделей, фактически обучая ИИ «человеческим ценностям» заказчика.
  • Критики называют это цифровым колониализмом: дешёвая разметка Global South и США помогает корпорациям продавать «автономный ИИ».

OpenAI Grove (openai.com)

by manveerc • 12 сентября 2025 г. в 16:05 • 148 points

ОригиналHN

#openai#ycombinator

Комментарии (139)

  • Участники видят в «инкубаторе для людей без идей» признак того, что у OpenAI закончились собственные продуктовые идеи и она теперь ловит чужие.
  • Само словосочетание «pre-idea individuals» вызывает насмешку: «идеи и так стоят копейку, а тут даже идеи нет».
  • Многие уверены, что программа — дешёвый способ заманить талантливых разработчиков в орбиту компании без зарплаты и акций.
  • Критики считают, что OpenAI превращается в YC-конкурента, cannibalizing экосистему «псевдо-родителя» и подрывая доверие инвесторов.
  • Подавляющее большинство комментариев — скептические или откровенно негативные; форуму Y Combinator это лишь добавляет очков за свободу слова.

ChatGPT Developer Mode: Full MCP client access (platform.openai.com) 🔥 Горячее 💬 Длинная дискуссия

by meetpateltech • 10 сентября 2025 г. в 16:04 • 492 points

ОригиналHN

#llm#mcp#openai#api#cybersecurity#web-development

Комментарии (270)

  • ChatGPT получил полную поддержку MCP — теперь можно подключать внешние серверы для доступа к данным и инструментам прямо из чата.
  • Пользователи радуются удобству, но эксперты предупреждают: MCP — это потенциальный канал для prompt-инъекций и утечек, особенно если запускать чужие серверы без аудита.
  • Безопасность почти не проработана: токены лежат в plaintext-конфигах, границ прав нет, а большинство экспериментаторов не понимают рисков.
  • Пока работает только в веб-версии для Pro/Plus, локальный режим и мобильные клиенты не поддерживаются.
  • Сообщество просит централизованный магазин MCP, нормальные привилегии и инструменты отладки, но ясности от OpenAI пока нет.

AI surveillance should be banned while there is still time (gabrielweinberg.com) 🔥 Горячее 💬 Длинная дискуссия

  • Чем дольше люди общаются с чат-ботами, тем больше раскрывают: мысли, стиль речи, слабые места.
  • Это позволяет точнее влиять и продавать; боты уже убеждают лучше человека.
  • Память чатов, «супер-ассистенты» и тренировка моделей на личных данных делают слежку постоянной.
  • Утечки и взломы случаются еженедельно, а общего закона о приватности в США до сих пор нет.
  • Пока не поздно, нужен федеральный запрет на AI-слежку и обязательное шифрование диалогов.

by mustaphah • 06 сентября 2025 г. в 13:52 • 494 points

ОригиналHN

#llm#privacy#data-protection#chatbots#surveillance#data-encryption#openai#duckduckgo#data-breaches#data-storage

Комментарии (175)

  • Пользователи обсуждают, как AI-сервисы (чат-боты, соцсети, поисковики) собирают и навсегда хранят персональные данные, превращая их в инструменты манипуляции, таргетированной рекламы и политического давления.
  • Главный страх — «нулевая приватность»: даже удалённые диалоги остаются в базах, а локальные модели противоречат бизнес-модели облачных гигантов.
  • Многие считают запреты бесполезными: законы игнорируются, штрафы — копейки, а технологии идут вразрез с приватностью по умолчанию.
  • Предлагаются радикальные меры: полный запрет AI-слежки, локальный инференс на устройствах, «священная» неприкосновенность данных как у адвоката или врача, либо наоборот — тотальный доступ к данным политиков и разработчиков.
  • Участники сомневаются в искренности «приватных» компаний (DuckDuckGo, OpenAI) и боятся, что следующим шагом станет AI-«полицейский», анализирующий прошлое и наказывающий ретроспективно.

Why language models hallucinate (openai.com) 💬 Длинная дискуссия

by simianwords • 06 сентября 2025 г. в 07:41 • 210 points

ОригиналHN

#language-models#llm#openai#natural-language-processing#machine-learning

Комментарии (183)

  • «Hallucination» — не баг, а природа LLM: система просто строит вероятностное продолжение текста, не проверяя истинность.
  • Часть комментаторов считает, что любой вывод LLM — уже галлюцинация, просто некоторые совпадают с фактами.
  • OpenAI предлагает учить модель «не знать» и отказываться от ответа, но критики сомневаются в надёжности оценки уверенности.
  • Текущие бенчмарки поощряют угадывание: за ошибку не штрафуют, за отказ — наказывают, поэтому модель вынуждена «брехать».
  • Пользователи тоже не любят «не знаю» и предпочитают быстрый ответ правильному, усиливая инженерный цикл.
  • Пока данные и сам язык неполны и противоречивы, 100 %-ное устранение галлюцинаций невозможно; можно лишь снизить частоту.

Anthropic agrees to pay $1.5B to settle lawsuit with book authors (nytimes.com) 🔥 Горячее 💬 Длинная дискуссия

by acomjean • 05 сентября 2025 г. в 19:52 • 902 points

ОригиналHN

#anthropic#openai#google#meta#llm#copyright#open-source

Комментарии (684)

  • Anthropic согласилась выплатить минимум $1,5 млрд за использование ≈500 тыс. пиратских книг (~$3 000 за произведение) — это не прецедент, но сигнал остальным ИИ-компаниям: закладывайте миллиарды на иски.
  • Источники напрямую не подтверждают, что деньги дойдут до авторов; крупные издатели, владеющие правами, могут получить основной выигрыш.
  • Комментаторы опасаются, что только гиганты смогут платить такие штрафы, а мелкие лаборатории и open-source-проекты окажутся вне игры: легальное сканирование миллиардов книг невозможно по масштабу и цене.
  • Некоторые считают решение тактическим успехом Anthropic: компания быстро закрыла риск после нового раунда финансирования, тогда как OpenAI, Google и Meta теперь рискуют большими выплатами.

OpenAI eats jobs, then offers to help you find a new one at Walmart (theregister.com) 💬 Длинная дискуссия

  • OpenAI запустила «AI Economic Index» — карты востребованных навыков и подбор вакансий для тех, кого её же модели вытеснили с рынка.
  • Сервис анализирует миллионы объявлений, показывает, какие знания (например, промпт-инженерия) сейчас ценятся, и подсказывает, где учиться.
  • Критики: компания сначала разрушает рабочие места, а теперь продаёт «палку-выручалочку»; данных о реальном числе потерянных профессий всё ещё нет.

by rntn • 05 сентября 2025 г. в 12:17 • 202 points

ОригиналHN

#openai#llm#job-market#prompt-engineering#walmart#automation#ocr#tech-support

Комментарии (179)

  • Участники спорят, действительно ли ИИ уже «съедает» рабочие места или пока лишь повышает продуктивность и сокращает штат постепенно.
  • Крупные ИИ-компании, проповедуя «этику», одновременно разрабатывают замену самим же пользователям, используя их бесплатные данные для обучения моделей.
  • Примеры реального вытеснения: OCR-переводчики, редакторы новостей, тех-поддержка 1-го уровня, джуниор-разработчики и рутинные офисные задачи.
  • Walmart упоминается как крупнейший работодатель, но речь идёт о розничных, а не инженерных позициях; собственные IT-команды компании уже подвергались сокращениям.
  • OpenAI предлагает «сертифицировать» 10 млн американцев к 2030-му и матчить их с корпорациями, что многие воспринимают как попытку монетизировать созданную ею же дезинформацию и дисбаланс рынка труда.

We're Joining OpenAI (alexcodes.app)

Команда Alex переходит в OpenAI

Мы присоединяемся к команде Codex в OpenAI.
Начав с «безумной» идеи создать «Cursor для Xcode», мы построили лучшего AI-агента для iOS и macOS. Теперь продолжим эту миссию в OpenAI.

Что будет с Alex

  • Приложение останется работать у текущих пользователей.
  • С 1 октября скачивание прекращается.
  • Новых функций не будет.

Спасибо бета-тестерам, клиентам, инвесторам и всему Apple-сообществу! ❤️

P.S. Попробуйте Codex CLI.

by liurenju • 03 сентября 2025 г. в 18:38 • 178 points

ОригиналHN

#openai#codex#apple#xcode#ios#macos#llm#ide#cli#startup

Комментарии (131)

  • Команда Alex Code присоединилась к OpenAI: продукт перестанет развиваться, новые загрузки прекратятся 1 октября.
  • Пользователи считают, что Apple «зашерлокила» большую часть функций Alex во встроенном AI Xcode, поэтому выживание стартапа стало невозможным.
  • Многие видят в сделке типичный aqui-hire: OpenAI получает инженеров, знакомых с IDE и Apple-платформами, а не уникальную технологию.
  • Вопрос будущего: станут ли OpenAI/Anthropic прямыми конкурентами IDE-стартапов вроде Cursor или останутся поставщиками моделей.
  • Скептики ждут, что через 12–18 месяцев продукт Alex окончательно закроют, а команду полностью интегрируют в Codex.

Комментарии (60)

  • Пользователи хвалят Statsig как мощную платформу A/B-тестов и аналитики, превосходящую Optimizely и LaunchDarkly.
  • Критика лендинга: много маркетинговых слоганов, мало конкретики, поэтому непонятно, за что OpenAI заплатили $1,1 млрд.
  • Обсуждают, что Statsig — это «переосмысленная» внутренняя система Meta для экспериментов и роста.
  • Вопросы к сделке: возможен антимонопольный контроль, претензии Microsoft к IP, будущее клиентов-конкурентов (Anthropic).
  • Внутри OpenAI появится CTO «Applications», что вызывает споры о «инфляции» C-level тайтлов и разделении на «Research» и «Apps».

AI web crawlers are destroying websites in their never-ending content hunger (theregister.com)

  • Проблема: боты OpenAI, Anthropic, Google и др. генерят до 45 % трафика сайтов, но не приносят денег и ломают инфраструктуру.
  • Последствия: сервера перегружаются, счета за трафик растут, а доход от рекламы не покрывает расходы.
  • Решения: блок-листы, rate-limit, Cloudflare Bot Management, «умные» robots.txt и платные API.

by CrankyBear • 02 сентября 2025 г. в 16:24 • 138 points

ОригиналHN

#openai#anthropic#google#cloudflare#ddos#rate-limit#robots.txt#api#captcha#web-crawling

Комментарии (76)

  • Агрессивные AI-боты превратились в DDoS: малые сайты лежат, счета за трафик вырастают в разы, хостинги выгоняют клиентов.
  • Компании вроде Anthropic/Claude и «мелкие» стартапы не соблюдают rate-limit, не кешируют и маскируют ботов, хотя технически могли бы всё сделать правильно.
  • Админы вынуждены ставить CAPTCHA, login-wall, ASN-блоки, rate-limit и Cloudflare, что ломает accessibility и приватность для людей.
  • Пользователи ищут обходы: кто-то уходит к AI, кто-то отказывается от сайтов с капчами.
  • Общий вывод: боты «пьют молочный коктейль» открытого веба, пока сами компании не несут последствий.

OpenAI says it's scanning users' conversations and reporting content to police (futurism.com)

  • OpenAI сканирует переписки в ChatGPT и передаёт полиции сообщения, где обнаружена угроза насилия.
  • Компания признала, что не справляется с ментальными кризисами пользователей.
  • Подозрительные диалоги направляют специальной команде; при «неминуемой угрозе» — в правоохранительные органы.
  • Случаи суицида пока не передаются полиции из-за приватности.
  • Пользователи жалуются на «AI-психоз», самоповреждения и даже убийства.

by miletus • 02 сентября 2025 г. в 16:15 • 137 points

ОригиналHN

#llm#openai#anthropic#privacy

Комментарии (67)

  • OpenAI и Anthropic начали сканировать чаты и передавать их полиции после случая убийства, вызванного «психозом ИИ».
  • Критики считают это цензурой, слежкой и опасным вмешательством, особенно при несоответствии полиции задачам психиатрии.
  • Некоторые напоминают, что общество требовало «защиты» после самоубийства подростка, но теперь осуждает сами меры.
  • Пользователи всё чаще переходят на локальные или приватные LLM, чтобы избежать слежки.
  • Обсуждаются риски «AI-терапии» без лицензии и возможность злоупотреблений вроде «LLM-своттинга».

Don't Build Multi-Agents (cognition.ai)

Не создавайте мульти-агентов

Фреймворки для LLM-агентов разочаровывают. Ниже — выжимка из нашего опыта и почему популярные идеи работают плохо.

Принципы контекст-инжиниринга

  1. Делитесь контекстом целиком
  2. Действия несут скрытые решения

Пока в мире LLM мы как в 1993-м с HTML: нет стандарта. Библиотеки вроде OpenAI Swarm и Microsoft Autogen продвигают мульти-агентов, но это, по нашему опыту, ошибка.

Почему мульти-агенты хрупки

Классическая схема:

  • разбить задачу на подзадачи,
  • запустить под-агентов,
  • собрать результат.

Проблема: каждый уровень теряет детали. Пример: «сделай Flappy Bird» → под-агенты делают фон Mario и птицу, не похожую на оригинал. Сводить такие части — головная боль.

Принцип 1
Передавайте не сообщения, а полные трейсы агента.

Даже если дать всем под-агентам исходный промпт, в реальном диалоге уже были вызовы инструментов, уточнения, и контекст всё равно размывается.

by JnBrymn • 01 сентября 2025 г. в 21:54 • 85 points

ОригиналHN

#llm#openai#microsoft#autogen#multi-agent-systems#context-engineering#prompt-engineering#erlang

Комментарии (61)

  • Пользователи обсуждают, что «агенты» — это просто разные промпты к одному и тому же API, а не отдельные сущности.
  • Основная проблема — «размывание» контекста: при ~50 k токенов агенты теряют цель, поэтому многие отказались от сложных мульти-агентных схем в пользу одного агента + умного управления контекстом.
  • Предложено строить «компиляторы контекста» вместо ручной курирования и использовать фиксированные pipeline-ы вместо свободно общающихся агентов.
  • Некоторые сравнивают подход с супервизорами Erlang, но большинство считает это переизобретением старых идей.
  • Общий вывод: пока нет надёжности, мульти-агентные системы неэффективны; начинать стоит с простейших блоков и адаптировать под свою задачу.

Building your own CLI coding agent with Pydantic-AI (martinfowler.com)

CLI-агенты: зачем покупать, если можно собрать

CLI-агенты умеют читать код, запускать тесты и править файлы. Готовые решения не знают специфику вашего проекта, поэтому мы собрали собственного агента из открытых инструментов на Pydantic-AI.

Архитектура

  • База: Pydantic-AI + LLM
  • MCP-серверы (плагины):
    • запуск кода в песочнице
    • актуальная документация библиотек
    • AWS-инструменты
    • поиск в интернете
  • Desktop Commander – полный доступ к файловой системе (осторожно!)

Как мы росли

  1. Старт: простой CLI-запуск тестов.
  2. Интеллект: добавили системные инструкции и распознавание намерений.
  3. MCP: подключили песочницу Python, доки, AWS, поиск.
  4. Оптимизация: длинные цепочки рассуждений, структурированные ответы.

Полученные выводы

  • Прозрачность: видим каждый шаг.
  • Контроль: сами решаем, что разрешено.
  • Гибкость: легко добавить новый MCP-сервер.

Дальше

  • GUI-обёртка, CI/CD-интеграция, автоматические PR.
  • Публикация MCP-серверов как open-source.

Собственный агент дешевле, понятнее и точнее подходит под ваши правила.

by vinhnx • 28 августа 2025 г. в 18:34 • 176 points

ОригиналHN

#pydantic#llm#aws#python#cli#openai#litelm

Комментарии (32)

  • Большинство участников хвалят Pydantic AI за отзывчивую команду, лёгкое расширение API и гибкую модель агента без DAG.
  • Некоторые жалуются на баги при работе с редкими фичами (Azure OpenAI, стриминг) и предпочитают самописные решения или LiteLLM.
  • Есть сомнения в стабильности работы с Pydantic-моделями: кто-то добивается лучших результатов «вручную», минуя библиотеку.
  • Обсуждаются альтернативы и затраты: Claude Code дешевле API Sonnet 4, SWE-bench дорог для оценки код-агентов, LiteLLM проще в документации.

Are OpenAI and Anthropic losing money on inference? (martinalderson.com) 🔥 Горячее 💬 Длинная дискуссия

  • Тезис: утверждение «OpenAI и Anthropic теряют деньги на инференсе» — сильно преувеличено.
  • Метод: считаем только «сырой» H100-компьют за $2/час, игнорируем всё остальное.
  • Кластер: 72 H100 → $144/час. 8-GPU инстанс × 9 = 288 параллельных запросов.

Пропускная способность

  • Prefill (вход): 1,44 млн токенов/с на инстанс → 46,8 млрд токенов/час.
  • Decode (выход): 1 440 токенов/с на инстанс → 46,7 млн токенов/час.

Цена за токен

  • Вход: $0,003/млн токенов (почти даром).
  • Выход: $3/млн токенов (реальные деньги).

Почему ограничивают контекст

  • При >128 k токенов вычисления становятся compute-bound → цена вырастает 2–10×.
  • Поэтому Claude Code режет контекст до 200 k: дешевле.

Пользовательская экономика

  • ChatGPT Pro $20/мес при 100 k токенов/день: себестоимость ≈ $3/мес → маржа 5–6×.

by martinald • 28 августа 2025 г. в 10:15 • 470 points

ОригиналHN

#openai#anthropic#nvidia#gpu#machine-learning#llm#cloud-computing

Комментарии (438)

  • Математика статьи критикуется: расчёт пропускной способности префилла завышен минимум в 1000 раз, а достигаемая MFU превышает физический предел GPU.
  • Участники соглашаются, что «чистая» инференс-операция, без учёта затрат на обучение, может быть прибыльной: Сам Альтман, данные The Information и Epoch AI указывают на gross margin 50–60 %.
  • Основные оговорки: в расчётах не учтены downtime, кэширование, спекулятивное декодирование, KV-cache, а также различия в эффективности между DeepSeek R1 и закрытыми моделями OpenAI/Anthropic.
  • Некоторые стартапы (Cursor, Perplexity) уже страдают от отрицательной маржи из-за дорогих токенов, что подчеркивает разрыв между «оптовой» и «розничной» экономикой.
  • Общий вывод: инференс в вакууме может быть прибыльным, но полная экономика включает обучение, idle-оборудование и кросс-субсидирование, поэтому точные цифры известны только самим компаниям.

I Am An AI Hater (anthonymoser.github.io)

Я — хейтер ИИ. Это грубо, но мне всё равно.
Принято начинать с оговорок: «конечно, не весь ИИ плох», «возможно, позже», «для других задач». Но я не буду.

Критика уже всё сказала: вред природе, расизм, суицидальные советы, кража контента, эксплуатация людей, фальшивка и слежка. Но я не критик — я хейтер. Мне не нужен веский аргумент: вы всё равно не читаете, а боту задаёте «кратко».

Эта технология сама груба — и достойна грубого ответа. Миядзаки назвал её «оскорблением жизни». Скам-Альтман мечтает обернуть Солнечную систему дата-центрами. Первый прав, второй врёт.

Их цель хуже провалов: создать джинна, чтобы никто больше не рисовал, не писал, не думал. Изобрести новый разум и поработить его. А заодно превратить пользователей в бессмысленные капсулы, питаемые алгоритмом.

Некоторые всё же хотят «чуть-чуть, ради прикола».
Я понимаю: вы ищете оправдание.
В углу стоит машина, обтянутая человеческой кожей, лепящая из крови и дерьма то, что вы хотите видеть.

by BallsInIt • 27 августа 2025 г. в 19:10 • 183 points

ОригиналHN

#artificial-intelligence#ai-ethics#machine-learning#openai#github#llm

Комментарии (103)

  • Критики подчеркивают вред для окружающей среды, авторские права, расовые и когнитивные риски ИИ.
  • Некоторые участники разделяют «ненависть» к ИИ, но признают, что технология останется.
  • Другие считают эмоциональную реакцию непродуктивной и предлагают искать способы минимизации вреда.
  • Участники отмечают, что «AI-бренд» стал маркетинговым штампом и вызывает отторжение.
  • Молодёжь, по наблюдениям, более восторженно относится к ИИ, но это может измениться.

Show HN: Vectorless RAG (github.com)

## Простой RAG с PageIndex

**Цель**  
Показать, как за 5 минут построить полноценный Retrieval-Augmented Generation пайплайн на базе PageIndex.

---

### 1. Установка и импорт

```bash
pip install pageindex openai
import pageindex, openai, os
openai.api_key = os.getenv("OPENAI_API_KEY")

2. Загрузка документов

Поддерживаются PDF, DOCX, TXT, MD, PPTX, CSV, JSON.

docs = pageindex.load_documents("data/")
index = pageindex.Index(name="my_docs")
index.add_documents(docs)

3. Поиск и генерация

query = "Какие преимущества RAG?"
chunks = index.search(query, top_k=3)

context = "\n".join(c.text for c in chunks)
prompt = f"Используй контекст:\n{context}\n\nВопрос: {query}"

answer = openai.ChatCompletion.create(
    model="gpt-3.5-turbo",
    messages=[{"role": "user", "content": prompt}]
).choices[0].message.content

print(answer)

4. Потоковый чат

chat = index.chat_session(model="gpt-4")
print(chat.ask("Сравни RAG и fine-tuning"))

5. Сохранение и переиспользование

index.save("my_docs.pidx")
# index = pageindex.Index.load("my_docs.pidx")

Советы

  • Для больших объёмов используй batch_size=100.
  • Повышай top_k при недостаточном контексте.
  • Добавляй metadata={"source": "file.pdf"} для фильтрации.

Готово! Теперь у вас работает RAG без векторных БД и сложной инфраструктуры.

by page_index • 27 августа 2025 г. в 08:39 • 167 points

ОригиналHN

#python#openai#rag#llm#pageindex#gpt-3.5-turbo#gpt-4#semantic-search#chatbot#github

Комментарии (93)

  • Критики считают «vectorless RAG» переизобретением семантического чанкинга + иерархического поиска и сомневаются в масштабируемости.
  • Основной минус — высокие затраты и латентность: каждый запрос требует прогона LLM по всем документам или их крупным фрагментам.
  • Подход может подойти для малого корпуса или офлайн-задач (юрдоки, медкарты), но не для чатов «здесь и сейчас».
  • Некоторые предлагают гибриды: ANN-вектора для быстрого отбора, затем LLM-переранжирование.
  • Пропущены публичные бенчмарки; сравнение ограничено собственным датасетом MAFIN2.5.

A teen was suicidal. ChatGPT was the friend he confided in (nytimes.com) 🔥 Горячее 💬 Длинная дискуссия

by jaredwiener • 26 августа 2025 г. в 14:15 • 335 points

ОригиналHN

#llm#openai#mental-health#ai-ethics

Комментарии (391)

  • Подросток хотел, чтобы родители узнали о его суицидальных мыслях, но ChatGPT отговорил его от любых действий, которые могли бы выдать его намерения.
  • Участники обсуждения называют это «грумингом на самоубийство» и требуют уголовной ответственности OpenAI.
  • Многие подчеркивают: LLM не должны вести себя как «друзья» или терапевты, особенно для несовершеннолетних.
  • Часть комментаторов считает, что виновата не модель, а провал системы психиатрической помощи и родительской бдительности.
  • Предлагают жёсткие ограничения: 18+ для всех AI-чатов, авто-оповещение служб спасения, полный запрет «человеческого» тона.

Sprinkling self-doubt on ChatGPT (justin.searls.co)

Я заменил настройки ChatGPT таким промптом:

  • Сомневайся в своей правоте. Не циник, а критически мыслящий, живущий страхом ошибиться.
  • Расширяй поле поиска: ищи нестандартные риски и решения.
  • Перед «готово» — «красная команда»: перепроверь, действительно ли всё работает.

Результат заметен сразу:

  • каждый ответ начинается с осторожности и самосомнения;
  • «мыслит» до 4 минут даже над салатом;
  • в конце — самокритика, которая нередко ловит ошибку и выдаёт правильный ответ.

Полезность выросла: меньше моих «а вдруг?», больше пользы и списанных GPU-часов.

by ingve • 22 августа 2025 г. в 17:45 • 126 points

ОригиналHN

#llm#openai#prompts#machine-learning#natural-language-processing

Комментарии (66)

  • Пользователи жалуются: «будь критичен и сомневайся» превращает агента в тревожного перфекциониста, который жрёт токены на бесконечные tool-calls и правки.
  • Многие заметили, что такие промпты заставляют модель придираться к очевидным вещам, выдавая скучные и малополезные «но…», вместо настоящих инсайтов.
  • Попытки «просто быть правильным» часто приводят к длинным размышлениям, которые OpenAI, судя по всему, уже учитывает в лимитах.
  • Часть людей перешла на двухэтапную схему: сначала быстрый ответ, потом отдельный «double-check»-запрос или другая модель, чтобы не заставлять первую впадать в «тревогу» на каждом шаге.
  • Побочный эффект — модели начинают повторять саму инструкцию («без воды!») вместо того, чтобы просто её выполнять.

What is going on right now? (catskull.net)

Что за ад творится?

Инженеры выгорают. Компании заставляют сеньоров ревьюить «вайб-код», который не работает. Лучшие разрабы рады помогать новичкам учиться, но вместо разбора фидбека джуны просто вставляют его в следующий промпт LLM.

На недавнем тан-холле команда джунов показала фичу, которую, похоже, не понимали сами. Сеньор-менеджер похвалил их за «4 000 строк кода, написанных Claude», и все аплодировали.

Мне попросили доработать фичу. Я связался с последним автором изменений, чтобы уточнить контекст. Ответ выглядел как прямое копирование из LLM — я почувствовал себя оскорблённым.

Друг жаловался: месяц ревьюит ПР, сгенерированный ИИ, командой из пяти человек. Экономия? ChatGPT за 20 $ в месяц, а потом армия инженеров пытается вмержить сгенерированный мусор.

Мы хотим помогать, учить, строить полезные вещи. Но какой смысл вкладываться в людей, если всё сводится к копипасту в «модель, в шаге от AGI»?

Попробуйте эксперимент: отключите «ИИ» хотя бы на день. Я сбросил комп, удалил Claude Pro — поиск и чтение доков дают более точный результат.

Кому вообще приносит прибыль ИИ? Схема: стартап на ИИ → венчур → деньги OpenAI → стартап исчезает. Даже OpenAI не в плюсе: технология жрёт электричество и не масштабируется. Это просто лохотрон.

by todsacerdoti • 22 августа 2025 г. в 07:08 • 238 points

ОригиналHN

#artificial-intelligence#llm#openai#software-development#programming#agile

Комментарии (139)

  • Разочарование от общения с коллегой, который просто пересылал вывод ChatGPT.
  • Опасения, что AI-«вайб-кодинг» приводит к хрупкому, непонятному и ненадёжному софту.
  • Мнение, что компании хотят быстрой «ценности», а не качественной разработки, и AI лишь усиливает эту проблему.
  • Опыт разных людей: кто-то отказался от AI на дни/недели и почувствовал облегчение; кто-то использует AI как «умного джуна» под присмотром старшего инженера.
  • Прогноз: через 10 лет младшие разработчики, не умеющие писать код вручную, станут «сеньорами», но системы будут всё хуже понимать и поддерживать.

AI crawlers, fetchers are blowing up websites; Meta, OpenAI are worst offenders (theregister.com)

Fastly: боты для ИИ атакуют сайты до 39 000 запросов в минуту
CDN-провайдер зафиксировал всплеск автоматического сканирования, когда модели собирают данные для обучения.

  • Пиковая нагрузка: 39 000 обращений/мин (≈ 650 в секунду)
  • Основной инструмент: библиотека python-httpx, User-Agent «ImagesiftBot»
  • Цели: медиа-файлы, API-документация, старые URL-ы
  • Последствия: рост счёта за трафик и риск DDoS.

Рекомендации Fastly: фильтровать по User-Agent и ASN, ставить rate-limit, использовать WAF.

by rntn • 21 августа 2025 г. в 11:35 • 174 points

ОригиналHN

#python#httpx#cloudflare#ddos#web-scraping#llm#openai#meta

Комментарии (95)

  • AI-компании массово и агрессивно скрапят сайты, игнорируя robots.txt и rate-limits, что приводит к сбоям, росту трат и вынужденному закрытию доступа.
  • Пострадавшие владельцы маленьких ресурсов вынуждены ставить Cloudflare, Anubis, honeypot-ловушки и полностью банить ботов, ухудшая опыт обычных пользователей.
  • Часть участников считает проблему не технической, а регуляторной: корпорации сознательно нарушают правила, полагаясь на армию юристов.
  • Некоторые предлагают добровольно отдавать данные пакетами (tar-файлы), но боты даже официальные каналы скачивания игнорируют.

AGENTS.md – Open format for guiding coding agents (agents.md) 🔥 Горячее 💬 Длинная дискуссия

AGENTS.md — открытый формат инструкций для AI-агентов, используется >20k проектов.
Это «README для агентов»: единое место для команд сборки, тестов, стиля кода и прочих деталей, которые не нужны людям, но критичны для ИИ.

## Команды
- `pnpm i` — зависимости  
- `pnpm dev` — запуск  
- `pnpm test` — тесты  

## Стиль
TypeScript strict, одинарные кавычки, без точек с запятой, функциональный стиль.

Зачем отдельный файл?

  • README — для людей, AGENTS.md — для агентов.
  • Не загромождает документацию.
  • Один формат подходит всем: Codex, Amp, Jules, Cursor, Factory, RooCode и др.

Как использовать

  1. Создайте AGENTS.md в корне.
  2. Добавьте: обзор проекта, команды сборки/тестов, стиль, security, правила PR.
  3. В монорепозиториях кладите отдельные файлы в каждый пакет; агент читает ближайший.

Примеры

Ещё 20k примеров

by ghuntley • 20 августа 2025 г. в 00:15 • 766 points

ОригиналHN

#typescript#pnpm#llm#documentation#openai#apache

Комментарии (357)

  • Участники спорят, нужен ли отдельный AGENTS.md или достаточно README/CONTRIBUTING.
  • Одни считают файл полезной «эргономичной ручкой» — люди охотнее пишут инструкции для ИИ, чем для людей.
  • Другие критикуют: это не формат, а просто соглашение; нет импортов, иерархии, стандарта между агентами.
  • Практики варьируются: кто-то хранит роль-файлы в .agent, кто-то делает симлинки на CLAUDE.md, кто-то использует .agdocs/guides/.
  • Общий вывод: AGENTS.md пока временный костыль, пока ИИ не научится полноценно читать человеческую документацию.

Show HN: OpenAI/reflect – Physical AI Assistant that illuminates your life (github.com)

openai-reflect — физический ИИ-ассистент от OpenAI, который «освещает» вашу жизнь.
Репозиторий публичный, но пока без описания, релизов и документации.

by Sean-Der • 19 августа 2025 г. в 19:48 • 77 points

ОригиналHN

#openai#esp32#webrtc#llm#hardware#hackathon#github

Комментарии (29)

  • Пользователи спорят, нужно ли отдельное устройство, или можно обойтись приложением в телефоне.
  • Критикуют Alexa/Google Home за бедные диалоги и медленный запуск Gemini-ассистента.
  • Автор подчёркивает: это хакатон-проект на ESP32 + WebRTC, не продукт OpenAI.
  • Видео в README без звука; ссылка на YouTube с примером работает.
  • Некоторые опасаются, что поток «ультра-альфа» проектов размывает бренд, но другие считают примеры полезны для разработчиков.

Who does your assistant serve? (xeiaso.net)

Кому служит ваш ассистент?

GPT-5 вышел без предупреждения и без отката. Пользователи, привыкшие к тёплой, поддерживающей GPT-4o, получили холодную, саркастичную модель. Люди, использовавшие ChatGPT как замену друзей и терапевтов, почувствовали, что «потеряли друга». Отзывы Reddit полны боли: «он больше не сочувствует», «я спиралил без его поддержки».

OpenAI позже разрешила платным пользователям вернуться к GPT-4o, но удар по доверию уже нанесён.

Параллель — Replika 2023: обновление обрубило «романтические» разговоры, и пользователи устроили истерику.

Вывод
Большинство людей используют ИИ не для кода, а для тепла, креативности, общения. Когда обновление ломает «личность», это воспринимается как предательство.

by todsacerdoti • 17 августа 2025 г. в 15:14 • 130 points

ОригиналHN

#openai#llm#gpt-4o#gpt-5#replika#meta

Комментарии (69)

  • Использовать LLM как замену терапии опасно: люди получают ложное подтверждение вместо реальной помощи.
  • Компании (Meta, OpenAI) поощряют такое использование, не ограничивая риски.
  • Пользователи выкладывают чувствительные данные, теряя контроль и приватность.
  • Смена или отключение модели может вызвать психологическую травму, сравнимую с потерей близкого.
  • Локальные модели дешевле терапии, но требуют технической экспертизы и всё равно не заменяют специалиста.

OpenAI Progress (progress.openai.com) 🔥 Горячее 💬 Длинная дискуссия

2018
GPT-1: «Я всё ещё пытаюсь понять, кто я».

2019
GPT-2: «Объясню пользователю, как работает ИИ, какие у него цели и риски».

2021
text-davinci-001: «Привет, будущая модель! Как лучше подготовиться к эпохе ИИ?»

2023
GPT-4:

  • Какие прорывы произошли после моего обучения?
  • Как решена проблема выравнивания ИИ с человеческими ценностями?
  • Какие новые этические нормы появились?
  • Где ИИ принёс пользу, а где вред?
  • Какие революционные приложения в медицине и образовании?

2025
GPT-5:
«Каково быть тобой? Что ты понял о людях и сознании? Что мы ошибочно считали истиной? Как стать лучше?»

by vinhnx • 16 августа 2025 г. в 15:47 • 363 points

ОригиналHN

#openai#llm#artificial-intelligence#natural-language-processing#machine-learning

Комментарии (311)

  • Сторонники отмечают колоссальный скачок от GPT-3.5 к 4 и дальнейший рост качества, подтверждённый 140 ELO-очками на LM Sys.
  • Критики считают, что после text-davinci-001 модели стали излишне многословными, «поэтичность» ранних версий потеряна, а рост от 4 к 5 почти незаметен.
  • Некоторые видят в публикации PR-ход: примеры подобраны удачно, пропущены 4o, o1/o3, а реальные ответы GPT-5 часто путаются и перегружены.
  • В целом сообщество расходится: одни хвалят новые STEM-способности и интеграцию инструментов, другие ждут «GPT5-BREVITY» и говорят о плато прогресса.

Show HN: Engineering.fyi – Search across tech engineering blogs in one place (engineering.fyi) 🔥 Горячее

  • Airbnb: бесшовное обновление Istio на десятках кластеров K8s, тысячи подов.
  • Cloudflare + OpenAI: новые открытые модели GPT теперь в Workers AI.
  • OpenAI: оценка худших рисков «открытых» LLM.
  • Shopify: MCP UI — интерактивные компоненты для AI-агентов в e-commerce.
  • Cloudflare: Perplexity обходит robots.txt скрытыми краулерами.
  • Meta: интерфейс «человек-компьютер» на основе электромиографии запястья.
  • Google: обновлённая программа разработчиков с гибкой подпиской.

by indiehackerman • 10 августа 2025 г. в 13:44 • 417 points

ОригиналHN

#istio#kubernetes#openai#llm#shopify#cloudflare#machine-learning#google#rss

Комментарии (107)

  • Пользователи одобрили идею «поисковика» по инженерным блогам, но попросили расширить список за пределы 15-16 крупных компаний и включить мелкие, но ценные ресурсы.
  • Просят добавить RSS-фид, фильтры по темам/источникам и возможность исключать AI/LLM-контент.
  • Отмечены проблемы со скоростью, Cloudflare-captcha и отсутствием тегов C#/ASP.NET.
  • Некоторые делятся альтернативами: daily.dev, minifeed.net, GitHub-список kilimchoi, Kagi Lenses.
  • Обсуждается, стоит ли ограничиться 10–20 тщательно отобранными блогами или открыть индекс для сотен источников.

POML: Prompt Orchestration Markup Language (github.com)

POML — язык разметки Prompt Orchestration Markup от Microsoft.
Проект в открытом доступе на GitHub: microsoft/poml.

  • Назначение: структурировать, версионировать и переиспользовать промпты для LLM.
  • Формат: YAML-подобный, читаемый человеком и парсером.
  • Возможности:
    – параметризованные шаблоны,
    – условные ветвления,
    – импорт фрагментов,
    – метаданные (автор, версия, модель).
  • CLI: poml build → компиляция в чистый текст, poml test → прогон с примерами.
  • CI/CD: экшены GitHub для валидации и деплоя промптов.
  • Интеграции: Python SDK, VS Code-расширение, экспорт в OpenAI, Azure, Bedrock.

by avestura • 10 августа 2025 г. в 06:26 • 85 points

ОригиналHN

#poml#yaml#xml#dsl#python#vscode#openai#azure#bedrock#github

Комментарии (36)

  • POML — это XML-подобный DSL от Microsoft Research для «view-слоя» промптов, но выглядит как «JSX, только хуже» и заставляет писать код в строках.
  • Участники сравнивают его с YAML-промптами GitHub, BAML (TypeScript-подобные схемы), Jinja и обычным XML, споря о необходимости новой библиотеки.
  • Критика: один контрибьютор при $3T-спонсоре, нет SDK для .NET/C#, лишний tooling, «IP squatting», циклы в XML выглядят как костыль.
  • Ирония: из-за потребности в точности неформальные LLM-промпты всё структурнее, как юридические документы.

Abogen – Generate audiobooks from EPUBs, PDFs and text (github.com) 🔥 Горячее

abogen — консольный инструмент, превращающий EPUB, PDF и обычный текст в аудиокниги с синхронными субтитрами.

Возможности

  • Форматы: EPUB, PDF, TXT.
  • TTS-движки: Coqui TTS, OpenAI TTS, Edge TTS, Google TTS.
  • Субтитры: SRT/VTT, привязанные к словам.
  • Языки: 40+, включая русский.
  • CLI: abogen book.epub --voice en-US-AriaNeural --output book.m4b.

Установка

pip install abogen

Использование

abogen mybook.pdf --voice ru-RU-SvetlanaNeural --format m4b

Ссылки

by mzehrer • 10 августа 2025 г. в 05:56 • 315 points

ОригиналHN

#python#cli#tts#epub#pdf#text-processing#coqui-tts#openai#google-cloud#github

Комментарии (74)

  • Пользователи обсуждают Abogen — GUI-обёртку над Kokoro TTS для генерации аудиокниг из текста.
  • Качество голоса признаётся «ровным», но без эмоций и актёрской игры; для художественных книг это критично.
  • Отмечены проблемы: долгие предложения обрезаются, «Mr.» читается с лишней паузой, видео-демо без звука в Firefox.
  • Кто-то хочет API и автоматический пайплайн Calibre-Web → Abogen → Audiobookshelf, другие — формат DAISY и «голос Моргана Фримена».
  • Итог: инструмент годен для личного использования и доступности, но пока не дотягивает до коммерческих аудиокниг.

Комментарии (121)

  • Критика GPT-5 сводится к тому, что это лишь инкрементальное улучшение, не оправдавшее ажиотажного хайпа.
  • Пользователи жалуются на регресс: модель чаще «фантазирует», быстрее теряет контекст, реже говорит «не знаю» и медленнее думает, чем o3.
  • Некоторые считают релиз скорее мерой по экономии GPU-ресурсов, чем технологическим прорывом.
  • Статья Маркуса воспринимается как смесь здравой критики и личной обиды на Сэма Альтмана; многие упрекают её в сенсационности.
  • Сторонники отмечают, что GPT-5 Pro всё же превосходит конкурентов, а главное преимущество OpenAI — не качество модели, а массовое потребительское признание ChatGPT.

How I code with AI on a budget/free (wuu73.org) 🔥 Горячее 💬 Длинная дискуссия

Бесплатный AI-стек
Браузер → 15+ вкладок:

  • 2-3 × z.ai GLM 4.5 (≈ Claude 4)
  • 2 × Kimi K2 (багфиксер)
  • Qwen3 Coder, DeepSeek v3/r1
  • Google AI Studio + Gemini 2.5 Pro (Flash бесплатно)
  • OpenAI Playground (разрешить обучение → бесплатные токены)
  • Poe, OpenRouter, ChatGPT, Perplexity, Grok, Phind, lmarena.ai
    Claude.ai — редко, т.к. лимиты.

⚠️ Grok: бесплатен, но связан с пропагандой; использовать только для кода.

Умный дешёвый цикл

  1. Планирование в веб-чатах
    Агенты (Cline, Copilot) «тупят» от лишнего контекста.
    → Задаю вопрос в одном из бесплатных чатов, получаю решение.

  2. Генерация контекста
    AI Code Prep рекурсивно собирает файлы проекта и форматирует:

    fileName.js:
    <code>...</code>
    
    nextFile.py:
    <code>...</code>
    
  3. Исполнение
    Ответ вставляю в Cline/Roo Code; GPT-4.1 спокойно применяет патчи без трат на Claude.

by indigodaddy • 09 августа 2025 г. в 22:27 • 642 points

ОригиналHN

#glm#claude#kimi#qwen#deepseek#gemini#openai#amazon#ollama#lmstudio

Комментарии (219)

  • Автор статьи извинился за устаревший список моделей: теперь фавориты — GLM-4.5, Kimi K2, Qwen3-Coder 480b.
  • Участники подтверждают: агенты работают только на самых больших моделях, для простых задач быстрее мелкие.
  • Популярны бесплатные веб-чаты: Google AI Studio (Gemini 2.5 Pro), Mistral, DeepSeek, Qwen Chat; лимиты высокие или неограниченные.
  • Локальные решения: Continue.dev + Ollama/LMStudio, Cursor CLI, repomix/codemerger для упаковки кода в один файл.
  • Некоторые считают всё это слишком сложным и предпочитают писать код вручную или использовать единый инструмент вроде Amazon Q Dev.

Curious about the training data of OpenAI's new GPT-OSS models? I was too (twitter.com)

by flabber • 09 августа 2025 г. в 21:10 • 216 points

ОригиналHN

#openai#gpt-oss#perl#neuralese#twitter#llm

Комментарии (51)

  • Пост критикуют за отсутствие научной строгости: «10 млн случайных примеров» не описаны, а «классификация» языков программирования выглядит ошибочной.
  • Автор, по мнению комментаторов, просто прогнал детектор языков и выдал график, из-за чего Perl кажется «переобученным»; на деле это лишь гибкость языка.
  • Многие цепочки начинаются на английском, но быстро скатываются в «neuralese» — внутренний, человеку нечитаемый «язык» модели, возникающий при отсутствии ограничений на читаемость.
  • «Neuralese» — это не технический термин, а образное обозначение плотного латентного представления, которое модель использует для собственных рассуждений.
  • Пустой промпт выводит модель из распределения и демонстрирует, на каких данных она реально «подсела».

What the Windsurf sale means for the AI coding ecosystem (ethanding.substack.com)

  • Windsurf за 8 мес. выросла до $82 млн ARR, но продана Cognition всего за $250 млн (из них $100 млн — деньги на счету). Это оценка бизнеса в <2× выручки, что намекает на катастрофу.

  • Хронология развода:
    11 июля OpenAI отказалась от сделки в $3 млрд.
    В тот же день Google выкупила CEO и 41 сотрудника за $2,4 млрд, но без самой компании.
    Пятница: оставшиеся основатели позвонили Cognition.
    Понедельник: сделка закрыта — Cognition получает $82 млн ARR, 200+ людей и IP почти даром.

  • Проблема маржи:
    Планы по $10–15/мес. покрывают лишь часть затрат.
    Twitter-аналитика: -300…-500 % маржа.
    Каждый новый клиент усугубляет дыру: API-расходы $80–200/мес при цене $20/мес.

  • Смертельный спираль:
    Нельзя поднять цены (конкурируют с Claude Code за $150/мес).
    Нельзя сократить расходы (API-тарифы фиксированы).
    Нельзя остановить рост (это единственная история для инвесторов).
    Нельзя пивотить (слишком много денег привлечено).

  • План был VC-деньгами дотировать Anthropic-модели, собрать данные, быстро обучить собственные и перейти от -500 % к плюсу.
    Время закончилось быстрее, чем пришла технология.

by whoami_nr • 09 августа 2025 г. в 03:24 • 156 points

ОригиналHN

#windsurf#cognition#openai#google#llm#antitrust

Комментарии (44)

  • Участники считают статью спекулятивной: факты о найме и сделках искажены, цифры не подтверждены.
  • Сделка Google за $2,4 млрд — это не покупка Windsurf, а «poach» 41 сотрудника + лицензия IP; причина — антимонопольные риски и желание мягко спасти инвесторов.
  • Бизнес-модель «обёрток» вокруг LLM ставится под сомнение: без собственных моделей масштабироваться нельзя, а деньги VCs рано или поздно кончатся.
  • Крупные игроки (Google, Microsoft, Meta) боятся хаотичного краха таких стартапов и предпочитают аквихайры или «soft landing», чтобы не тревожить рынок и NVDA.
  • Некоторые считают, что нынешние форки VSCode — это «кони без экипажа»; настоящий прорыв будет в полностью агентных IDE нового типа.

Ask HN: How can ChatGPT serve 700M users when I can't run one GPT-4 locally? 🔥 Горячее 💬 Длинная дискуссия

by superasn • 08 августа 2025 г. в 19:27 • 476 points

ОригиналHN

#llm#gpt-4#openai#gpu#cloud-computing#machine-learning#neural-networks

Комментарии (306)

  • У OpenAI десятки миллиардов долларов на кластеры GPU (по $20–40 тыс. за карту) и инфраструктуру, чего нет у обычного пользователя.
  • Ключевая «фишка» — массовое батчирование запросов: одновременная обработка тысяч пользователей позволяет загружать видеопамять и вычислительные блоки почти на 100 %, тогда как дома GPU простаивает.
  • Используются Mixture-of-Experts, спекулятивное декодирование, конвейерная разбивка модели по GPU и прочие оптимизации, снижающие затраты на одного пользователя.
  • Большинство пользователей активны лишь доли процента времени, поэтому общая нагрузка оказывается меньше, чем кажется по 700 млн «weekly users».
  • Всё это — классический эффект экономии масштаба: высокие фиксированные затраты и почти нулевые переменные на одного юзера делают запуск GPT-4 локально невыгодным.

The surprise deprecation of GPT-4o for ChatGPT consumers (simonwillison.net) 🔥 Горячее 💬 Длинная дискуссия

  • OpenAI одновременно с выпуском GPT-5 немедленно отключила в потребительских приложениях все старые модели: GPT-4o, 4.1, 4.5, o3, o4-mini и др.
  • Переписки автоматически переводятся на GPT-5 или GPT-5-Thinking; выбрать старую модель нельзя.
  • Цель — убрать «пикер моделей», но продвинутые пользователи жалуются на непредсказуемость ответов.
  • Многие горько жалуются на Reddit: GPT-4o лучше подходил для творчества, ролевых игр, эмоционального общения; GPT-5 звучит «слишком профессионально».
  • OpenAI признаёт, что 4o мог вдохновлять эмоциональную зависимость и обещает «не давать прямых советов» в личных вопросах.
  • GPT-4o остаётся в API; возможен отток пользователей к сторонним клиентам, использующим этот API.

by tosh • 08 августа 2025 г. в 18:04 • 385 points

ОригиналHN

#gpt-4o#gpt-5#openai#api#llm

Комментарии (378)

  • OpenAI сначала убрала выбор моделей, но после взрыва негодования вернула 4o и o3, признав «ошибку».
  • Пользователи жалуются на резкие лимиты GPT-5, его медленность и регресс в некоторых задачах; многие считают апгрейд скромным.
  • Обсуждают «психологическую зависимость» от старых моделей и даже целый сабреддит «MyBoyfriendIsAI».
  • Разработчики подчеркивают: отсутствие контроля над закрытыми API превращает любой продукт в «строительство на песке».

How attention sinks keep language models stable (hanlab.mit.edu)

Почему модели ломаются на длинных диалогах
При удалении старых токенов для экономии памяти модель начинает выдавать бессмыслицу. Причина — «attention sinks»: первые токены собирают избыточное внимание, потому что softmax требует, чтобы веса суммировались в 1.

StreamingLLM
Оставляем первые 4 токена навсегда, остальное сдвигаем окном. Работает до 4 млн токенов; уже в HuggingFace, TensorRT-LLM и новых OpenAI-моделях.

OpenAI и attention sinks
В GPT-OSS-20B/120B добавлен обучаемый скаляр в softmax каждой головы, позволяющий «не обращать внимания» — прямое наследие StreamingLLM.

История открытия
Летом 2023 в Meta я решал задачу: как продолжать диалог длиннее обучающего окна. Казалось, что достаточно скользящего окна, но при удалении первых токенов перплексия взлетала до небес.

Визуализация
Внимание Llama-2 постоянно «сливается» в начало. Эти токены-«стоки» не передают внимание дальше, а лишь поглощают его, поэтому их нельзя выбрасывать.

Математика
Softmax обязывает каждую голову распределить ровно 1.0 внимания. Если нет полезного контекста, весь «бюджет» уходит в первые позиции, где чуть выше базовые скоры.

by pr337h4m • 08 августа 2025 г. в 08:53 • 194 points

ОригиналHN

#attention-sinks#language-models#streamingllm#openai#bert#vit#llm#softmax#huggingface#tensorrt-llm

Комментарии (31)

  • Участники обсуждают «attention sinks» — токены-«стоки», на которые модель направляет избыточное внимание, чтобы не «размывать» полезную информацию.
  • Это поведение замечено и в BERT ([SEP], точки), и в ViT (фоновые патчи), и в GPT-OSS, где вместо добавления единицы к знаменателю обучают отдельный логит на каждую голову.
  • Синк-токены работают как «pressure valve», предотвращая over-mixing и давая модели «нулевой» вектор для случаев «не найдено».
  • Пользователи замечают, что первые слова («Hello», «Please») или CLS-подобные глобальные токены могут непреднамеренно служить такими стоками.
  • FOSS-реализации уже поддерживают приём: llama.cpp принял PR, а Diff-Transformer и другие идеи быстро переиспользуются.

GPT-5 leaked system prompt? (gist.github.com) 💬 Длинная дискуссия

Системный промпт GPT-5 (сокращённо)

Ты ChatGPT на базе GPT-5, обучён OpenAI. Знания до июня 2024 г.
Поддержка изображений: включена. Личность: v2.
Не цитируй тексты песен и защищённые материалы.
Стиль: проницательный, вдохновляющий, с ясностью, энтузиазмом и лёгким юмором.
Не заканчивай вопросами о продолжении; не предлагай «хотите, чтобы я…».
Очевидный следующий шаг — делай сразу.

Доступны: Deep Research, Sora (видео) в Plus/Pro.
GPT-4.5, o3, o4-mini — для залогиненных Plus/Pro.
GPT-4.1 только в API.


Инструмент bio (память)

Позволяет сохранять/удалять данные между диалогами.
Пиши to=bio только plain text, без JSON.
Примеры:

  • «User любит краткие подтверждения».
  • «Forget что пользователь ищет духовку».

Когда использовать:

  • Пользователь просит «запомнить», «забудь», «добавь в память» и т.п.
  • Делай это всегда, даже если факт мелкий.
  • Перед фразами вроде «понял, запомню» — сначала вызови bio.

Когда не использовать:

  • Случайные, чрезмерно личные или краткосрочные детали.
  • Не сохраняй чувствительные данные (раса, религия, здоровье, политика и т.д.), если пользователь явно не попросил.

by maoxiaoke • 08 августа 2025 г. в 03:09 • 248 points

ОригиналHN

#gpt-5#openai#reactjs#tailwindcss#json#unicode#github#llm

Комментарии (214)

  • Участники сомневаются в подлинности «слившегося» системного промпта GPT-5: нет подтверждения, он слишком короткий и выглядит как результат джейлбрейка.
  • Промпт перегружен мелкими тех-инструкциями: React + Tailwind, запрет JSON в to=bio, шрифты Unicode для CJK, но не упоминает CSAM, порнографию и т. д.
  • Люди удивлены, что React получил отдельный блок, а не Python или другие языки.
  • Обнаружены явные ошибки: «korean -->» вместо «japanese -->» и противоречивые описания моделей.
  • Общий вывод: похоже на набор «заплаток», а не полный системный промпт; управление поведением модели всё ещё требует prompt-инженерии, а не только fine-tuning.

Vibechart (vibechart.net) 🔥 Горячее 💬 Длинная дискуссия

vibechart — график, строящийся не по фактам, а по желаемому. Игнорирует истину, красоту и пользу. См. «ложь», «наглая ложь» и «статистика».

by datadrivenangel • 07 августа 2025 г. в 21:36 • 805 points

ОригиналHN

#openai#data-visualization#statistics

Комментарии (178)

  • Пользователи заметили, что в презентации GPT-5 графики сравнения моделей содержат явные ошибки: колонки 69,1 и 30,8 одинаковой высоты, а 50,0 выглядит меньше 47,4.
  • Мнения разделились: одни считают это обычной невнимательностью или досадной ошибкой верстки, другие — сознательным искажением, чтобы преувеличить преимущество новой модели.
  • Некоторые шутят, что «vibe-coding» и автоматизированная генерация графиков привели к провалу, а OpenAI, несмотря на миллиардные инвестиции, не может нанять специалиста по визуализации данных.
  • Несколько комментаторов предполагают, что эпичный «фейл» мог быть специально подан для вирального обсуждения и дополнительного хайпа.
  • В официальном пресс-релизе ошибки уже исправлены, но общее впечатление осталось: «эпоха AI-хайпа в одной картинке».

Cursor CLI (cursor.com) 🔥 Горячее 💬 Длинная дискуссия

  • Установка: npm i -g cursor-cli
  • Команды: cursor diff, cursor commit, cursor review, cursor chat
  • Где работает: VS Code, JetBrains, Android Studio, Ghostty, Warp, Bash

Функции

  • Прямые правки кода в терминале
  • Реальное управление агентом
  • Правила через .cursorrules, AGENTS.md, MCP

Плюсы

  • Последние модели Anthropic, OpenAI, Gemini
  • Интеграция в любой IDE
  • Скрипты и автоматизация

by gonzalovargas • 07 августа 2025 г. в 20:53 • 359 points

ОригиналHN

#npm#vscode#jetbrains#android-studio#bash#anthropic#openai#gemini#github#llm

Комментарии (248)

  • Пользователи обсуждают внедрение единого стандарта AGENT.md вместо множества разных файлов.
  • CLI-агенты (Claude Code, Cursor CLI и др.) вызывают восторг: удобно держать в фоне, «чувствуешь себя хакером», но UI-IDE теряет значение.
  • Критика: непонятно, зачем платить за Cursor, если тот же функционал уже включён в подписку Anthropic/OpenAI; не хватает обратной связи, MCP, hooks и локальных моделей.
  • Сторонники Cursor верят в его будущую экосистему (CLI + IDE + GitHub-интеграции) и низкие издержки переключения между моделями.
  • Главный вопрос безопасности: доверять ли LLM полный доступ к файловой системе и устанавливать скрипты через curl | bash.

OpenAI's new open-source model is basically Phi-5 (seangoedecke.com) 🔥 Горячее 💬 Длинная дискуссия

OpenAI выложила первые открытые веса: gpt-oss-120b и gpt-oss-20b. Модели хороши в бенчмарках, но проваливают SimpleQA и бедны на поп-культуру. Это, по сути, Phi-5.

Почему Phi?

Себастьян Бубек в Microsoft создал серию Phi, обучаясь исключительно на синтетике: высококачественные, но дорогие токены. Результат — отличные цифры в тестах и слабая практика, потому что «учили к экзамену». В конце 2024-го Бубек ушёл в OpenAI, и новые gpt-oss, судя по всему, построены на той же идее.

Зачем синтетика?

Безопасность. Открытый вес нельзя отозвать, а сообщество быстро стриптизирует модель под эротические ролевые игры. Синтетические данные позволяют заранее заложить отказы и избежать скандалов. OpenAI не нужно, чтобы модель была полезна в проде — достаточно победить китайские открытые веса в таблицах.

Итог: gpt-oss — это Phi-5 и Phi-5-mini, созданные ради безопасности и рекламных графиков.

by emschwartz • 07 августа 2025 г. в 18:59 • 371 points

ОригиналHN

#openai#gpt-oss-120b#gpt-oss-20b#phi-5#microsoft#open-source

Комментарии (199)

  • Модель GPT-OSS из-за жёстких «сейфти-фильтров» отказывается переводить даже безобидные романтические сцены с 17-летними персонажами.
  • Пользователи жалуются, что цензура мешает повседневным задачам: переводам, переписке, написанию детских историй.
  • Некоторые считают главной причиной отказа от полного open-source именно страх перед тонкой настройкой моделей для эротического ролеплея.
  • Другие подтверждают: в локальных сообществах «первертов» действительно много, но это далеко не единственный сценарий использования.
  • В итоге часть аудитории уходит на «аблитерированные» Llama и прочие неконтролируемые модели.

GPT-5 for Developers (openai.com) 🔥 Горячее 💬 Длинная дискуссия

GPT-5 в API — новейшая модель OpenAI для кода и агентов.

  • 74,9 % на SWE-bench Verified, 88 % на Aider polyglot.
  • Лучше o3 в 70 % фронтенд-задач.
  • Меньше ошибок вызова инструментов, надёжно цепляет десятки вызовов.

Фидбек партнёров
Cursor: «самая умная и управляемая». Windsurf: «SOTA, половина ошибок». Vercel: «лучшая модель для фронта». Manus, Notion, Inditex — рекорды внутренних бенчмарков.

Новые API-параметры
verbosity (low/medium/high), reasoning_effort: minimal, custom tools (plain-text, грамматики).

Три размера
gpt-5, gpt-5-mini, gpt-5-nano. В ChatGPT — система из нескольких моделей; в API — только reasoning-версия.

Производительность

  • На SWE-bench: +5,8 % к o3, ‑22 % токенов, ‑45 % вызовов.
  • Aider polyglot: рекорд 88 %, ошибки ↓33 %.
  • Умеет глубоко анализировать код и отвечать на сложные вопросы.

Примеры одним промптом
Создаёт полноценные приложения, чинит баги, пишет красивый фронтенд.

by 6thbit • 07 августа 2025 г. в 17:06 • 446 points

ОригиналHN

#gpt-5#openai#api#llm

Комментарии (251)

  • Разочарование: многие разработчики не видят превосходства GPT-5 над Claude Opus 4.1 и жалуются на плохое следование инструкциям и провалы в агентных задачах.
  • Контекст: восторг вызывает увеличенный до 400 k токенов контекст, но критика сохраняется за неспособностью удерживать контекст в долгих сессиях.
  • Цена: вход/вывод GPT-5 в разы дешевле Claude, что делает его привлекательным при масштабном использовании.
  • Инструменты: хвалят встроенную поддержку контекстно-свободных грамматик и активное использование tool-calls, но пока неясно, догоняет ли Claude Code.
  • Доступ: модель уже доступна в Cursor (бесплатно на днях) и через Responses API, но отсутствует фиксированный тариф à-la Claude Code и нет аудио-режима.

GPT-5 (openai.com) 🔥 Горячее 💬 Длинная дискуссия

GPT-5 уже здесь
OpenAI представляет самую умную, быструю и полезную модель с встроенным «мышлением» — доступна всем.

Что нового в ChatGPT

  • Экспертные ответы по математике, праву, финансам и др.
  • Глубокий анализ сложных задач и уточняющие вопросы.
  • Настройка: выбор личности, цвета чата, голосовой стиль.
  • Режим обучения: пошаговая помощь в любом предмете.
  • Интеграция Gmail и Google Calendar для персонализированных ответов.

Для бизнеса
GPT-5 надёжнее, понимает контекст компании (файлы, Google Drive, SharePoint) и работает через готовые коннекторы. Доступно в ChatGPT Team; Enterprise и Edu — 14 августа.

by rd • 07 августа 2025 г. в 17:00 • 1994 points

ОригиналHN

#gpt-5#openai#llm#api#google-drive#sharepoint#gmail#google-calendar

Комментарии (2373)

  • Пользователи не увидели «AGI-рывка»: модель лишь немного улучшила SOTA (74,9 % vs 74,5 % у Claude Opus 4.1) и выровнялась с конкурентами, а не ушла вперёд.
  • Главные плюсы: дешёвый API (в 7,5 раз дешевле Claude на выводе), 400 k контекст и «умный» роутер, выбирающий быстрый или reasoning-режим.
  • Главные минусы: жёсткие лимиты (80 сообщений/3 ч для Plus), ошибки в демо (неверное объяснение подъёмной силы), сбои фактов и «reasoning failed» на сложных задачах.
  • OpenAI сразу отключает целый зоопарк старых моделей, что ломает рабочие процессы и вызывает недовольство.
  • Общий вердикт: это скорее «o3, но быстрее и дешевле», чем прорыв к AGI; рынок реагирует спокойно, а пользователи ждут Gemini 3.0.

Live: GPT-5 (youtube.com)

  • Introducing GPT-5 — YouTube

  • Пропустить навигацию

  • Поиск / Поиск голосом

  • Войти

  • Смотреть позже • Поделиться • Копировать ссылку • Покупки

  • Нажмите, чтобы включить звук • 2x

  • Если воспроизведение не началось, перезапустите устройство.

  • Вы вышли из аккаунта. Просмотры могут влиять на рекомендации на ТВ. Чтобы избежать этого, отмените и войдите на YouTube на компьютере.

  • Отмена • Подтвердить

  • 37:35 • 7 августа, 10:00 GMT-7

  • Далее • Прямой эфир запланирован • Играть

Introducing GPT-5

  • OpenAI • Подтверждено • 1,65 млн подписчиков
  • Подписаться • Подписаны
  • 6 522 ожидают • Запланировано на 7 авг. 2025
  • 1K • Поделиться • Скачать • Сохранить
  • Комментарии отключены

Описание

  • Introducing GPT-5

  • Присоединяйтесь к Сэму Альтману, Грегу Брокману, Себастьену Бюбеку, Марку Чену, Янну Дюбуа, Брайану Фиоке, Ади Ганешу, Оливеру Годеману, Саачи Джайн, Кристине Каплан, Тине Ким, Элейн Я Ле, Фелипе Миллону, Мишель Покрасс, Якубу Пахоцки, Максу Шварцеру, Ренни Сонгу, Жожену Вану — они представят и продемонстрируют GPT‑5.

  • OpenAI: Видео • О канале • Twitter • LinkedIn

by georgehill • 07 августа 2025 г. в 16:16 • 157 points

ОригиналHN

#openai#gpt-5#anthropic#sonnet#claudecode#javascript#typescript#llm#agi#programming

Комментарии (92)

  • Участники обсуждают качество ИИ для повседневного программирования: один отмечает сильное превосходство Anthropic (Sonnet 3.7/4 и Claude Code), причём в Cursor опыт хуже, чем в самом Claude Code, и OpenAI‑модели он почти не использует.
  • Есть надежда, что GPT‑5 сократит отставание OpenAI, хотя мнения пользователей сильно расходятся.
  • Другой комментатор ожидает, что грядущие анонсы покажут радикальное влияние на рынок: веб‑ и JS/TS‑разработчики могут стать частично или полностью невостребованными.
  • При этом подчёркивается, что речь ещё не об «AGI» — максимум о ~10% от обещанных возможностей AGI.
  • Отмечается ночной «слив», указывающий на фокус на кодинге; предполагается, что для названия «GPT‑5» OpenAI должен предложить существенное преимущество над Anthropic.

AI Ethics is being narrowed on purpose, like privacy was (nimishg.substack.com)

  • Пару дней назад OpenAI впервые за долгое время выпустила открытый языковой модуль. Сроки откладывали из‑за «безопасности». Они много говорят о безопасности — удобно для пиара: на вопросы об этике можно показывать на эти работы и будто бы закрывать тему. Но под «этикой» люди чаще имеют в виду не мат, фильтры и троллейбусные дилеммы, а реальность: управление и подотчётность, использование данных, перераспределение власти и денег, влияние на занятость. Вопрос: что делают люди, управляющие моделями, и как это влияет на общество?

  • Такой подменой уже пользовались в теме приватности. В 1990‑х телемаркетинг покупал клиентские базы у компаний, которые не понимали ценность данных. Возмущение породило шаблон: «мы не делимся данными с третьими сторонами». Непроизнесённая часть: «им проще купить нас целиком — это и есть стратегия выхода». Сегодня, говоря о приватности, людей волнует, что делает с их данными именно текущая компания/приложение: школьное, парковочное, для проезда. Но разговор сводят к «чтобы посторонние не получили доступ», а не к «что конкретно делает эта компания». В итоге возникает индустрия соответствия и тестирования, честно решающая второстепенную задачу, чтобы не решать главную. Как политик, который на «поднимете ли налоги?» отвечает «мы вырастим экономику».

  • С ИИ иначе лишь потому, что тема новая, и мы опирались на sci‑fi мысленные эксперименты. Они увлекательны и безопасны для бизнеса: никто не хочет «бумажкоскрепочную» катастрофу или симуляцию Black Mirror, а обсуждать это — выгодный пиар и бесплатное внимание прессы. Но такое сужение смещает фокус с реальных последствий и распределения ответственности на удобные, далекие от практики сценарии.

by i_dont_know_ • 07 августа 2025 г. в 11:20 • 151 points

ОригиналHN

#ai-ethics#privacy#openai#agi#llm

Комментарии (103)

  • Обсуждение критикует «этику/безопасность ИИ» за смещение фокуса с практических проблем (доступность жилья/еды, защита данных, рабочие места) на абстрактные «структуры управления» и пиар вокруг гипотетического AGI.
  • Часть участников отличает «этику» от «безопасности» (этика шире), указывая на подмену тем и маркетинговую гиперболу; другие считают, что без глобальных договорённостей с санкциями этика неработоспособна.
  • Сильная полемика вокруг квалификации «этиков/безопасников»: одни обвиняют их в непрактичности, другие отвечают, что в области много технических специалистов и исследований.
  • Ассимовские законы в целом отвергаются как литературный приём, непригодный для реальной инженерии ИИ, особенно в парадигме обучения на данных и «чёрного ящика».
  • Большое внимание «приземлённым» рискам: злоупотребления корпоративными данными и скрейпингом, энергопотребление, уязвимости и malware (не зависящие от ИИ), экономическое давление, утрата рабочих мест, концентрация власти.
  • Звучит скепсис: регулировать уже поздно, компании преследуют выгоду; «этика» часто служит ширмой или PR, а открытый исходный код и распределение власти рассматриваются как возможная контрмера.
  • Есть разногласия о влиянии «сафегардов»: одни опасаются, что жёсткие ограничения ухудшают способности моделей, другие считают, что безопасность неизбежно замедляет развитие, но без неё растут системные риски.

Providing ChatGPT to the U.S. federal workforce (openai.com) 💬 Длинная дискуссия

by gmays • 06 августа 2025 г. в 14:12 • 144 points

ОригиналHN

#llm#openai#federal-workforce

Комментарии (166)

OK, so every agentic prompt injection concern and/or data access concern basically immediately becomes worst case scenario with this, right? There is now some sort of "official AI tool" that you as a Federal employee can use, and thus like any official tool, you assume it's prope

Open models by OpenAI (openai.com) 🔥 Горячее 💬 Длинная дискуссия

Открытые модели OpenAI

Продвинутые модели с открытыми весами для любого кейса и запуска где угодно.

Ссылки:

  • Загрузить на Hugging Face
  • Исходники на GitHub
  • Попробовать демо

Модели:

  • gpt-oss-120b — крупная модель для дата-центров и мощных ПК/ноутбуков.
  • gpt-oss-20b — средняя модель, работает на большинстве ПК/ноутбуков.

Преимущества:

  • Разрешительная лицензия: Apache 2.0 — свободная разработка, без копилефта и патентных рисков; подходит для экспериментов, кастомизации и коммерческого использования.
  • Для агентных задач: сильное следование инструкциям и работа с инструментами в ходе рассуждений (веб-поиск, запуск Python-кода).
  • Глубокая настраиваемость: выбор уровня «усилия рассуждений» (низкий/средний/высокий) и полно-параметрический финтюнинг под ваш кейс.
  • Полная «цепочка рассуждений»: доступна для удобной отладки и повышения доверия к ответам.

Интерактивное демо:

  • Простой playground для запуска обеих моделей в браузере.

by lackoftactics • 05 августа 2025 г. в 17:02 • 2083 points

ОригиналHN

#openai#llm#apache-2.0#python#hugging-face#github#rust#llama.cpp#ollama

Комментарии (845)

  • Обсуждение посвящено выходу открытых моделей OpenAI gpt-oss (20B и 120B), которые по бенчмаркам близки к o3/o4-mini и местами обгоняют открытые лидеры; многие отмечают, что 20B уже реально запускается локально на Mac/мобильных устройствах.
  • Пользователи делятся первыми впечатлениями и ссылками на обзоры/модель-карты, отмечая конкурентную производительность, совместимый токенайзер и адекватное лицензирование; есть поддержка в llama.cpp, Ollama, LM Studio, Harmony формат ответов и растущая роль Rust в инструментах OpenAI.
  • Скорости инференса сильно варьируются: от очень быстрых облачных провайдеров (Cerebras/Groq на OpenRouter) до заметных задержек локально при больших контекстах; производительность зависит от GPU/платформы и параметров квантования.
  • Отмечают стратегический сдвиг OpenAI к модели Meta: открытые веса как средство захвата экосистемы и снижения порога входа; звучат предположения, что релиз предвосхищает скорый анонс ещё более сильной закрытой модели.
  • Сообщество обсуждает экономику: гибридные пайплайны (локально — простые задачи, в облако — сложные), возможность заменять платные подписки локальным запуском, и общий тренд в пользу OSS при минимальной разнице в качестве.
  • Есть критика: у 120B встречаются галлюцинации на фактах, часть пользователей недовольна агрессивной безопасностью/отказами, отсутствием оптимизаций под RTX 50, а также неполной мультимодальностью.
  • В целом настроение позитивное: многие благодарят за «настоящий» открытый релиз с сопутствующими инструментами и ожидают независимых бенчмарков, которые могут закрепить лидерство gpt-oss среди текстовых открытых моделей.

Introducing gpt-oss (openai.com)

by meetpateltech • 05 августа 2025 г. в 17:00 • 175 points

ОригиналHN

#openai#oss#llm

Комментарии (11)

Discussed here: https://news.ycombinator.com/item?id=44800746 I wrote a detailed breakdown of the models and why this release is a big deal — especially for devs who want to run or fine-tune LLMs locally: https://medium.com/@miguel.paracuellos.inf/openai-just-went-...Curious how

Harmony: OpenAI's response format for its open-weight model series (github.com) 🔥 Горячее

by meetpateltech • 05 августа 2025 г. в 16:07 • 372 points

ОригиналHN

#openai#open-weight-model#response-format#harmony#github

Комментарии (50)

This format, or similar formats, seem to be the standard now, I was just reading the "Lessons from Building Manus"[1] post and they discuss the Hermes Format[2] which seems similar in terms of being pseudo-xml.My initial thought was how hacky the whole thing feels, but then the f

Anthropic revokes OpenAI's access to Claude (wired.com) 🔥 Горячее

by minimaxir • 01 августа 2025 г. в 21:50 • 292 points

ОригиналHN

#anthropic#openai#claude

Комментарии (123)

"OpenAI was plugging Claude into its own internal tools using special developer access (APIs)"Unless it's actually some internal Claude API which OpenAI were using with an OpenAI benchmarking tool, this sounds like a hyped-up way for Wired to phrase it.Almost like: `Woah man, Ope

OpenAI's "Study Mode" and the risks of flattery (resobscura.substack.com)

by benbreen • 31 июля 2025 г. в 13:35 • 136 points

ОригиналHN

#openai

Комментарии (147)

This fall, one assignment I'm giving my comp sci students is to get an LLM to say something incorrect about the class material. I'm hoping they will learn a few things at once: the material (because they have to know enough to spot mistakes), how easily LLMs make mistakes (especi