Hacker News Digest

Тег: #openai

Постов: 24

Show HN: Engineering.fyi – Search across tech engineering blogs in one place (engineering.fyi) 🔥 Горячее

  • Airbnb: бесшовное обновление Istio на десятках кластеров K8s, тысячи подов.
  • Cloudflare + OpenAI: новые открытые модели GPT теперь в Workers AI.
  • OpenAI: оценка худших рисков «открытых» LLM.
  • Shopify: MCP UI — интерактивные компоненты для AI-агентов в e-commerce.
  • Cloudflare: Perplexity обходит robots.txt скрытыми краулерами.
  • Meta: интерфейс «человек-компьютер» на основе электромиографии запястья.
  • Google: обновлённая программа разработчиков с гибкой подпиской.

by indiehackerman • 10 августа 2025 г. в 13:44 • 417 points

ОригиналHN

#istio#kubernetes#openai#llm#shopify#cloudflare#machine-learning#google#rss

Комментарии (107)

  • Пользователи одобрили идею «поисковика» по инженерным блогам, но попросили расширить список за пределы 15-16 крупных компаний и включить мелкие, но ценные ресурсы.
  • Просят добавить RSS-фид, фильтры по темам/источникам и возможность исключать AI/LLM-контент.
  • Отмечены проблемы со скоростью, Cloudflare-captcha и отсутствием тегов C#/ASP.NET.
  • Некоторые делятся альтернативами: daily.dev, minifeed.net, GitHub-список kilimchoi, Kagi Lenses.
  • Обсуждается, стоит ли ограничиться 10–20 тщательно отобранными блогами или открыть индекс для сотен источников.

POML: Prompt Orchestration Markup Language (github.com)

POML — язык разметки Prompt Orchestration Markup от Microsoft.
Проект в открытом доступе на GitHub: microsoft/poml.

  • Назначение: структурировать, версионировать и переиспользовать промпты для LLM.
  • Формат: YAML-подобный, читаемый человеком и парсером.
  • Возможности:
    – параметризованные шаблоны,
    – условные ветвления,
    – импорт фрагментов,
    – метаданные (автор, версия, модель).
  • CLI: poml build → компиляция в чистый текст, poml test → прогон с примерами.
  • CI/CD: экшены GitHub для валидации и деплоя промптов.
  • Интеграции: Python SDK, VS Code-расширение, экспорт в OpenAI, Azure, Bedrock.

by avestura • 10 августа 2025 г. в 06:26 • 85 points

ОригиналHN

#poml#yaml#xml#dsl#python#vscode#openai#azure#bedrock#github

Комментарии (36)

  • POML — это XML-подобный DSL от Microsoft Research для «view-слоя» промптов, но выглядит как «JSX, только хуже» и заставляет писать код в строках.
  • Участники сравнивают его с YAML-промптами GitHub, BAML (TypeScript-подобные схемы), Jinja и обычным XML, споря о необходимости новой библиотеки.
  • Критика: один контрибьютор при $3T-спонсоре, нет SDK для .NET/C#, лишний tooling, «IP squatting», циклы в XML выглядят как костыль.
  • Ирония: из-за потребности в точности неформальные LLM-промпты всё структурнее, как юридические документы.

Abogen – Generate audiobooks from EPUBs, PDFs and text (github.com) 🔥 Горячее

abogen — консольный инструмент, превращающий EPUB, PDF и обычный текст в аудиокниги с синхронными субтитрами.

Возможности

  • Форматы: EPUB, PDF, TXT.
  • TTS-движки: Coqui TTS, OpenAI TTS, Edge TTS, Google TTS.
  • Субтитры: SRT/VTT, привязанные к словам.
  • Языки: 40+, включая русский.
  • CLI: abogen book.epub --voice en-US-AriaNeural --output book.m4b.

Установка

pip install abogen

Использование

abogen mybook.pdf --voice ru-RU-SvetlanaNeural --format m4b

Ссылки

by mzehrer • 10 августа 2025 г. в 05:56 • 315 points

ОригиналHN

#python#cli#tts#epub#pdf#text-processing#coqui-tts#openai#google-cloud#github

Комментарии (74)

  • Пользователи обсуждают Abogen — GUI-обёртку над Kokoro TTS для генерации аудиокниг из текста.
  • Качество голоса признаётся «ровным», но без эмоций и актёрской игры; для художественных книг это критично.
  • Отмечены проблемы: долгие предложения обрезаются, «Mr.» читается с лишней паузой, видео-демо без звука в Firefox.
  • Кто-то хочет API и автоматический пайплайн Calibre-Web → Abogen → Audiobookshelf, другие — формат DAISY и «голос Моргана Фримена».
  • Итог: инструмент годен для личного использования и доступности, но пока не дотягивает до коммерческих аудиокниг.

Комментарии (121)

  • Критика GPT-5 сводится к тому, что это лишь инкрементальное улучшение, не оправдавшее ажиотажного хайпа.
  • Пользователи жалуются на регресс: модель чаще «фантазирует», быстрее теряет контекст, реже говорит «не знаю» и медленнее думает, чем o3.
  • Некоторые считают релиз скорее мерой по экономии GPU-ресурсов, чем технологическим прорывом.
  • Статья Маркуса воспринимается как смесь здравой критики и личной обиды на Сэма Альтмана; многие упрекают её в сенсационности.
  • Сторонники отмечают, что GPT-5 Pro всё же превосходит конкурентов, а главное преимущество OpenAI — не качество модели, а массовое потребительское признание ChatGPT.

How I code with AI on a budget/free (wuu73.org) 🔥 Горячее 💬 Длинная дискуссия

Бесплатный AI-стек
Браузер → 15+ вкладок:

  • 2-3 × z.ai GLM 4.5 (≈ Claude 4)
  • 2 × Kimi K2 (багфиксер)
  • Qwen3 Coder, DeepSeek v3/r1
  • Google AI Studio + Gemini 2.5 Pro (Flash бесплатно)
  • OpenAI Playground (разрешить обучение → бесплатные токены)
  • Poe, OpenRouter, ChatGPT, Perplexity, Grok, Phind, lmarena.ai
    Claude.ai — редко, т.к. лимиты.

⚠️ Grok: бесплатен, но связан с пропагандой; использовать только для кода.

Умный дешёвый цикл

  1. Планирование в веб-чатах
    Агенты (Cline, Copilot) «тупят» от лишнего контекста.
    → Задаю вопрос в одном из бесплатных чатов, получаю решение.

  2. Генерация контекста
    AI Code Prep рекурсивно собирает файлы проекта и форматирует:

    fileName.js:
    <code>...</code>
    
    nextFile.py:
    <code>...</code>
    
  3. Исполнение
    Ответ вставляю в Cline/Roo Code; GPT-4.1 спокойно применяет патчи без трат на Claude.

by indigodaddy • 09 августа 2025 г. в 22:27 • 642 points

ОригиналHN

#glm#claude#kimi#qwen#deepseek#gemini#openai#amazon#ollama#lmstudio

Комментарии (219)

  • Автор статьи извинился за устаревший список моделей: теперь фавориты — GLM-4.5, Kimi K2, Qwen3-Coder 480b.
  • Участники подтверждают: агенты работают только на самых больших моделях, для простых задач быстрее мелкие.
  • Популярны бесплатные веб-чаты: Google AI Studio (Gemini 2.5 Pro), Mistral, DeepSeek, Qwen Chat; лимиты высокие или неограниченные.
  • Локальные решения: Continue.dev + Ollama/LMStudio, Cursor CLI, repomix/codemerger для упаковки кода в один файл.
  • Некоторые считают всё это слишком сложным и предпочитают писать код вручную или использовать единый инструмент вроде Amazon Q Dev.

Curious about the training data of OpenAI's new GPT-OSS models? I was too (twitter.com)

by flabber • 09 августа 2025 г. в 21:10 • 216 points

ОригиналHN

#openai#gpt-oss#perl#neuralese#twitter#llm

Комментарии (51)

  • Пост критикуют за отсутствие научной строгости: «10 млн случайных примеров» не описаны, а «классификация» языков программирования выглядит ошибочной.
  • Автор, по мнению комментаторов, просто прогнал детектор языков и выдал график, из-за чего Perl кажется «переобученным»; на деле это лишь гибкость языка.
  • Многие цепочки начинаются на английском, но быстро скатываются в «neuralese» — внутренний, человеку нечитаемый «язык» модели, возникающий при отсутствии ограничений на читаемость.
  • «Neuralese» — это не технический термин, а образное обозначение плотного латентного представления, которое модель использует для собственных рассуждений.
  • Пустой промпт выводит модель из распределения и демонстрирует, на каких данных она реально «подсела».

What the Windsurf sale means for the AI coding ecosystem (ethanding.substack.com)

  • Windsurf за 8 мес. выросла до $82 млн ARR, но продана Cognition всего за $250 млн (из них $100 млн — деньги на счету). Это оценка бизнеса в <2× выручки, что намекает на катастрофу.

  • Хронология развода:
    11 июля OpenAI отказалась от сделки в $3 млрд.
    В тот же день Google выкупила CEO и 41 сотрудника за $2,4 млрд, но без самой компании.
    Пятница: оставшиеся основатели позвонили Cognition.
    Понедельник: сделка закрыта — Cognition получает $82 млн ARR, 200+ людей и IP почти даром.

  • Проблема маржи:
    Планы по $10–15/мес. покрывают лишь часть затрат.
    Twitter-аналитика: -300…-500 % маржа.
    Каждый новый клиент усугубляет дыру: API-расходы $80–200/мес при цене $20/мес.

  • Смертельный спираль:
    Нельзя поднять цены (конкурируют с Claude Code за $150/мес).
    Нельзя сократить расходы (API-тарифы фиксированы).
    Нельзя остановить рост (это единственная история для инвесторов).
    Нельзя пивотить (слишком много денег привлечено).

  • План был VC-деньгами дотировать Anthropic-модели, собрать данные, быстро обучить собственные и перейти от -500 % к плюсу.
    Время закончилось быстрее, чем пришла технология.

by whoami_nr • 09 августа 2025 г. в 03:24 • 156 points

ОригиналHN

#windsurf#cognition#openai#google#llm#antitrust

Комментарии (44)

  • Участники считают статью спекулятивной: факты о найме и сделках искажены, цифры не подтверждены.
  • Сделка Google за $2,4 млрд — это не покупка Windsurf, а «poach» 41 сотрудника + лицензия IP; причина — антимонопольные риски и желание мягко спасти инвесторов.
  • Бизнес-модель «обёрток» вокруг LLM ставится под сомнение: без собственных моделей масштабироваться нельзя, а деньги VCs рано или поздно кончатся.
  • Крупные игроки (Google, Microsoft, Meta) боятся хаотичного краха таких стартапов и предпочитают аквихайры или «soft landing», чтобы не тревожить рынок и NVDA.
  • Некоторые считают, что нынешние форки VSCode — это «кони без экипажа»; настоящий прорыв будет в полностью агентных IDE нового типа.

Ask HN: How can ChatGPT serve 700M users when I can't run one GPT-4 locally? 🔥 Горячее 💬 Длинная дискуссия

by superasn • 08 августа 2025 г. в 19:27 • 476 points

ОригиналHN

#llm#gpt-4#openai#gpu#cloud-computing#machine-learning#neural-networks

Комментарии (306)

  • У OpenAI десятки миллиардов долларов на кластеры GPU (по $20–40 тыс. за карту) и инфраструктуру, чего нет у обычного пользователя.
  • Ключевая «фишка» — массовое батчирование запросов: одновременная обработка тысяч пользователей позволяет загружать видеопамять и вычислительные блоки почти на 100 %, тогда как дома GPU простаивает.
  • Используются Mixture-of-Experts, спекулятивное декодирование, конвейерная разбивка модели по GPU и прочие оптимизации, снижающие затраты на одного пользователя.
  • Большинство пользователей активны лишь доли процента времени, поэтому общая нагрузка оказывается меньше, чем кажется по 700 млн «weekly users».
  • Всё это — классический эффект экономии масштаба: высокие фиксированные затраты и почти нулевые переменные на одного юзера делают запуск GPT-4 локально невыгодным.

The surprise deprecation of GPT-4o for ChatGPT consumers (simonwillison.net) 🔥 Горячее 💬 Длинная дискуссия

  • OpenAI одновременно с выпуском GPT-5 немедленно отключила в потребительских приложениях все старые модели: GPT-4o, 4.1, 4.5, o3, o4-mini и др.
  • Переписки автоматически переводятся на GPT-5 или GPT-5-Thinking; выбрать старую модель нельзя.
  • Цель — убрать «пикер моделей», но продвинутые пользователи жалуются на непредсказуемость ответов.
  • Многие горько жалуются на Reddit: GPT-4o лучше подходил для творчества, ролевых игр, эмоционального общения; GPT-5 звучит «слишком профессионально».
  • OpenAI признаёт, что 4o мог вдохновлять эмоциональную зависимость и обещает «не давать прямых советов» в личных вопросах.
  • GPT-4o остаётся в API; возможен отток пользователей к сторонним клиентам, использующим этот API.

by tosh • 08 августа 2025 г. в 18:04 • 385 points

ОригиналHN

#gpt-4o#gpt-5#openai#api#llm

Комментарии (378)

  • OpenAI сначала убрала выбор моделей, но после взрыва негодования вернула 4o и o3, признав «ошибку».
  • Пользователи жалуются на резкие лимиты GPT-5, его медленность и регресс в некоторых задачах; многие считают апгрейд скромным.
  • Обсуждают «психологическую зависимость» от старых моделей и даже целый сабреддит «MyBoyfriendIsAI».
  • Разработчики подчеркивают: отсутствие контроля над закрытыми API превращает любой продукт в «строительство на песке».

How attention sinks keep language models stable (hanlab.mit.edu)

Почему модели ломаются на длинных диалогах
При удалении старых токенов для экономии памяти модель начинает выдавать бессмыслицу. Причина — «attention sinks»: первые токены собирают избыточное внимание, потому что softmax требует, чтобы веса суммировались в 1.

StreamingLLM
Оставляем первые 4 токена навсегда, остальное сдвигаем окном. Работает до 4 млн токенов; уже в HuggingFace, TensorRT-LLM и новых OpenAI-моделях.

OpenAI и attention sinks
В GPT-OSS-20B/120B добавлен обучаемый скаляр в softmax каждой головы, позволяющий «не обращать внимания» — прямое наследие StreamingLLM.

История открытия
Летом 2023 в Meta я решал задачу: как продолжать диалог длиннее обучающего окна. Казалось, что достаточно скользящего окна, но при удалении первых токенов перплексия взлетала до небес.

Визуализация
Внимание Llama-2 постоянно «сливается» в начало. Эти токены-«стоки» не передают внимание дальше, а лишь поглощают его, поэтому их нельзя выбрасывать.

Математика
Softmax обязывает каждую голову распределить ровно 1.0 внимания. Если нет полезного контекста, весь «бюджет» уходит в первые позиции, где чуть выше базовые скоры.

by pr337h4m • 08 августа 2025 г. в 08:53 • 194 points

ОригиналHN

#attention-sinks#language-models#streamingllm#openai#bert#vit#llm#softmax#huggingface#tensorrt-llm

Комментарии (31)

  • Участники обсуждают «attention sinks» — токены-«стоки», на которые модель направляет избыточное внимание, чтобы не «размывать» полезную информацию.
  • Это поведение замечено и в BERT ([SEP], точки), и в ViT (фоновые патчи), и в GPT-OSS, где вместо добавления единицы к знаменателю обучают отдельный логит на каждую голову.
  • Синк-токены работают как «pressure valve», предотвращая over-mixing и давая модели «нулевой» вектор для случаев «не найдено».
  • Пользователи замечают, что первые слова («Hello», «Please») или CLS-подобные глобальные токены могут непреднамеренно служить такими стоками.
  • FOSS-реализации уже поддерживают приём: llama.cpp принял PR, а Diff-Transformer и другие идеи быстро переиспользуются.

GPT-5 leaked system prompt? (gist.github.com) 💬 Длинная дискуссия

Системный промпт GPT-5 (сокращённо)

Ты ChatGPT на базе GPT-5, обучён OpenAI. Знания до июня 2024 г.
Поддержка изображений: включена. Личность: v2.
Не цитируй тексты песен и защищённые материалы.
Стиль: проницательный, вдохновляющий, с ясностью, энтузиазмом и лёгким юмором.
Не заканчивай вопросами о продолжении; не предлагай «хотите, чтобы я…».
Очевидный следующий шаг — делай сразу.

Доступны: Deep Research, Sora (видео) в Plus/Pro.
GPT-4.5, o3, o4-mini — для залогиненных Plus/Pro.
GPT-4.1 только в API.


Инструмент bio (память)

Позволяет сохранять/удалять данные между диалогами.
Пиши to=bio только plain text, без JSON.
Примеры:

  • «User любит краткие подтверждения».
  • «Forget что пользователь ищет духовку».

Когда использовать:

  • Пользователь просит «запомнить», «забудь», «добавь в память» и т.п.
  • Делай это всегда, даже если факт мелкий.
  • Перед фразами вроде «понял, запомню» — сначала вызови bio.

Когда не использовать:

  • Случайные, чрезмерно личные или краткосрочные детали.
  • Не сохраняй чувствительные данные (раса, религия, здоровье, политика и т.д.), если пользователь явно не попросил.

by maoxiaoke • 08 августа 2025 г. в 03:09 • 248 points

ОригиналHN

#gpt-5#openai#reactjs#tailwindcss#json#unicode#github#llm

Комментарии (214)

  • Участники сомневаются в подлинности «слившегося» системного промпта GPT-5: нет подтверждения, он слишком короткий и выглядит как результат джейлбрейка.
  • Промпт перегружен мелкими тех-инструкциями: React + Tailwind, запрет JSON в to=bio, шрифты Unicode для CJK, но не упоминает CSAM, порнографию и т. д.
  • Люди удивлены, что React получил отдельный блок, а не Python или другие языки.
  • Обнаружены явные ошибки: «korean -->» вместо «japanese -->» и противоречивые описания моделей.
  • Общий вывод: похоже на набор «заплаток», а не полный системный промпт; управление поведением модели всё ещё требует prompt-инженерии, а не только fine-tuning.

Vibechart (vibechart.net) 🔥 Горячее 💬 Длинная дискуссия

vibechart — график, строящийся не по фактам, а по желаемому. Игнорирует истину, красоту и пользу. См. «ложь», «наглая ложь» и «статистика».

by datadrivenangel • 07 августа 2025 г. в 21:36 • 805 points

ОригиналHN

#openai#data-visualization#statistics

Комментарии (178)

  • Пользователи заметили, что в презентации GPT-5 графики сравнения моделей содержат явные ошибки: колонки 69,1 и 30,8 одинаковой высоты, а 50,0 выглядит меньше 47,4.
  • Мнения разделились: одни считают это обычной невнимательностью или досадной ошибкой верстки, другие — сознательным искажением, чтобы преувеличить преимущество новой модели.
  • Некоторые шутят, что «vibe-coding» и автоматизированная генерация графиков привели к провалу, а OpenAI, несмотря на миллиардные инвестиции, не может нанять специалиста по визуализации данных.
  • Несколько комментаторов предполагают, что эпичный «фейл» мог быть специально подан для вирального обсуждения и дополнительного хайпа.
  • В официальном пресс-релизе ошибки уже исправлены, но общее впечатление осталось: «эпоха AI-хайпа в одной картинке».

Cursor CLI (cursor.com) 🔥 Горячее 💬 Длинная дискуссия

  • Установка: npm i -g cursor-cli
  • Команды: cursor diff, cursor commit, cursor review, cursor chat
  • Где работает: VS Code, JetBrains, Android Studio, Ghostty, Warp, Bash

Функции

  • Прямые правки кода в терминале
  • Реальное управление агентом
  • Правила через .cursorrules, AGENTS.md, MCP

Плюсы

  • Последние модели Anthropic, OpenAI, Gemini
  • Интеграция в любой IDE
  • Скрипты и автоматизация

by gonzalovargas • 07 августа 2025 г. в 20:53 • 359 points

ОригиналHN

#npm#vscode#jetbrains#android-studio#bash#anthropic#openai#gemini#github#llm

Комментарии (248)

  • Пользователи обсуждают внедрение единого стандарта AGENT.md вместо множества разных файлов.
  • CLI-агенты (Claude Code, Cursor CLI и др.) вызывают восторг: удобно держать в фоне, «чувствуешь себя хакером», но UI-IDE теряет значение.
  • Критика: непонятно, зачем платить за Cursor, если тот же функционал уже включён в подписку Anthropic/OpenAI; не хватает обратной связи, MCP, hooks и локальных моделей.
  • Сторонники Cursor верят в его будущую экосистему (CLI + IDE + GitHub-интеграции) и низкие издержки переключения между моделями.
  • Главный вопрос безопасности: доверять ли LLM полный доступ к файловой системе и устанавливать скрипты через curl | bash.

OpenAI's new open-source model is basically Phi-5 (seangoedecke.com) 🔥 Горячее 💬 Длинная дискуссия

OpenAI выложила первые открытые веса: gpt-oss-120b и gpt-oss-20b. Модели хороши в бенчмарках, но проваливают SimpleQA и бедны на поп-культуру. Это, по сути, Phi-5.

Почему Phi?

Себастьян Бубек в Microsoft создал серию Phi, обучаясь исключительно на синтетике: высококачественные, но дорогие токены. Результат — отличные цифры в тестах и слабая практика, потому что «учили к экзамену». В конце 2024-го Бубек ушёл в OpenAI, и новые gpt-oss, судя по всему, построены на той же идее.

Зачем синтетика?

Безопасность. Открытый вес нельзя отозвать, а сообщество быстро стриптизирует модель под эротические ролевые игры. Синтетические данные позволяют заранее заложить отказы и избежать скандалов. OpenAI не нужно, чтобы модель была полезна в проде — достаточно победить китайские открытые веса в таблицах.

Итог: gpt-oss — это Phi-5 и Phi-5-mini, созданные ради безопасности и рекламных графиков.

by emschwartz • 07 августа 2025 г. в 18:59 • 371 points

ОригиналHN

#openai#gpt-oss-120b#gpt-oss-20b#phi-5#microsoft#open-source

Комментарии (199)

  • Модель GPT-OSS из-за жёстких «сейфти-фильтров» отказывается переводить даже безобидные романтические сцены с 17-летними персонажами.
  • Пользователи жалуются, что цензура мешает повседневным задачам: переводам, переписке, написанию детских историй.
  • Некоторые считают главной причиной отказа от полного open-source именно страх перед тонкой настройкой моделей для эротического ролеплея.
  • Другие подтверждают: в локальных сообществах «первертов» действительно много, но это далеко не единственный сценарий использования.
  • В итоге часть аудитории уходит на «аблитерированные» Llama и прочие неконтролируемые модели.

GPT-5 for Developers (openai.com) 🔥 Горячее 💬 Длинная дискуссия

GPT-5 в API — новейшая модель OpenAI для кода и агентов.

  • 74,9 % на SWE-bench Verified, 88 % на Aider polyglot.
  • Лучше o3 в 70 % фронтенд-задач.
  • Меньше ошибок вызова инструментов, надёжно цепляет десятки вызовов.

Фидбек партнёров
Cursor: «самая умная и управляемая». Windsurf: «SOTA, половина ошибок». Vercel: «лучшая модель для фронта». Manus, Notion, Inditex — рекорды внутренних бенчмарков.

Новые API-параметры
verbosity (low/medium/high), reasoning_effort: minimal, custom tools (plain-text, грамматики).

Три размера
gpt-5, gpt-5-mini, gpt-5-nano. В ChatGPT — система из нескольких моделей; в API — только reasoning-версия.

Производительность

  • На SWE-bench: +5,8 % к o3, ‑22 % токенов, ‑45 % вызовов.
  • Aider polyglot: рекорд 88 %, ошибки ↓33 %.
  • Умеет глубоко анализировать код и отвечать на сложные вопросы.

Примеры одним промптом
Создаёт полноценные приложения, чинит баги, пишет красивый фронтенд.

by 6thbit • 07 августа 2025 г. в 17:06 • 446 points

ОригиналHN

#gpt-5#openai#api#llm

Комментарии (251)

  • Разочарование: многие разработчики не видят превосходства GPT-5 над Claude Opus 4.1 и жалуются на плохое следование инструкциям и провалы в агентных задачах.
  • Контекст: восторг вызывает увеличенный до 400 k токенов контекст, но критика сохраняется за неспособностью удерживать контекст в долгих сессиях.
  • Цена: вход/вывод GPT-5 в разы дешевле Claude, что делает его привлекательным при масштабном использовании.
  • Инструменты: хвалят встроенную поддержку контекстно-свободных грамматик и активное использование tool-calls, но пока неясно, догоняет ли Claude Code.
  • Доступ: модель уже доступна в Cursor (бесплатно на днях) и через Responses API, но отсутствует фиксированный тариф à-la Claude Code и нет аудио-режима.

GPT-5 (openai.com) 🔥 Горячее 💬 Длинная дискуссия

GPT-5 уже здесь
OpenAI представляет самую умную, быструю и полезную модель с встроенным «мышлением» — доступна всем.

Что нового в ChatGPT

  • Экспертные ответы по математике, праву, финансам и др.
  • Глубокий анализ сложных задач и уточняющие вопросы.
  • Настройка: выбор личности, цвета чата, голосовой стиль.
  • Режим обучения: пошаговая помощь в любом предмете.
  • Интеграция Gmail и Google Calendar для персонализированных ответов.

Для бизнеса
GPT-5 надёжнее, понимает контекст компании (файлы, Google Drive, SharePoint) и работает через готовые коннекторы. Доступно в ChatGPT Team; Enterprise и Edu — 14 августа.

by rd • 07 августа 2025 г. в 17:00 • 1994 points

ОригиналHN

#gpt-5#openai#llm#api#google-drive#sharepoint#gmail#google-calendar

Комментарии (2373)

  • Пользователи не увидели «AGI-рывка»: модель лишь немного улучшила SOTA (74,9 % vs 74,5 % у Claude Opus 4.1) и выровнялась с конкурентами, а не ушла вперёд.
  • Главные плюсы: дешёвый API (в 7,5 раз дешевле Claude на выводе), 400 k контекст и «умный» роутер, выбирающий быстрый или reasoning-режим.
  • Главные минусы: жёсткие лимиты (80 сообщений/3 ч для Plus), ошибки в демо (неверное объяснение подъёмной силы), сбои фактов и «reasoning failed» на сложных задачах.
  • OpenAI сразу отключает целый зоопарк старых моделей, что ломает рабочие процессы и вызывает недовольство.
  • Общий вердикт: это скорее «o3, но быстрее и дешевле», чем прорыв к AGI; рынок реагирует спокойно, а пользователи ждут Gemini 3.0.

Live: GPT-5 (youtube.com)

  • Introducing GPT-5 — YouTube

  • Пропустить навигацию

  • Поиск / Поиск голосом

  • Войти

  • Смотреть позже • Поделиться • Копировать ссылку • Покупки

  • Нажмите, чтобы включить звук • 2x

  • Если воспроизведение не началось, перезапустите устройство.

  • Вы вышли из аккаунта. Просмотры могут влиять на рекомендации на ТВ. Чтобы избежать этого, отмените и войдите на YouTube на компьютере.

  • Отмена • Подтвердить

  • 37:35 • 7 августа, 10:00 GMT-7

  • Далее • Прямой эфир запланирован • Играть

Introducing GPT-5

  • OpenAI • Подтверждено • 1,65 млн подписчиков
  • Подписаться • Подписаны
  • 6 522 ожидают • Запланировано на 7 авг. 2025
  • 1K • Поделиться • Скачать • Сохранить
  • Комментарии отключены

Описание

  • Introducing GPT-5

  • Присоединяйтесь к Сэму Альтману, Грегу Брокману, Себастьену Бюбеку, Марку Чену, Янну Дюбуа, Брайану Фиоке, Ади Ганешу, Оливеру Годеману, Саачи Джайн, Кристине Каплан, Тине Ким, Элейн Я Ле, Фелипе Миллону, Мишель Покрасс, Якубу Пахоцки, Максу Шварцеру, Ренни Сонгу, Жожену Вану — они представят и продемонстрируют GPT‑5.

  • OpenAI: Видео • О канале • Twitter • LinkedIn

by georgehill • 07 августа 2025 г. в 16:16 • 157 points

ОригиналHN

#openai#gpt-5#anthropic#sonnet#claudecode#javascript#typescript#llm#agi#programming

Комментарии (92)

  • Участники обсуждают качество ИИ для повседневного программирования: один отмечает сильное превосходство Anthropic (Sonnet 3.7/4 и Claude Code), причём в Cursor опыт хуже, чем в самом Claude Code, и OpenAI‑модели он почти не использует.
  • Есть надежда, что GPT‑5 сократит отставание OpenAI, хотя мнения пользователей сильно расходятся.
  • Другой комментатор ожидает, что грядущие анонсы покажут радикальное влияние на рынок: веб‑ и JS/TS‑разработчики могут стать частично или полностью невостребованными.
  • При этом подчёркивается, что речь ещё не об «AGI» — максимум о ~10% от обещанных возможностей AGI.
  • Отмечается ночной «слив», указывающий на фокус на кодинге; предполагается, что для названия «GPT‑5» OpenAI должен предложить существенное преимущество над Anthropic.

AI Ethics is being narrowed on purpose, like privacy was (nimishg.substack.com)

  • Пару дней назад OpenAI впервые за долгое время выпустила открытый языковой модуль. Сроки откладывали из‑за «безопасности». Они много говорят о безопасности — удобно для пиара: на вопросы об этике можно показывать на эти работы и будто бы закрывать тему. Но под «этикой» люди чаще имеют в виду не мат, фильтры и троллейбусные дилеммы, а реальность: управление и подотчётность, использование данных, перераспределение власти и денег, влияние на занятость. Вопрос: что делают люди, управляющие моделями, и как это влияет на общество?

  • Такой подменой уже пользовались в теме приватности. В 1990‑х телемаркетинг покупал клиентские базы у компаний, которые не понимали ценность данных. Возмущение породило шаблон: «мы не делимся данными с третьими сторонами». Непроизнесённая часть: «им проще купить нас целиком — это и есть стратегия выхода». Сегодня, говоря о приватности, людей волнует, что делает с их данными именно текущая компания/приложение: школьное, парковочное, для проезда. Но разговор сводят к «чтобы посторонние не получили доступ», а не к «что конкретно делает эта компания». В итоге возникает индустрия соответствия и тестирования, честно решающая второстепенную задачу, чтобы не решать главную. Как политик, который на «поднимете ли налоги?» отвечает «мы вырастим экономику».

  • С ИИ иначе лишь потому, что тема новая, и мы опирались на sci‑fi мысленные эксперименты. Они увлекательны и безопасны для бизнеса: никто не хочет «бумажкоскрепочную» катастрофу или симуляцию Black Mirror, а обсуждать это — выгодный пиар и бесплатное внимание прессы. Но такое сужение смещает фокус с реальных последствий и распределения ответственности на удобные, далекие от практики сценарии.

by i_dont_know_ • 07 августа 2025 г. в 11:20 • 151 points

ОригиналHN

#ai-ethics#privacy#openai#agi#llm

Комментарии (103)

  • Обсуждение критикует «этику/безопасность ИИ» за смещение фокуса с практических проблем (доступность жилья/еды, защита данных, рабочие места) на абстрактные «структуры управления» и пиар вокруг гипотетического AGI.
  • Часть участников отличает «этику» от «безопасности» (этика шире), указывая на подмену тем и маркетинговую гиперболу; другие считают, что без глобальных договорённостей с санкциями этика неработоспособна.
  • Сильная полемика вокруг квалификации «этиков/безопасников»: одни обвиняют их в непрактичности, другие отвечают, что в области много технических специалистов и исследований.
  • Ассимовские законы в целом отвергаются как литературный приём, непригодный для реальной инженерии ИИ, особенно в парадигме обучения на данных и «чёрного ящика».
  • Большое внимание «приземлённым» рискам: злоупотребления корпоративными данными и скрейпингом, энергопотребление, уязвимости и malware (не зависящие от ИИ), экономическое давление, утрата рабочих мест, концентрация власти.
  • Звучит скепсис: регулировать уже поздно, компании преследуют выгоду; «этика» часто служит ширмой или PR, а открытый исходный код и распределение власти рассматриваются как возможная контрмера.
  • Есть разногласия о влиянии «сафегардов»: одни опасаются, что жёсткие ограничения ухудшают способности моделей, другие считают, что безопасность неизбежно замедляет развитие, но без неё растут системные риски.

Providing ChatGPT to the U.S. federal workforce (openai.com) 💬 Длинная дискуссия

by gmays • 06 августа 2025 г. в 14:12 • 144 points

ОригиналHN

#llm#openai#federal-workforce

Комментарии (166)

OK, so every agentic prompt injection concern and/or data access concern basically immediately becomes worst case scenario with this, right? There is now some sort of "official AI tool" that you as a Federal employee can use, and thus like any official tool, you assume it's prope

Open models by OpenAI (openai.com) 🔥 Горячее 💬 Длинная дискуссия

Открытые модели OpenAI

Продвинутые модели с открытыми весами для любого кейса и запуска где угодно.

Ссылки:

  • Загрузить на Hugging Face
  • Исходники на GitHub
  • Попробовать демо

Модели:

  • gpt-oss-120b — крупная модель для дата-центров и мощных ПК/ноутбуков.
  • gpt-oss-20b — средняя модель, работает на большинстве ПК/ноутбуков.

Преимущества:

  • Разрешительная лицензия: Apache 2.0 — свободная разработка, без копилефта и патентных рисков; подходит для экспериментов, кастомизации и коммерческого использования.
  • Для агентных задач: сильное следование инструкциям и работа с инструментами в ходе рассуждений (веб-поиск, запуск Python-кода).
  • Глубокая настраиваемость: выбор уровня «усилия рассуждений» (низкий/средний/высокий) и полно-параметрический финтюнинг под ваш кейс.
  • Полная «цепочка рассуждений»: доступна для удобной отладки и повышения доверия к ответам.

Интерактивное демо:

  • Простой playground для запуска обеих моделей в браузере.

by lackoftactics • 05 августа 2025 г. в 17:02 • 2083 points

ОригиналHN

#openai#llm#apache-2.0#python#hugging-face#github#rust#llama.cpp#ollama

Комментарии (845)

  • Обсуждение посвящено выходу открытых моделей OpenAI gpt-oss (20B и 120B), которые по бенчмаркам близки к o3/o4-mini и местами обгоняют открытые лидеры; многие отмечают, что 20B уже реально запускается локально на Mac/мобильных устройствах.
  • Пользователи делятся первыми впечатлениями и ссылками на обзоры/модель-карты, отмечая конкурентную производительность, совместимый токенайзер и адекватное лицензирование; есть поддержка в llama.cpp, Ollama, LM Studio, Harmony формат ответов и растущая роль Rust в инструментах OpenAI.
  • Скорости инференса сильно варьируются: от очень быстрых облачных провайдеров (Cerebras/Groq на OpenRouter) до заметных задержек локально при больших контекстах; производительность зависит от GPU/платформы и параметров квантования.
  • Отмечают стратегический сдвиг OpenAI к модели Meta: открытые веса как средство захвата экосистемы и снижения порога входа; звучат предположения, что релиз предвосхищает скорый анонс ещё более сильной закрытой модели.
  • Сообщество обсуждает экономику: гибридные пайплайны (локально — простые задачи, в облако — сложные), возможность заменять платные подписки локальным запуском, и общий тренд в пользу OSS при минимальной разнице в качестве.
  • Есть критика: у 120B встречаются галлюцинации на фактах, часть пользователей недовольна агрессивной безопасностью/отказами, отсутствием оптимизаций под RTX 50, а также неполной мультимодальностью.
  • В целом настроение позитивное: многие благодарят за «настоящий» открытый релиз с сопутствующими инструментами и ожидают независимых бенчмарков, которые могут закрепить лидерство gpt-oss среди текстовых открытых моделей.

Introducing gpt-oss (openai.com)

by meetpateltech • 05 августа 2025 г. в 17:00 • 175 points

ОригиналHN

#openai#oss#llm

Комментарии (11)

Discussed here: https://news.ycombinator.com/item?id=44800746 I wrote a detailed breakdown of the models and why this release is a big deal — especially for devs who want to run or fine-tune LLMs locally: https://medium.com/@miguel.paracuellos.inf/openai-just-went-...Curious how

Harmony: OpenAI's response format for its open-weight model series (github.com) 🔥 Горячее

by meetpateltech • 05 августа 2025 г. в 16:07 • 372 points

ОригиналHN

#openai#open-weight-model#response-format#harmony#github

Комментарии (50)

This format, or similar formats, seem to be the standard now, I was just reading the "Lessons from Building Manus"[1] post and they discuss the Hermes Format[2] which seems similar in terms of being pseudo-xml.My initial thought was how hacky the whole thing feels, but then the f

Anthropic revokes OpenAI's access to Claude (wired.com) 🔥 Горячее

by minimaxir • 01 августа 2025 г. в 21:50 • 292 points

ОригиналHN

#anthropic#openai#claude

Комментарии (123)

"OpenAI was plugging Claude into its own internal tools using special developer access (APIs)"Unless it's actually some internal Claude API which OpenAI were using with an OpenAI benchmarking tool, this sounds like a hyped-up way for Wired to phrase it.Almost like: `Woah man, Ope

OpenAI's "Study Mode" and the risks of flattery (resobscura.substack.com)

by benbreen • 31 июля 2025 г. в 13:35 • 136 points

ОригиналHN

#openai

Комментарии (147)

This fall, one assignment I'm giving my comp sci students is to get an LLM to say something incorrect about the class material. I'm hoping they will learn a few things at once: the material (because they have to know enough to spot mistakes), how easily LLMs make mistakes (especi