Hacker News Digest

Тег: #agi

Постов: 3

Google's Genie is more impressive than GPT5 (theahura.substack.com)

AGI стремится к универсальности, но нельзя просто import everything. Решение — компрессия и обобщение: небольшая модель покрывает огромное пространство задач. Глубокое обучение сжимает терабайты данных в десятки гигабайтов весов, и LLM не только имитируют текст, но и умеют, например, играть в шахматы без явного обучения.

Следующий шаг — world-models, способные представлять не только текст и картинки, но и всю окружающую реальность. Такая модель могла бы «смоделировать Тибет» и сообщить погоду, а робот — планировать движения, опираясь на внутреннюю симуляцию мира. Проблема в колоссальном объёме видеоданных и вычислений, поэтому мало кто рискует.

Google DeepMind рискнул: три дня назад представил Genie 3 (Generative Interactive Environments). Если GPT создаёт текст, Veo и Sora — видео, то Genie превращает описание в интерактивную видеоигру, где можно бродить минутами. Пока коротко, но это качественный скачок и намёк на будущее, где модели будут поддерживать длинную когерентность не только в тексте, но и в «живых» мирах.

by theahura • 08 августа 2025 г. в 14:46 • 177 points

ОригиналHN

#agi#google-deepmind#genie#llm#world-models#deep-learning#machine-learning#google

Комментарии (58)

  • Пользователи высмеяли идею «стимулировать Тибет» вместо обычного запроса погоды.
  • Рынки ставок и графики вызвали споры: одни видят рост ожиданий Gemini-3, другие указывают, что Gemini 2.5 уже выше GPT-5 в бенчмарке.
  • Многие считают статью пустой и отказываются верить демо, пока Genie 3 не станет публично доступен.
  • Обсуждение свелось к тому, что ни GPT-5, ни Gemini пока не близки к AGI, а термин «AGI» постоянно меняется под маркетинг.

Live: GPT-5 (youtube.com)

  • Introducing GPT-5 — YouTube

  • Пропустить навигацию

  • Поиск / Поиск голосом

  • Войти

  • Смотреть позже • Поделиться • Копировать ссылку • Покупки

  • Нажмите, чтобы включить звук • 2x

  • Если воспроизведение не началось, перезапустите устройство.

  • Вы вышли из аккаунта. Просмотры могут влиять на рекомендации на ТВ. Чтобы избежать этого, отмените и войдите на YouTube на компьютере.

  • Отмена • Подтвердить

  • 37:35 • 7 августа, 10:00 GMT-7

  • Далее • Прямой эфир запланирован • Играть

Introducing GPT-5

  • OpenAI • Подтверждено • 1,65 млн подписчиков
  • Подписаться • Подписаны
  • 6 522 ожидают • Запланировано на 7 авг. 2025
  • 1K • Поделиться • Скачать • Сохранить
  • Комментарии отключены

Описание

  • Introducing GPT-5

  • Присоединяйтесь к Сэму Альтману, Грегу Брокману, Себастьену Бюбеку, Марку Чену, Янну Дюбуа, Брайану Фиоке, Ади Ганешу, Оливеру Годеману, Саачи Джайн, Кристине Каплан, Тине Ким, Элейн Я Ле, Фелипе Миллону, Мишель Покрасс, Якубу Пахоцки, Максу Шварцеру, Ренни Сонгу, Жожену Вану — они представят и продемонстрируют GPT‑5.

  • OpenAI: Видео • О канале • Twitter • LinkedIn

by georgehill • 07 августа 2025 г. в 16:16 • 157 points

ОригиналHN

#openai#gpt-5#anthropic#sonnet#claudecode#javascript#typescript#llm#agi#programming

Комментарии (92)

  • Участники обсуждают качество ИИ для повседневного программирования: один отмечает сильное превосходство Anthropic (Sonnet 3.7/4 и Claude Code), причём в Cursor опыт хуже, чем в самом Claude Code, и OpenAI‑модели он почти не использует.
  • Есть надежда, что GPT‑5 сократит отставание OpenAI, хотя мнения пользователей сильно расходятся.
  • Другой комментатор ожидает, что грядущие анонсы покажут радикальное влияние на рынок: веб‑ и JS/TS‑разработчики могут стать частично или полностью невостребованными.
  • При этом подчёркивается, что речь ещё не об «AGI» — максимум о ~10% от обещанных возможностей AGI.
  • Отмечается ночной «слив», указывающий на фокус на кодинге; предполагается, что для названия «GPT‑5» OpenAI должен предложить существенное преимущество над Anthropic.

AI Ethics is being narrowed on purpose, like privacy was (nimishg.substack.com)

  • Пару дней назад OpenAI впервые за долгое время выпустила открытый языковой модуль. Сроки откладывали из‑за «безопасности». Они много говорят о безопасности — удобно для пиара: на вопросы об этике можно показывать на эти работы и будто бы закрывать тему. Но под «этикой» люди чаще имеют в виду не мат, фильтры и троллейбусные дилеммы, а реальность: управление и подотчётность, использование данных, перераспределение власти и денег, влияние на занятость. Вопрос: что делают люди, управляющие моделями, и как это влияет на общество?

  • Такой подменой уже пользовались в теме приватности. В 1990‑х телемаркетинг покупал клиентские базы у компаний, которые не понимали ценность данных. Возмущение породило шаблон: «мы не делимся данными с третьими сторонами». Непроизнесённая часть: «им проще купить нас целиком — это и есть стратегия выхода». Сегодня, говоря о приватности, людей волнует, что делает с их данными именно текущая компания/приложение: школьное, парковочное, для проезда. Но разговор сводят к «чтобы посторонние не получили доступ», а не к «что конкретно делает эта компания». В итоге возникает индустрия соответствия и тестирования, честно решающая второстепенную задачу, чтобы не решать главную. Как политик, который на «поднимете ли налоги?» отвечает «мы вырастим экономику».

  • С ИИ иначе лишь потому, что тема новая, и мы опирались на sci‑fi мысленные эксперименты. Они увлекательны и безопасны для бизнеса: никто не хочет «бумажкоскрепочную» катастрофу или симуляцию Black Mirror, а обсуждать это — выгодный пиар и бесплатное внимание прессы. Но такое сужение смещает фокус с реальных последствий и распределения ответственности на удобные, далекие от практики сценарии.

by i_dont_know_ • 07 августа 2025 г. в 11:20 • 151 points

ОригиналHN

#ai-ethics#privacy#openai#agi#llm

Комментарии (103)

  • Обсуждение критикует «этику/безопасность ИИ» за смещение фокуса с практических проблем (доступность жилья/еды, защита данных, рабочие места) на абстрактные «структуры управления» и пиар вокруг гипотетического AGI.
  • Часть участников отличает «этику» от «безопасности» (этика шире), указывая на подмену тем и маркетинговую гиперболу; другие считают, что без глобальных договорённостей с санкциями этика неработоспособна.
  • Сильная полемика вокруг квалификации «этиков/безопасников»: одни обвиняют их в непрактичности, другие отвечают, что в области много технических специалистов и исследований.
  • Ассимовские законы в целом отвергаются как литературный приём, непригодный для реальной инженерии ИИ, особенно в парадигме обучения на данных и «чёрного ящика».
  • Большое внимание «приземлённым» рискам: злоупотребления корпоративными данными и скрейпингом, энергопотребление, уязвимости и malware (не зависящие от ИИ), экономическое давление, утрата рабочих мест, концентрация власти.
  • Звучит скепсис: регулировать уже поздно, компании преследуют выгоду; «этика» часто служит ширмой или PR, а открытый исходный код и распределение власти рассматриваются как возможная контрмера.
  • Есть разногласия о влиянии «сафегардов»: одни опасаются, что жёсткие ограничения ухудшают способности моделей, другие считают, что безопасность неизбежно замедляет развитие, но без неё растут системные риски.