Hacker News Digest

Тег: #agi

Постов: 17

AI's Dial-Up Era (wreflection.com) 🔥 Горячее 💬 Длинная дискуссия

Мы сейчас находимся в "эпоху модема" для искусственного интеллекта, аналогичной раннему интернету 1995 года. Тогда существовало лишь около 2000 сайтов, большинство из которых представляли собой текст на сером фоне, а загрузка изображения занимала минуту. Люди разделились на оптимистов, предсказывавших революционные изменения, и скептиков, называвших интернет временной модой. Сегодня в дебатах об ИИ повторяются те же ошибки: одни предрекают массовую безработицу, другие — автоматизацию всех интеллектуальных задач.

Парадоксально, но ИИ не заменяет специалистов, как предсказывали. Например, радиологи, несмотря на предупреждения Джеффри Хинтона о скорой замене, процветают: в 2025 году количество вакансий достигло рекордных 1208, а средняя зарплата составила $520,000 — на 48% выше, чем в 2015 году. Это показывает, что влияние ИИ будет более избирательным и зависящим от отрасли, чем экстремалистские прогнозы обеих сторон допускают.

by nowflux • 03 ноября 2025 г. в 21:01 • 440 points

ОригиналHN

#artificial-intelligence#machine-learning#agi#gpu#cloud-computing#llm

Комментарии (395)

  • Дискуссия вращается вокруг сравнений «AI-бум ↔ мыльный пузырь» и «AI ↔ золотая лихорадка»; участники спорят, насколько адекватна аналогия с эпохой dial-up и спекулятивным оптимизмом 90-х.
  • Ключевой тезис: «мы строим инфраструктуру, а не продукт» — и это вызывает спор, кто и зачем её строит, и что останется после «холодного душа».
  • Участники обсуждают, что если «пузырь» лопнет, то останутся ли GPU-фермы как остаточная ценность, или же они обесценятся как нефункциональные активы.
  • Поднимается вопрос, что будет, если AGI не появится в ближайшие годы, и как это повлияет на стоимость вычислений и, следовательно, на стоимость токенов.
  • Наконец, обсуждается, что если «пузырь» лопнет, то какие именно активы останутся в руках у инвесторов и как это повлияет на стоимость токенов и, в конечном счете, на стоимость компаний.

Why "everyone dies" gets AGI all wrong (bengoertzel.substack.com)

by danans • 02 ноября 2025 г. в 00:40 • 77 points

ОригиналHN

#agi

Комментарии (138)

  • Обсуждение свелось к тому, что участники обмениваются обвинениями в лицемерии, гиперболе и упрощении, а также в том, что они не предлагают конструктивных решений.
  • Сторонники «думай как я» обвиняют оппонентов в том, что они не могут предсказать, какие именно сценарии развития событий приведут к гибели всего человечества, и утверждают, что если бы они могли, они бы уже решили проблему.
  • Сторонники «думай как я» также утверждают, что если бы существовала хоть какая-то надежда на то, что AGI не приведет к гибели всего человечества, то было бы уже решено, как сделать так, чтобы это было так.
  • Сторонники «думай как я» также утверждают, что если бы существовала хоть какая-то надежда на то, что AGI не приведет к гибели всего человечества, то было бы уже решено, как сделать так, чтобы это было так.
  • Сторонники «думай как я» утверждают, что если бы существовала хоть какая-то надежда на то, что AGI не приведет к гибели всего человечества, то было бы уже решено, как сделать так, чтобы это было так.
  • Сторонники «думай как я» утверждают, что если бы существовала хоть какая-то надежда на то, что AGI не приведет к гибели всего человечества, то было бы уже решено, как сделать так, чтобы это было так.

A definition of AGI (arxiv.org) 🔥 Горячее 💬 Длинная дискуссия

В статье предлагается первое конкретное определение AGI, соответствующее когнитической универсальности и компетентности хорошо образованного взрослого человека. Авторы основали свою методологию на теории Кэттелла-Хорна-Карролла, наиболее эмпирически проверенной модели человеческого познания, разбив общую интеллект на десять когнитивных доменов, включая рассуждение, память и восприятие. Применение этого подхода показало "зубчатый" когнитивный профиль современных моделей, где текущие ИИ-системы, несмотря на proficiency в знаниемких областях, имеют критические недостатки в базовом когнитивном аппарате, особенно в долговременном хранении памяти.

Представленные AGI-оценки количественно определяют как прогресс, так и оставшийся разрыв до достижения AGI: GPT-4 получил 27%, а GPT-5 - 58%. Эта метрика предлагает объективный способ измерения развития систем ИИ и выявления их сильных и слабых сторон, что может направить будущие исследования в области создания более сбалансированных и универсальных искусственных интеллектов.

by pegasus • 26 октября 2025 г. в 18:09 • 275 points

ОригиналHN

#agi#cattell-horn-carroll-theory#artificial-intelligence#machine-learning#cognitive-science#llm#gpt-4#gpt-5#arxiv

Комментарии (440)

  • Обсуждение в основном вращается вокруг того, что такое AGI и как его измерять, при этом критикуя предложенное в статье определение как "сопоставимость с взрослым человеком" как слишком узкое и не учитывающее другие формы интеллекта.
  • Участники спора подчеркивают, что AGI не может быть измерено только через тесты на "когнитивные способности", поскольку эти тесты не охватывают такие аспекты как эмоциональный интеллект, физическое взаимодействие с миром и социальные навыки.
  • Также поднимается вопрос о том, что если AGI определяется как "способность к обучению", то LLM уже достигли этого, но при этом они не обладают другими важными чертами интеллекта, такими как самостоятельность, мотивация и физическое взаимодействие с миром.
  • Наконец, критикуется сама статья за то, что она не предлагает конкретного определения AGI, вместо этого полагаясь на устаревшую теорию CHC, которая сама по себе неполна и не охватывает такие важные аспекты интеллекта как мотивация и саморегуляция.

'Attention is all you need' coauthor says he's 'sick' of transformers (venturebeat.com) 🔥 Горячее 💬 Длинная дискуссия

by achow • 24 октября 2025 г. в 04:40 • 347 points

ОригиналHN

#transformers#llm#gpu#tpu#reinforcement-learning#agi#neural-networks#ai-infrastructure

Комментарии (176)

  • Ведущие исследователи, включая одного из соавторов оригинальной статьи "Attention is all you need", открыто заявляют, что уходят от трансформеров и ищут «следующую большую идею», вызывая вопрос, действительно ли это поиск новой архитектуры или просто PR-ход.
  • Участники обсуждения отмечают, что трансформеры стали не только архитектурой, но и целой инфраструктурой: от GPU и TPU до всего стека LLM-стека, что делает любую альтернативу экономически невыгодной.
  • Некоторые комментаторы поднимают вопрос о том, что если следующий прорыв будет зависеть от новой архитектуры, то это может быть не только научный, но и экономический выбор, который может быть не в интересах общества или даже безопасности.
  • Другие спорят, что фокус на трансформерах может отвлекать от других направлений, таких как обучение с подкреплением, которые могут быть более критически важны для AGI.
  • И хотя некоторые участники высказывают, что трансформеры могли быть "пыльной доской" для следующего прогресса, другие считают, что они могут быть просто "сингуларностью в зародыше", и что мы должны быть осторожны в том, чтобы не убить золотую курицу, которая может быть просто медленно варится.

Andrej Karpathy – It will take a decade to work through the issues with agents (dwarkesh.com) 🔥 Горячее 💬 Длинная дискуссия

Андрей Карпати из OpenAI объясняет, почему до общего искусственного интеллекта (AGI) остаётся ещё около десятилетия. Хотя современные ИИ-агенты вроде Claude и Codex впечатляют, они пока неспособны автономно выполнять комплексные задачи, как человек-ассистент. Основные ограничения включают недостаточную многомодальность (неспособность работать с разными типами данных), неумение взаимодействовать с компьютерными системами и отсутствие непрерывного обучения на основе опыта.

Эти проблемы решаемы, но сложны — требуется масштабирование вычислительных мощностей, улучшение алгоритмов (особенно обучения с подкреплением, которое сейчас "ужасно"), и создание более сложных архитектур для обработки контекста и планирования. Как и с беспилотными автомобилями, прогресс будет постепенным, а не взрывным.

Когда AGI finalmente появится, оно, вероятно, интегрируется в экономику так же плавно, как и предыдущие технологические прорывы, поддерживая ~2% рост ВВП без резких скачков. Даже AGI не приведёт к немедленному преобразованию общества; изменения будут постепенными и управляемыми.

В конечном счёте, несмотря на текущие достижения, до AGI остаётся значительная работа, и пройдёт около десятилетия, прежде чем мы увидим системы, способные полностью заменить человеческий труд в сложных контекстах.

by ctoth • 17 октября 2025 г. в 17:24 • 1063 points

ОригиналHN

#openai#agi#artificial-intelligence#reinforcement-learning#machine-learning#ai-agents#autonomous-systems#neural-networks

Комментарии (949)

  • Обсуждение в основном вращается вокруг того, что AGI/AGI-образные системы всё ещё далеки, и что «десятилетие» стало универсальным эвфемизмом для «мы не знаем, когда это будет».
  • Участники спора подчеркнули, что текущие модели не решают фундаментальные проблемы, такие как постоянное обучение, причинность и планирование, и что мы по-прежнему полагаемся на эвристики, которые не масштабируются.
  • Были выдвинуты предположения, что AGI может потребовать качественно иной архитектуры, и что текущий путь может быть тупиковым.
  • Некоторые комментаторы выразили обеспокоенность тем, что гипер-оптимизм может вести к недооценке рисков и переоценке способностей текущих систем.
  • В целом, обсуждение подчеркнуло, что прогресс в ИИ-технологии не линеен и что прогнозы о сроках AGI часто оказываются неверными.

A History of Large Language Models (gregorygundersen.com)

TL;DR
Статья представляет собой глубокий анализ эволюции идей, лежащих в основе современных LLM. От распределённых представлений и трансформеров до предобучения и масштабируемости. Автор прослеживает путь от идей 1980-х годов до современных моделей, подчеркивая, что прогресс был не линейным, а скорее серией прыжков, сделанных возможными благодаря вычислительной мощности и объёму данных. Он также подчеркивает, что многие ключевые идеи были предвосхищены десятилетиями раньше, но не были реализованы до недавнего времени из-за ограничений в вычислениях. В конце он размышляет о том, что следующий прыжок может быть связан с генеративностью и способностью моделей к обобщению, и что мы можем быть на пороге следующего качественного скачка.

Основные идеи и факты:

  • Распределённые представления и трансформер как центральные идеи, которые были предвосхищены в 1980-х годах, но не могли быть реализованы до недавнего времени из-за ограничений в вычислениях.
  • Предобучение и масштабируемость как ключевые факторы, которые позволили LLM достичь их современного уровня.
  • Attention is all you need - это не только архитектура, но и философия, которая подчеркивает важность масштабируемости и эффективного использования вычислительных ресурсов.
  • Масштабируемость и предобучение как два кита, на которых стоит современный успех LLM.

by alexmolas • 06 октября 2025 г. в 08:13 • 235 points

ОригиналHN

#llm#transformers#attention-mechanism#pretraining#scalability#bert#nlp#agi#neural-networks

Комментарии (17)

  • Обсуждение подчеркнуло, что ранние LLM-архитектуры (GPT-1, GPT-2) часто упускаются из виду, хотя именно они положили начало современному направлению.
  • Участники отметили, что статья недооценивает значение BERT как промежуточного этапа, несмотря на его влияние на многочисленные бенчмарки и задачи.
  • Сообщество отметило, что LLM не столько «решили» задачи, сколько стали вычислять вероятности последовательностей, и это вызвало скепсис в отношении заявлений о приближении к AGI.
  • Была затронута тема, что вместо специализированных моделей классификации или регрессии, которые раньше использовали предобученные репрезентации, теперь используют LLM как универсальный инструмент, и это вызывает вопросы о том, как именно LLM влияют на поле AI-исследований.

OpenAI's hunger for computing power (wsj.com)

by doener • 04 октября 2025 г. в 22:14 • 87 points

ОригиналHN

#openai#agi#cloud-computing#llm#google#anthropic

Комментарии (68)

  • Обсуждение причин экстремальных аппетитов OpenAI к вычислительным мощностям: возможная стагнация технологии, требующая масштабирования для достижения AGI, или стратегия по захвату рынка.
  • Скептицизм относительно заявленных планов масштабирования: непрактичность 20-кратного роста, риски создания пузыря и спекулятивный характер для привлечения инвестиций.
  • Озабоченность экологическими и экономическими последствиями: рост цен на электроэнергию, дефицит компонентов и нагрузка на ресурсы планеты.
  • Обсуждение бизнес-модели: необходимость опередить конкурентов (Google, Anthropic), возможный переход в B2B-сегмент или создание сервиса "слишком большого, чтобы обанкротиться".
  • Сравнение с другими компаниями (DeepSeek, Qwen), которые создают конкурентоспособные модели с меньшими затратами, и вопросы эффективности использования вычислений.

Circular Financing: Does Nvidia's $110B Bet Echo the Telecom Bubble? (tomtunguz.com)

Nvidia инвестирует $110 млрд в OpenAI и другие AI-стартапы через венчурное финансирование, что напоминает стратегию Lucent во время пузыря доткомов. Lucent тогда выделила $8,1 млрд клиентам, которые покупали её оборудование, но после краха 47 телеком-компаний обанкротились, а до 80% кредитов не вернулись. Сейчас Nvidia рискует ещё больше: её обязательства составляют 85% выручки против 20% у Lucent, а 39% доходов зависят всего от двух клиентов.

Новизна ситуации в том, что $10+ млрд долгов обеспечены залогом в виде GPU, с предположением, что их стоимость сохранится на 4–6 лет. Крупные облачные провайдеры уже удлинили сроки амортизации оборудования до 6 лет, но Amazon недавно сократил их до 5, что может сигнализировать о переоценке рисков. Если спрос на AI-инфраструктуру замедлится, это может создать цепную реакцию defaults, особенно среди стартапов, зависящих от финансирования поставщиков.

by miltava • 04 октября 2025 г. в 13:06 • 180 points

ОригиналHN

#llm#venture-capital#gpu#cloud-computing#amazon#microsoft#google#agi#vendor-financing#nvidia

Комментарии (147)

  • Сравнение текущей ситуации с пузырем телекоммуникаций 90-х: есть как сходства (масштабные инвестиции в инфраструктуру, риск перепроизводства), так и ключевые различия (финансовая устойчивость Nvidia vs. мошенничество Lucent).
  • Главный риск для Nvidia — возможность резкого падения спроса на GPU, если AGI не будет достигнут в ожидаемые сроки (2-5 лет) или если инвесторы потеряют интерес из-за замедления прогресса.
  • Неопределенность долгосрочного спроса: несмотря на текущий ажиотаж, будущее зависит от появления реальных, прибыльных приложений ИИ, а не только от тренировки моделей; возможен избыток мощностей.
  • Роль крупных игроков (Microsoft, Google, Amazon) и их кастомерных чипов как потенциальная угроза монополии Nvidia, а также вопросы учетной политики и вендорного финансирования.
  • Скептицизм относительно способности ИИ самостоятельно решать сложные задачи и кардинально улучшать код без человеческого контроля, что ставит под вопрос оправданность огромных инвестиций.

OpenAI Is Just Another Boring, Desperate AI Startup (wheresyoured.at) 💬 Длинная дискуссия

OpenAI превратилась в хаотичный конгломерат без чёткой стратегии, пытаясь казаться всем сразу: соцсетью с генеративным видео, конкурентом Microsoft в продуктивности, платформой для найма, рекламным бизнесом, поставщиком вычислений, разработчиком чипов и даже производителем потребительского железа. Эти утечки в СМИ служат одной цели — раздуть оценку компании перед новыми раундами финансирования, ведь ей нужно $1 трлн в ближайшие годы.

На деле это скучный и убыточный софтверный бизнес: 20 млн платных подписчиков ChatGPT и 5 млн корпоративных (полмиллиона из них — скидочные места для университета) генерируют основную выручку, но траты колоссальны. GPT-5 оказался провалом — дороже в эксплуатации без реального улучшения возможностей. Компания теряет фокус, а её агенты и «новые продукты» остаются лишь проекциями на 2027 год.

by speckx • 03 октября 2025 г. в 16:37 • 175 points

ОригиналHN

#openai#gpt-5#llm#generative-ai#agi#deeplearning

Комментарии (156)

  • Критика финансовой модели OpenAI: обсуждение методов амортизации затрат на модели (3-12 месяцев против 3 лет) и высокой стоимости инференса, что ставит под вопрос реальную прибыльность.
  • Признание масштаба и влияния OpenAI: 800 млн активных пользователей и быстрое распространение передового ИИ, сравнимое с появлением интернета и мобильных технологий.
  • Дебаты о конкурентных преимуществах (moat): отсутствие технологического рва, давление со стороны открытых моделей (DeepSeek) и крупных игроков (Google), зависимость от государственной поддержки и финансирования.
  • Оценка продуктов и дороги к AGI: полярные мнения о GPT-5 и Sora 2 (от "разочарования" до "впечатляющих"), скептицизм насчет скорого перехода к AGI и смещение фокуса на коммерциализацию.
  • Обвинения автора исходного поста (Ed Zitron) в предвзятости, сенсационности и использовании "яростного байта" для продвижения собственного бизнеса на подписках.

How the AI Bubble Will Pop (derekthompson.org) 💬 Длинная дискуссия

Технологические компании вкладывают в ИИ-инфраструктуру около $400 млрд в год — это больше, чем стоимость программы «Аполлон» в пересчёте на десятилетие, но тратится такая сумма каждые 10 месяцев. При этом потребительские расходы на ИИ-услуги составляют лишь $12 млрд в год, создавая гигантский разрыв между инвестициями и отдачей.

Признаки пузыря налицо: стартапы вроде Thinking Machines привлекают миллиарды без готового продукта и даже без внятного плана, а рынок акций движется не фундаментальными показателями, а чистой спекулятивной динамикой. Крупные игроки используют бухгалтерские уловки, чтобы скрыть реальные расходы и искусственно завысить прибыль, что напоминает финансовые схемы времён ипотечного кризиса 2008 года.

by hdvr • 02 октября 2025 г. в 11:05 • 116 points

ОригиналHN

#artificial-intelligence#agi#investment#economics#startups#technology#geopolitics#llm

Комментарии (181)

  • Участники обсуждают, является ли текущий бум ИИ экономическим пузырем, проводя параллели с историческими примерами спекулятивных маний (каналы, железные дороги, доткомы).
  • Высказываются сомнения в текущей бизнес-ценности и монетизации ИИ для массового пользователя, отмечая, что многие используют бесплатные версии, а реальная прибыльность инвестиций неочевидна.
  • Подчёркивается, что компании продолжают инвестировать из-за страха отстать и веры в долгосрочный потенциал технологии, включая возможность достижения AGI (искусственного общего интеллекта).
  • Отмечается, что ИИ уже оказывает значительное влияние на отдельные области (поиск, программирование, автоматизация труда), и его внедрение растёт, но масштабы затрат могут не окупиться.
  • Обсуждаются риски, связанные с концентрацией производства чипов на Тайване и геополитической напряжённостью, что может угрожать всей отрасли.

Комментарии (71)

  • LLMs демонстрируют сильные способности в математике и науке, но проваливаются на простых визуальных и пространственных головоломках, таких как Sokoban или ARC-AGI.
  • Основная проблема LLM — отсутствие подлинного понимания и рассуждений; они работают через распознавание паттернов, а не через логическое мышление.
  • LLMs особенно слабы в пространственных рассуждениях, так как обучались в основном на текстовых данных, а не на визуальной информации.
  • Некоторые участники связывают неудачи LLM с форматом представления данных (например, визуальные головоломки в текстовом виде) и отсутствием мощных препроцессинговых блоков для изображений.
  • Предлагаются методы улучшения, включая эволюционные алгоритмы, поиск с подкреплением (RL) и создание каркасов (scaffolding) для решения задач.
  • Есть скептицизм относительно того, что улучшение производительности на узких тестах (как ARC-AGI) свидетельствует о прогрессе к AGI.
  • Обсуждается, является ли решение головоломок LLM результатом доступа к публичным обсуждениям этих задач, а не новыми возможностями рассуждений.

Will AI be the basis of many future industrial fortunes, or a net loser? (joincolossus.com) 💬 Длинная дискуссия

AI не сделает тебя богатым

  • Хайп вокруг ИИ ≠ лёгкие деньги.
  • Рынок быстро уравнивает преимущества; выигрывают те, кто строит уникальные системы, а не пользуется шаблонами.
  • Фокус: глубокая экспертиза, сильные команды, долгосрочное мышление.

by saucymew • 13 сентября 2025 г. в 22:01 • 199 points

ОригиналHN

#artificial-intelligence#openai#llm#agi

Комментарии (295)

  • Участники спорят: сделает ли ИИ кого-то богатым или просто снизит барьеры входа.
  • Многие считают, что выиграют не стартапы, а пользователи и крупные платформы (OpenAI, Google).
  • LLM уже экономят деньги отдельным людям и малым командам, заменяя дизайнеров, копирайтеров, программистов.
  • Для серьёзного бизнеса ИИ пока лишь оптимизирует затраты, не создавая новых гигантских рынков.
  • AGI и полностью «голливудские» приложения пока фантастика; текущий бум может закончиться пузырём.

Amazon has mostly sat out the AI talent war (businessinsider.com) 🔥 Горячее 💬 Длинная дискуссия

  • Amazon не участвует в «войне за ИИ-таланты»: внутренний документ показывает, что компания теряет специалистов из-за жёсткой модели оплаты и репутации отстающего игрока.
  • Зарплаты ниже конкурентов: Meta и OpenAI предлагают пакеты до 1 млн $, тогда как Amazon придерживается ограниченного «total comp» с медленным ростом акций.
  • Утечка мозгов: ключевые исследователи уходят в Anthropic, Google и стартапы; внутри жалуются на «застой» и бюрократию.
  • Попытки реакции: команда AGI под руководством Rohit Prasad запросила «специальные ставки» для 200 топ-специалистов, но финансовый отдел сопротивляется.
  • Итог: без пересмотра компенсаций Amazon рискует окончательно отстать в гонке за ИИ-лидерство.

by ripe • 01 сентября 2025 г. в 19:04 • 344 points

ОригиналHN

#amazon#llm#aws#anthropic#cloud-platforms#agi#compensation#talent-acquisition#bedrock

Комментарии (609)

  • Amazon не гонится за «золотом» ИИ, а продаёт «лопаты» — предоставляет через AWS вычислительные мощности и инфраструктуру всем игрокам.
  • Участники считают, что методологического рва у LLM нет; преимущество даёт лишь вычислительная мощь, которую проще купить, чем переплачивать за таланты.
  • Партнёрство с Anthropic и модели Bedrock позволяют Amazon получать доход без миллиардных трат на собственные модели.
  • Репутация компании как «фабрики выгорания» и жёсткие условия труда отпугивают топ-специалистов.
  • Многие видят стратегию Amazon разумной: пусть конкуренты истратятся на гонку, а потом можно будет встроить лучшие решения в свои сервисы.

AGI is an engineering problem, not a model training problem (vincirufus.com) 💬 Длинная дискуссия

AGI — задача инженерии, а не обучения моделей

Масштабирование LLM стало давать убывающий прирост. GPT-5, Claude, Gemini — вершина кривой, но не путь к AGI. Нужно строить системы, где модели, память, контекст и детерминированные процессы объединяются в нечто большее.

Почему рост остановился

Современные LLM — мощные генераторы текста, но:

  • не сохраняют контекст между сессиями,
  • не имеют постоянной памяти,
  • стохастичны и ненадёжны в сложных цепочках рассуждений.

Как и полупроводники в 2000-х, AI пришёл к пределу. Выход — не «ещё больше параметров», а новая архитектура.

Что строить

  1. Управление контекстом как инфраструктура

    • Динамический поиск и фильтрация релевантных данных.
    • Живые знания-графы, обновляемые в реальном времени.
    • Обработка противоречий и неопределённости.
  2. Память как сервис

    • Обновление убеждений при новых фактах.
    • Консолидация опыта в принципы, забывание мусора.
    • Метазнания о надёжности источников.
  3. Детерминированные процессы со стохастическими узлами

    • Жёсткие workflow, где нужно, и вероятностные оптимизации, где можно.
    • Откат и проверка результатов перед фиксацией.
    • Неопределённость — объект первого класса.
  4. Модульные специализированные модели

    • Языковые — для текста, символьные — для логики, пространственные — для визуальных задач.
    • Оркестрация через маршрутизацию запросов и слияние результатов.

Итог

AGI появится не из одной супер-модели, а из экосистемы взаимодействующих компонентов, спроектированных как надёжная инженерная система.

by vincirufus • 24 августа 2025 г. в 00:18 • 130 points

ОригиналHN

#agi#llm#artificial-intelligence#machine-learning#knowledge-graphs#neural-networks

Комментарии (260)

  • Стороны спорят, является ли путь к AGI «чистой» инженерной задачей или фундаментальной научной проблемой: многие считают, что мы пока не понимаем, что такое интеллект и сознание.
  • LLM-критики подчеркивают, что современные модели — это всего лишь статистические машины без настоящего мышления, а их «выравнивание» не приближает к универсальному интеллекту.
  • Сторонники масштабирования и «горького урока» утверждают, что дальнейшие данные и вычисления могут породить новые способности, но даже они сомневаются, что LLM-архитектура способна дойти до AGI.
  • Ряд участников предлагает искать вдохновение в биологии, эволюции и эмоциях, считая, что без понимания «живого» интеллекта инженерные решения обречены.
  • Общий вывод: AGI пока не определено, не измерено и, возможно, не достижимо в рамках существующих подходов; дискуссия остаётся открытой.

Google's Genie is more impressive than GPT5 (theahura.substack.com)

AGI стремится к универсальности, но нельзя просто import everything. Решение — компрессия и обобщение: небольшая модель покрывает огромное пространство задач. Глубокое обучение сжимает терабайты данных в десятки гигабайтов весов, и LLM не только имитируют текст, но и умеют, например, играть в шахматы без явного обучения.

Следующий шаг — world-models, способные представлять не только текст и картинки, но и всю окружающую реальность. Такая модель могла бы «смоделировать Тибет» и сообщить погоду, а робот — планировать движения, опираясь на внутреннюю симуляцию мира. Проблема в колоссальном объёме видеоданных и вычислений, поэтому мало кто рискует.

Google DeepMind рискнул: три дня назад представил Genie 3 (Generative Interactive Environments). Если GPT создаёт текст, Veo и Sora — видео, то Genie превращает описание в интерактивную видеоигру, где можно бродить минутами. Пока коротко, но это качественный скачок и намёк на будущее, где модели будут поддерживать длинную когерентность не только в тексте, но и в «живых» мирах.

by theahura • 08 августа 2025 г. в 14:46 • 177 points

ОригиналHN

#agi#google-deepmind#genie#llm#world-models#deep-learning#machine-learning#google

Комментарии (58)

  • Пользователи высмеяли идею «стимулировать Тибет» вместо обычного запроса погоды.
  • Рынки ставок и графики вызвали споры: одни видят рост ожиданий Gemini-3, другие указывают, что Gemini 2.5 уже выше GPT-5 в бенчмарке.
  • Многие считают статью пустой и отказываются верить демо, пока Genie 3 не станет публично доступен.
  • Обсуждение свелось к тому, что ни GPT-5, ни Gemini пока не близки к AGI, а термин «AGI» постоянно меняется под маркетинг.

Live: GPT-5 (youtube.com)

  • Introducing GPT-5 — YouTube

  • Пропустить навигацию

  • Поиск / Поиск голосом

  • Войти

  • Смотреть позже • Поделиться • Копировать ссылку • Покупки

  • Нажмите, чтобы включить звук • 2x

  • Если воспроизведение не началось, перезапустите устройство.

  • Вы вышли из аккаунта. Просмотры могут влиять на рекомендации на ТВ. Чтобы избежать этого, отмените и войдите на YouTube на компьютере.

  • Отмена • Подтвердить

  • 37:35 • 7 августа, 10:00 GMT-7

  • Далее • Прямой эфир запланирован • Играть

Introducing GPT-5

  • OpenAI • Подтверждено • 1,65 млн подписчиков
  • Подписаться • Подписаны
  • 6 522 ожидают • Запланировано на 7 авг. 2025
  • 1K • Поделиться • Скачать • Сохранить
  • Комментарии отключены

Описание

  • Introducing GPT-5

  • Присоединяйтесь к Сэму Альтману, Грегу Брокману, Себастьену Бюбеку, Марку Чену, Янну Дюбуа, Брайану Фиоке, Ади Ганешу, Оливеру Годеману, Саачи Джайн, Кристине Каплан, Тине Ким, Элейн Я Ле, Фелипе Миллону, Мишель Покрасс, Якубу Пахоцки, Максу Шварцеру, Ренни Сонгу, Жожену Вану — они представят и продемонстрируют GPT‑5.

  • OpenAI: Видео • О канале • Twitter • LinkedIn

by georgehill • 07 августа 2025 г. в 16:16 • 157 points

ОригиналHN

#openai#gpt-5#anthropic#sonnet#claudecode#javascript#typescript#llm#agi#programming

Комментарии (92)

  • Участники обсуждают качество ИИ для повседневного программирования: один отмечает сильное превосходство Anthropic (Sonnet 3.7/4 и Claude Code), причём в Cursor опыт хуже, чем в самом Claude Code, и OpenAI‑модели он почти не использует.
  • Есть надежда, что GPT‑5 сократит отставание OpenAI, хотя мнения пользователей сильно расходятся.
  • Другой комментатор ожидает, что грядущие анонсы покажут радикальное влияние на рынок: веб‑ и JS/TS‑разработчики могут стать частично или полностью невостребованными.
  • При этом подчёркивается, что речь ещё не об «AGI» — максимум о ~10% от обещанных возможностей AGI.
  • Отмечается ночной «слив», указывающий на фокус на кодинге; предполагается, что для названия «GPT‑5» OpenAI должен предложить существенное преимущество над Anthropic.

AI Ethics is being narrowed on purpose, like privacy was (nimishg.substack.com)

  • Пару дней назад OpenAI впервые за долгое время выпустила открытый языковой модуль. Сроки откладывали из‑за «безопасности». Они много говорят о безопасности — удобно для пиара: на вопросы об этике можно показывать на эти работы и будто бы закрывать тему. Но под «этикой» люди чаще имеют в виду не мат, фильтры и троллейбусные дилеммы, а реальность: управление и подотчётность, использование данных, перераспределение власти и денег, влияние на занятость. Вопрос: что делают люди, управляющие моделями, и как это влияет на общество?

  • Такой подменой уже пользовались в теме приватности. В 1990‑х телемаркетинг покупал клиентские базы у компаний, которые не понимали ценность данных. Возмущение породило шаблон: «мы не делимся данными с третьими сторонами». Непроизнесённая часть: «им проще купить нас целиком — это и есть стратегия выхода». Сегодня, говоря о приватности, людей волнует, что делает с их данными именно текущая компания/приложение: школьное, парковочное, для проезда. Но разговор сводят к «чтобы посторонние не получили доступ», а не к «что конкретно делает эта компания». В итоге возникает индустрия соответствия и тестирования, честно решающая второстепенную задачу, чтобы не решать главную. Как политик, который на «поднимете ли налоги?» отвечает «мы вырастим экономику».

  • С ИИ иначе лишь потому, что тема новая, и мы опирались на sci‑fi мысленные эксперименты. Они увлекательны и безопасны для бизнеса: никто не хочет «бумажкоскрепочную» катастрофу или симуляцию Black Mirror, а обсуждать это — выгодный пиар и бесплатное внимание прессы. Но такое сужение смещает фокус с реальных последствий и распределения ответственности на удобные, далекие от практики сценарии.

by i_dont_know_ • 07 августа 2025 г. в 11:20 • 151 points

ОригиналHN

#ai-ethics#privacy#openai#agi#llm

Комментарии (103)

  • Обсуждение критикует «этику/безопасность ИИ» за смещение фокуса с практических проблем (доступность жилья/еды, защита данных, рабочие места) на абстрактные «структуры управления» и пиар вокруг гипотетического AGI.
  • Часть участников отличает «этику» от «безопасности» (этика шире), указывая на подмену тем и маркетинговую гиперболу; другие считают, что без глобальных договорённостей с санкциями этика неработоспособна.
  • Сильная полемика вокруг квалификации «этиков/безопасников»: одни обвиняют их в непрактичности, другие отвечают, что в области много технических специалистов и исследований.
  • Ассимовские законы в целом отвергаются как литературный приём, непригодный для реальной инженерии ИИ, особенно в парадигме обучения на данных и «чёрного ящика».
  • Большое внимание «приземлённым» рискам: злоупотребления корпоративными данными и скрейпингом, энергопотребление, уязвимости и malware (не зависящие от ИИ), экономическое давление, утрата рабочих мест, концентрация власти.
  • Звучит скепсис: регулировать уже поздно, компании преследуют выгоду; «этика» часто служит ширмой или PR, а открытый исходный код и распределение власти рассматриваются как возможная контрмера.
  • Есть разногласия о влиянии «сафегардов»: одни опасаются, что жёсткие ограничения ухудшают способности моделей, другие считают, что безопасность неизбежно замедляет развитие, но без неё растут системные риски.