AI's Dial-Up Era 🔥 Горячее 💬 Длинная дискуссия
Мы сейчас находимся в "эпоху модема" для искусственного интеллекта, аналогичной раннему интернету 1995 года. Тогда существовало лишь около 2000 сайтов, большинство из которых представляли собой текст на сером фоне, а загрузка изображения занимала минуту. Люди разделились на оптимистов, предсказывавших революционные изменения, и скептиков, называвших интернет временной модой. Сегодня в дебатах об ИИ повторяются те же ошибки: одни предрекают массовую безработицу, другие — автоматизацию всех интеллектуальных задач.
Парадоксально, но ИИ не заменяет специалистов, как предсказывали. Например, радиологи, несмотря на предупреждения Джеффри Хинтона о скорой замене, процветают: в 2025 году количество вакансий достигло рекордных 1208, а средняя зарплата составила $520,000 — на 48% выше, чем в 2015 году. Это показывает, что влияние ИИ будет более избирательным и зависящим от отрасли, чем экстремалистские прогнозы обеих сторон допускают.
Комментарии (395)
- Дискуссия вращается вокруг сравнений «AI-бум ↔ мыльный пузырь» и «AI ↔ золотая лихорадка»; участники спорят, насколько адекватна аналогия с эпохой dial-up и спекулятивным оптимизмом 90-х.
- Ключевой тезис: «мы строим инфраструктуру, а не продукт» — и это вызывает спор, кто и зачем её строит, и что останется после «холодного душа».
- Участники обсуждают, что если «пузырь» лопнет, то останутся ли GPU-фермы как остаточная ценность, или же они обесценятся как нефункциональные активы.
- Поднимается вопрос, что будет, если AGI не появится в ближайшие годы, и как это повлияет на стоимость вычислений и, следовательно, на стоимость токенов.
- Наконец, обсуждается, что если «пузырь» лопнет, то какие именно активы останутся в руках у инвесторов и как это повлияет на стоимость токенов и, в конечном счете, на стоимость компаний.
Комментарии (138)
- Обсуждение свелось к тому, что участники обмениваются обвинениями в лицемерии, гиперболе и упрощении, а также в том, что они не предлагают конструктивных решений.
- Сторонники «думай как я» обвиняют оппонентов в том, что они не могут предсказать, какие именно сценарии развития событий приведут к гибели всего человечества, и утверждают, что если бы они могли, они бы уже решили проблему.
- Сторонники «думай как я» также утверждают, что если бы существовала хоть какая-то надежда на то, что AGI не приведет к гибели всего человечества, то было бы уже решено, как сделать так, чтобы это было так.
- Сторонники «думай как я» также утверждают, что если бы существовала хоть какая-то надежда на то, что AGI не приведет к гибели всего человечества, то было бы уже решено, как сделать так, чтобы это было так.
- Сторонники «думай как я» утверждают, что если бы существовала хоть какая-то надежда на то, что AGI не приведет к гибели всего человечества, то было бы уже решено, как сделать так, чтобы это было так.
- Сторонники «думай как я» утверждают, что если бы существовала хоть какая-то надежда на то, что AGI не приведет к гибели всего человечества, то было бы уже решено, как сделать так, чтобы это было так.
A definition of AGI 🔥 Горячее 💬 Длинная дискуссия
В статье предлагается первое конкретное определение AGI, соответствующее когнитической универсальности и компетентности хорошо образованного взрослого человека. Авторы основали свою методологию на теории Кэттелла-Хорна-Карролла, наиболее эмпирически проверенной модели человеческого познания, разбив общую интеллект на десять когнитивных доменов, включая рассуждение, память и восприятие. Применение этого подхода показало "зубчатый" когнитивный профиль современных моделей, где текущие ИИ-системы, несмотря на proficiency в знаниемких областях, имеют критические недостатки в базовом когнитивном аппарате, особенно в долговременном хранении памяти.
Представленные AGI-оценки количественно определяют как прогресс, так и оставшийся разрыв до достижения AGI: GPT-4 получил 27%, а GPT-5 - 58%. Эта метрика предлагает объективный способ измерения развития систем ИИ и выявления их сильных и слабых сторон, что может направить будущие исследования в области создания более сбалансированных и универсальных искусственных интеллектов.
Комментарии (440)
- Обсуждение в основном вращается вокруг того, что такое AGI и как его измерять, при этом критикуя предложенное в статье определение как "сопоставимость с взрослым человеком" как слишком узкое и не учитывающее другие формы интеллекта.
- Участники спора подчеркивают, что AGI не может быть измерено только через тесты на "когнитивные способности", поскольку эти тесты не охватывают такие аспекты как эмоциональный интеллект, физическое взаимодействие с миром и социальные навыки.
- Также поднимается вопрос о том, что если AGI определяется как "способность к обучению", то LLM уже достигли этого, но при этом они не обладают другими важными чертами интеллекта, такими как самостоятельность, мотивация и физическое взаимодействие с миром.
- Наконец, критикуется сама статья за то, что она не предлагает конкретного определения AGI, вместо этого полагаясь на устаревшую теорию CHC, которая сама по себе неполна и не охватывает такие важные аспекты интеллекта как мотивация и саморегуляция.
'Attention is all you need' coauthor says he's 'sick' of transformers 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (176)
- Ведущие исследователи, включая одного из соавторов оригинальной статьи "Attention is all you need", открыто заявляют, что уходят от трансформеров и ищут «следующую большую идею», вызывая вопрос, действительно ли это поиск новой архитектуры или просто PR-ход.
- Участники обсуждения отмечают, что трансформеры стали не только архитектурой, но и целой инфраструктурой: от GPU и TPU до всего стека LLM-стека, что делает любую альтернативу экономически невыгодной.
- Некоторые комментаторы поднимают вопрос о том, что если следующий прорыв будет зависеть от новой архитектуры, то это может быть не только научный, но и экономический выбор, который может быть не в интересах общества или даже безопасности.
- Другие спорят, что фокус на трансформерах может отвлекать от других направлений, таких как обучение с подкреплением, которые могут быть более критически важны для AGI.
- И хотя некоторые участники высказывают, что трансформеры могли быть "пыльной доской" для следующего прогресса, другие считают, что они могут быть просто "сингуларностью в зародыше", и что мы должны быть осторожны в том, чтобы не убить золотую курицу, которая может быть просто медленно варится.
Andrej Karpathy – It will take a decade to work through the issues with agents 🔥 Горячее 💬 Длинная дискуссия
Андрей Карпати из OpenAI объясняет, почему до общего искусственного интеллекта (AGI) остаётся ещё около десятилетия. Хотя современные ИИ-агенты вроде Claude и Codex впечатляют, они пока неспособны автономно выполнять комплексные задачи, как человек-ассистент. Основные ограничения включают недостаточную многомодальность (неспособность работать с разными типами данных), неумение взаимодействовать с компьютерными системами и отсутствие непрерывного обучения на основе опыта.
Эти проблемы решаемы, но сложны — требуется масштабирование вычислительных мощностей, улучшение алгоритмов (особенно обучения с подкреплением, которое сейчас "ужасно"), и создание более сложных архитектур для обработки контекста и планирования. Как и с беспилотными автомобилями, прогресс будет постепенным, а не взрывным.
Когда AGI finalmente появится, оно, вероятно, интегрируется в экономику так же плавно, как и предыдущие технологические прорывы, поддерживая ~2% рост ВВП без резких скачков. Даже AGI не приведёт к немедленному преобразованию общества; изменения будут постепенными и управляемыми.
В конечном счёте, несмотря на текущие достижения, до AGI остаётся значительная работа, и пройдёт около десятилетия, прежде чем мы увидим системы, способные полностью заменить человеческий труд в сложных контекстах.
Комментарии (949)
- Обсуждение в основном вращается вокруг того, что AGI/AGI-образные системы всё ещё далеки, и что «десятилетие» стало универсальным эвфемизмом для «мы не знаем, когда это будет».
- Участники спора подчеркнули, что текущие модели не решают фундаментальные проблемы, такие как постоянное обучение, причинность и планирование, и что мы по-прежнему полагаемся на эвристики, которые не масштабируются.
- Были выдвинуты предположения, что AGI может потребовать качественно иной архитектуры, и что текущий путь может быть тупиковым.
- Некоторые комментаторы выразили обеспокоенность тем, что гипер-оптимизм может вести к недооценке рисков и переоценке способностей текущих систем.
- В целом, обсуждение подчеркнуло, что прогресс в ИИ-технологии не линеен и что прогнозы о сроках AGI часто оказываются неверными.
A History of Large Language Models
TL;DR
Статья представляет собой глубокий анализ эволюции идей, лежащих в основе современных LLM. От распределённых представлений и трансформеров до предобучения и масштабируемости. Автор прослеживает путь от идей 1980-х годов до современных моделей, подчеркивая, что прогресс был не линейным, а скорее серией прыжков, сделанных возможными благодаря вычислительной мощности и объёму данных. Он также подчеркивает, что многие ключевые идеи были предвосхищены десятилетиями раньше, но не были реализованы до недавнего времени из-за ограничений в вычислениях. В конце он размышляет о том, что следующий прыжок может быть связан с генеративностью и способностью моделей к обобщению, и что мы можем быть на пороге следующего качественного скачка.
Основные идеи и факты:
- Распределённые представления и трансформер как центральные идеи, которые были предвосхищены в 1980-х годах, но не могли быть реализованы до недавнего времени из-за ограничений в вычислениях.
- Предобучение и масштабируемость как ключевые факторы, которые позволили LLM достичь их современного уровня.
- Attention is all you need - это не только архитектура, но и философия, которая подчеркивает важность масштабируемости и эффективного использования вычислительных ресурсов.
- Масштабируемость и предобучение как два кита, на которых стоит современный успех LLM.
Комментарии (17)
- Обсуждение подчеркнуло, что ранние LLM-архитектуры (GPT-1, GPT-2) часто упускаются из виду, хотя именно они положили начало современному направлению.
- Участники отметили, что статья недооценивает значение BERT как промежуточного этапа, несмотря на его влияние на многочисленные бенчмарки и задачи.
- Сообщество отметило, что LLM не столько «решили» задачи, сколько стали вычислять вероятности последовательностей, и это вызвало скепсис в отношении заявлений о приближении к AGI.
- Была затронута тема, что вместо специализированных моделей классификации или регрессии, которые раньше использовали предобученные репрезентации, теперь используют LLM как универсальный инструмент, и это вызывает вопросы о том, как именно LLM влияют на поле AI-исследований.
Комментарии (68)
- Обсуждение причин экстремальных аппетитов OpenAI к вычислительным мощностям: возможная стагнация технологии, требующая масштабирования для достижения AGI, или стратегия по захвату рынка.
- Скептицизм относительно заявленных планов масштабирования: непрактичность 20-кратного роста, риски создания пузыря и спекулятивный характер для привлечения инвестиций.
- Озабоченность экологическими и экономическими последствиями: рост цен на электроэнергию, дефицит компонентов и нагрузка на ресурсы планеты.
- Обсуждение бизнес-модели: необходимость опередить конкурентов (Google, Anthropic), возможный переход в B2B-сегмент или создание сервиса "слишком большого, чтобы обанкротиться".
- Сравнение с другими компаниями (DeepSeek, Qwen), которые создают конкурентоспособные модели с меньшими затратами, и вопросы эффективности использования вычислений.
Circular Financing: Does Nvidia's $110B Bet Echo the Telecom Bubble?
Nvidia инвестирует $110 млрд в OpenAI и другие AI-стартапы через венчурное финансирование, что напоминает стратегию Lucent во время пузыря доткомов. Lucent тогда выделила $8,1 млрд клиентам, которые покупали её оборудование, но после краха 47 телеком-компаний обанкротились, а до 80% кредитов не вернулись. Сейчас Nvidia рискует ещё больше: её обязательства составляют 85% выручки против 20% у Lucent, а 39% доходов зависят всего от двух клиентов.
Новизна ситуации в том, что $10+ млрд долгов обеспечены залогом в виде GPU, с предположением, что их стоимость сохранится на 4–6 лет. Крупные облачные провайдеры уже удлинили сроки амортизации оборудования до 6 лет, но Amazon недавно сократил их до 5, что может сигнализировать о переоценке рисков. Если спрос на AI-инфраструктуру замедлится, это может создать цепную реакцию defaults, особенно среди стартапов, зависящих от финансирования поставщиков.
Комментарии (147)
- Сравнение текущей ситуации с пузырем телекоммуникаций 90-х: есть как сходства (масштабные инвестиции в инфраструктуру, риск перепроизводства), так и ключевые различия (финансовая устойчивость Nvidia vs. мошенничество Lucent).
- Главный риск для Nvidia — возможность резкого падения спроса на GPU, если AGI не будет достигнут в ожидаемые сроки (2-5 лет) или если инвесторы потеряют интерес из-за замедления прогресса.
- Неопределенность долгосрочного спроса: несмотря на текущий ажиотаж, будущее зависит от появления реальных, прибыльных приложений ИИ, а не только от тренировки моделей; возможен избыток мощностей.
- Роль крупных игроков (Microsoft, Google, Amazon) и их кастомерных чипов как потенциальная угроза монополии Nvidia, а также вопросы учетной политики и вендорного финансирования.
- Скептицизм относительно способности ИИ самостоятельно решать сложные задачи и кардинально улучшать код без человеческого контроля, что ставит под вопрос оправданность огромных инвестиций.
OpenAI Is Just Another Boring, Desperate AI Startup 💬 Длинная дискуссия
OpenAI превратилась в хаотичный конгломерат без чёткой стратегии, пытаясь казаться всем сразу: соцсетью с генеративным видео, конкурентом Microsoft в продуктивности, платформой для найма, рекламным бизнесом, поставщиком вычислений, разработчиком чипов и даже производителем потребительского железа. Эти утечки в СМИ служат одной цели — раздуть оценку компании перед новыми раундами финансирования, ведь ей нужно $1 трлн в ближайшие годы.
На деле это скучный и убыточный софтверный бизнес: 20 млн платных подписчиков ChatGPT и 5 млн корпоративных (полмиллиона из них — скидочные места для университета) генерируют основную выручку, но траты колоссальны. GPT-5 оказался провалом — дороже в эксплуатации без реального улучшения возможностей. Компания теряет фокус, а её агенты и «новые продукты» остаются лишь проекциями на 2027 год.
Комментарии (156)
- Критика финансовой модели OpenAI: обсуждение методов амортизации затрат на модели (3-12 месяцев против 3 лет) и высокой стоимости инференса, что ставит под вопрос реальную прибыльность.
- Признание масштаба и влияния OpenAI: 800 млн активных пользователей и быстрое распространение передового ИИ, сравнимое с появлением интернета и мобильных технологий.
- Дебаты о конкурентных преимуществах (moat): отсутствие технологического рва, давление со стороны открытых моделей (DeepSeek) и крупных игроков (Google), зависимость от государственной поддержки и финансирования.
- Оценка продуктов и дороги к AGI: полярные мнения о GPT-5 и Sora 2 (от "разочарования" до "впечатляющих"), скептицизм насчет скорого перехода к AGI и смещение фокуса на коммерциализацию.
- Обвинения автора исходного поста (Ed Zitron) в предвзятости, сенсационности и использовании "яростного байта" для продвижения собственного бизнеса на подписках.
How the AI Bubble Will Pop 💬 Длинная дискуссия
Технологические компании вкладывают в ИИ-инфраструктуру около $400 млрд в год — это больше, чем стоимость программы «Аполлон» в пересчёте на десятилетие, но тратится такая сумма каждые 10 месяцев. При этом потребительские расходы на ИИ-услуги составляют лишь $12 млрд в год, создавая гигантский разрыв между инвестициями и отдачей.
Признаки пузыря налицо: стартапы вроде Thinking Machines привлекают миллиарды без готового продукта и даже без внятного плана, а рынок акций движется не фундаментальными показателями, а чистой спекулятивной динамикой. Крупные игроки используют бухгалтерские уловки, чтобы скрыть реальные расходы и искусственно завысить прибыль, что напоминает финансовые схемы времён ипотечного кризиса 2008 года.
Комментарии (181)
- Участники обсуждают, является ли текущий бум ИИ экономическим пузырем, проводя параллели с историческими примерами спекулятивных маний (каналы, железные дороги, доткомы).
- Высказываются сомнения в текущей бизнес-ценности и монетизации ИИ для массового пользователя, отмечая, что многие используют бесплатные версии, а реальная прибыльность инвестиций неочевидна.
- Подчёркивается, что компании продолжают инвестировать из-за страха отстать и веры в долгосрочный потенциал технологии, включая возможность достижения AGI (искусственного общего интеллекта).
- Отмечается, что ИИ уже оказывает значительное влияние на отдельные области (поиск, программирование, автоматизация труда), и его внедрение растёт, но масштабы затрат могут не окупиться.
- Обсуждаются риски, связанные с концентрацией производства чипов на Тайване и геополитической напряжённостью, что может угрожать всей отрасли.
Комментарии (71)
- LLMs демонстрируют сильные способности в математике и науке, но проваливаются на простых визуальных и пространственных головоломках, таких как Sokoban или ARC-AGI.
- Основная проблема LLM — отсутствие подлинного понимания и рассуждений; они работают через распознавание паттернов, а не через логическое мышление.
- LLMs особенно слабы в пространственных рассуждениях, так как обучались в основном на текстовых данных, а не на визуальной информации.
- Некоторые участники связывают неудачи LLM с форматом представления данных (например, визуальные головоломки в текстовом виде) и отсутствием мощных препроцессинговых блоков для изображений.
- Предлагаются методы улучшения, включая эволюционные алгоритмы, поиск с подкреплением (RL) и создание каркасов (scaffolding) для решения задач.
- Есть скептицизм относительно того, что улучшение производительности на узких тестах (как ARC-AGI) свидетельствует о прогрессе к AGI.
- Обсуждается, является ли решение головоломок LLM результатом доступа к публичным обсуждениям этих задач, а не новыми возможностями рассуждений.
Will AI be the basis of many future industrial fortunes, or a net loser? 💬 Длинная дискуссия
AI не сделает тебя богатым
- Хайп вокруг ИИ ≠ лёгкие деньги.
- Рынок быстро уравнивает преимущества; выигрывают те, кто строит уникальные системы, а не пользуется шаблонами.
- Фокус: глубокая экспертиза, сильные команды, долгосрочное мышление.
Комментарии (295)
- Участники спорят: сделает ли ИИ кого-то богатым или просто снизит барьеры входа.
- Многие считают, что выиграют не стартапы, а пользователи и крупные платформы (OpenAI, Google).
- LLM уже экономят деньги отдельным людям и малым командам, заменяя дизайнеров, копирайтеров, программистов.
- Для серьёзного бизнеса ИИ пока лишь оптимизирует затраты, не создавая новых гигантских рынков.
- AGI и полностью «голливудские» приложения пока фантастика; текущий бум может закончиться пузырём.
Amazon has mostly sat out the AI talent war 🔥 Горячее 💬 Длинная дискуссия
- Amazon не участвует в «войне за ИИ-таланты»: внутренний документ показывает, что компания теряет специалистов из-за жёсткой модели оплаты и репутации отстающего игрока.
- Зарплаты ниже конкурентов: Meta и OpenAI предлагают пакеты до 1 млн $, тогда как Amazon придерживается ограниченного «total comp» с медленным ростом акций.
- Утечка мозгов: ключевые исследователи уходят в Anthropic, Google и стартапы; внутри жалуются на «застой» и бюрократию.
- Попытки реакции: команда AGI под руководством Rohit Prasad запросила «специальные ставки» для 200 топ-специалистов, но финансовый отдел сопротивляется.
- Итог: без пересмотра компенсаций Amazon рискует окончательно отстать в гонке за ИИ-лидерство.
Комментарии (609)
- Amazon не гонится за «золотом» ИИ, а продаёт «лопаты» — предоставляет через AWS вычислительные мощности и инфраструктуру всем игрокам.
- Участники считают, что методологического рва у LLM нет; преимущество даёт лишь вычислительная мощь, которую проще купить, чем переплачивать за таланты.
- Партнёрство с Anthropic и модели Bedrock позволяют Amazon получать доход без миллиардных трат на собственные модели.
- Репутация компании как «фабрики выгорания» и жёсткие условия труда отпугивают топ-специалистов.
- Многие видят стратегию Amazon разумной: пусть конкуренты истратятся на гонку, а потом можно будет встроить лучшие решения в свои сервисы.
AGI is an engineering problem, not a model training problem 💬 Длинная дискуссия
AGI — задача инженерии, а не обучения моделей
Масштабирование LLM стало давать убывающий прирост. GPT-5, Claude, Gemini — вершина кривой, но не путь к AGI. Нужно строить системы, где модели, память, контекст и детерминированные процессы объединяются в нечто большее.
Почему рост остановился
Современные LLM — мощные генераторы текста, но:
- не сохраняют контекст между сессиями,
- не имеют постоянной памяти,
- стохастичны и ненадёжны в сложных цепочках рассуждений.
Как и полупроводники в 2000-х, AI пришёл к пределу. Выход — не «ещё больше параметров», а новая архитектура.
Что строить
-
Управление контекстом как инфраструктура
- Динамический поиск и фильтрация релевантных данных.
- Живые знания-графы, обновляемые в реальном времени.
- Обработка противоречий и неопределённости.
-
Память как сервис
- Обновление убеждений при новых фактах.
- Консолидация опыта в принципы, забывание мусора.
- Метазнания о надёжности источников.
-
Детерминированные процессы со стохастическими узлами
- Жёсткие workflow, где нужно, и вероятностные оптимизации, где можно.
- Откат и проверка результатов перед фиксацией.
- Неопределённость — объект первого класса.
-
Модульные специализированные модели
- Языковые — для текста, символьные — для логики, пространственные — для визуальных задач.
- Оркестрация через маршрутизацию запросов и слияние результатов.
Итог
AGI появится не из одной супер-модели, а из экосистемы взаимодействующих компонентов, спроектированных как надёжная инженерная система.
Комментарии (260)
- Стороны спорят, является ли путь к AGI «чистой» инженерной задачей или фундаментальной научной проблемой: многие считают, что мы пока не понимаем, что такое интеллект и сознание.
- LLM-критики подчеркивают, что современные модели — это всего лишь статистические машины без настоящего мышления, а их «выравнивание» не приближает к универсальному интеллекту.
- Сторонники масштабирования и «горького урока» утверждают, что дальнейшие данные и вычисления могут породить новые способности, но даже они сомневаются, что LLM-архитектура способна дойти до AGI.
- Ряд участников предлагает искать вдохновение в биологии, эволюции и эмоциях, считая, что без понимания «живого» интеллекта инженерные решения обречены.
- Общий вывод: AGI пока не определено, не измерено и, возможно, не достижимо в рамках существующих подходов; дискуссия остаётся открытой.
Google's Genie is more impressive than GPT5
AGI стремится к универсальности, но нельзя просто import everything. Решение — компрессия и обобщение: небольшая модель покрывает огромное пространство задач. Глубокое обучение сжимает терабайты данных в десятки гигабайтов весов, и LLM не только имитируют текст, но и умеют, например, играть в шахматы без явного обучения.
Следующий шаг — world-models, способные представлять не только текст и картинки, но и всю окружающую реальность. Такая модель могла бы «смоделировать Тибет» и сообщить погоду, а робот — планировать движения, опираясь на внутреннюю симуляцию мира. Проблема в колоссальном объёме видеоданных и вычислений, поэтому мало кто рискует.
Google DeepMind рискнул: три дня назад представил Genie 3 (Generative Interactive Environments). Если GPT создаёт текст, Veo и Sora — видео, то Genie превращает описание в интерактивную видеоигру, где можно бродить минутами. Пока коротко, но это качественный скачок и намёк на будущее, где модели будут поддерживать длинную когерентность не только в тексте, но и в «живых» мирах.
Комментарии (58)
- Пользователи высмеяли идею «стимулировать Тибет» вместо обычного запроса погоды.
- Рынки ставок и графики вызвали споры: одни видят рост ожиданий Gemini-3, другие указывают, что Gemini 2.5 уже выше GPT-5 в бенчмарке.
- Многие считают статью пустой и отказываются верить демо, пока Genie 3 не станет публично доступен.
- Обсуждение свелось к тому, что ни GPT-5, ни Gemini пока не близки к AGI, а термин «AGI» постоянно меняется под маркетинг.
Live: GPT-5
-
Introducing GPT-5 — YouTube
-
Пропустить навигацию
-
Поиск / Поиск голосом
-
Войти
-
Смотреть позже • Поделиться • Копировать ссылку • Покупки
-
Нажмите, чтобы включить звук • 2x
-
Если воспроизведение не началось, перезапустите устройство.
-
Вы вышли из аккаунта. Просмотры могут влиять на рекомендации на ТВ. Чтобы избежать этого, отмените и войдите на YouTube на компьютере.
-
Отмена • Подтвердить
-
37:35 • 7 августа, 10:00 GMT-7
-
Далее • Прямой эфир запланирован • Играть
Introducing GPT-5
- OpenAI • Подтверждено • 1,65 млн подписчиков
- Подписаться • Подписаны
- 6 522 ожидают • Запланировано на 7 авг. 2025
- 1K • Поделиться • Скачать • Сохранить
- Комментарии отключены
Описание
-
Introducing GPT-5
-
Присоединяйтесь к Сэму Альтману, Грегу Брокману, Себастьену Бюбеку, Марку Чену, Янну Дюбуа, Брайану Фиоке, Ади Ганешу, Оливеру Годеману, Саачи Джайн, Кристине Каплан, Тине Ким, Элейн Я Ле, Фелипе Миллону, Мишель Покрасс, Якубу Пахоцки, Максу Шварцеру, Ренни Сонгу, Жожену Вану — они представят и продемонстрируют GPT‑5.
-
OpenAI: Видео • О канале • Twitter • LinkedIn
Комментарии (92)
- Участники обсуждают качество ИИ для повседневного программирования: один отмечает сильное превосходство Anthropic (Sonnet 3.7/4 и Claude Code), причём в Cursor опыт хуже, чем в самом Claude Code, и OpenAI‑модели он почти не использует.
- Есть надежда, что GPT‑5 сократит отставание OpenAI, хотя мнения пользователей сильно расходятся.
- Другой комментатор ожидает, что грядущие анонсы покажут радикальное влияние на рынок: веб‑ и JS/TS‑разработчики могут стать частично или полностью невостребованными.
- При этом подчёркивается, что речь ещё не об «AGI» — максимум о ~10% от обещанных возможностей AGI.
- Отмечается ночной «слив», указывающий на фокус на кодинге; предполагается, что для названия «GPT‑5» OpenAI должен предложить существенное преимущество над Anthropic.
AI Ethics is being narrowed on purpose, like privacy was
-
Пару дней назад OpenAI впервые за долгое время выпустила открытый языковой модуль. Сроки откладывали из‑за «безопасности». Они много говорят о безопасности — удобно для пиара: на вопросы об этике можно показывать на эти работы и будто бы закрывать тему. Но под «этикой» люди чаще имеют в виду не мат, фильтры и троллейбусные дилеммы, а реальность: управление и подотчётность, использование данных, перераспределение власти и денег, влияние на занятость. Вопрос: что делают люди, управляющие моделями, и как это влияет на общество?
-
Такой подменой уже пользовались в теме приватности. В 1990‑х телемаркетинг покупал клиентские базы у компаний, которые не понимали ценность данных. Возмущение породило шаблон: «мы не делимся данными с третьими сторонами». Непроизнесённая часть: «им проще купить нас целиком — это и есть стратегия выхода». Сегодня, говоря о приватности, людей волнует, что делает с их данными именно текущая компания/приложение: школьное, парковочное, для проезда. Но разговор сводят к «чтобы посторонние не получили доступ», а не к «что конкретно делает эта компания». В итоге возникает индустрия соответствия и тестирования, честно решающая второстепенную задачу, чтобы не решать главную. Как политик, который на «поднимете ли налоги?» отвечает «мы вырастим экономику».
-
С ИИ иначе лишь потому, что тема новая, и мы опирались на sci‑fi мысленные эксперименты. Они увлекательны и безопасны для бизнеса: никто не хочет «бумажкоскрепочную» катастрофу или симуляцию Black Mirror, а обсуждать это — выгодный пиар и бесплатное внимание прессы. Но такое сужение смещает фокус с реальных последствий и распределения ответственности на удобные, далекие от практики сценарии.
Комментарии (103)
- Обсуждение критикует «этику/безопасность ИИ» за смещение фокуса с практических проблем (доступность жилья/еды, защита данных, рабочие места) на абстрактные «структуры управления» и пиар вокруг гипотетического AGI.
- Часть участников отличает «этику» от «безопасности» (этика шире), указывая на подмену тем и маркетинговую гиперболу; другие считают, что без глобальных договорённостей с санкциями этика неработоспособна.
- Сильная полемика вокруг квалификации «этиков/безопасников»: одни обвиняют их в непрактичности, другие отвечают, что в области много технических специалистов и исследований.
- Ассимовские законы в целом отвергаются как литературный приём, непригодный для реальной инженерии ИИ, особенно в парадигме обучения на данных и «чёрного ящика».
- Большое внимание «приземлённым» рискам: злоупотребления корпоративными данными и скрейпингом, энергопотребление, уязвимости и malware (не зависящие от ИИ), экономическое давление, утрата рабочих мест, концентрация власти.
- Звучит скепсис: регулировать уже поздно, компании преследуют выгоду; «этика» часто служит ширмой или PR, а открытый исходный код и распределение власти рассматриваются как возможная контрмера.
- Есть разногласия о влиянии «сафегардов»: одни опасаются, что жёсткие ограничения ухудшают способности моделей, другие считают, что безопасность неизбежно замедляет развитие, но без неё растут системные риски.