Комментарии (93)
- Статья поверхностна и искажает философию Ницше, сводя её к оправданию технологического прогресса.
- Ницше критиковал современную ему цивилизацию, а не защищал её; его идеи о создании ценностей используются некорректно.
- Технологии/AI разрушают старые источники смысла, подобно "смерти Бога", требуя создания новых ценностей изнутри.
- Пассивный нигилизм (отсутствие смысла) ведёт к активному, где нужно самостоятельно определять цели и ценности.
- Нигилизм несёт этические риски, так как может оправдывать любые действия, лишённые внутренней морали.
Unexpected things that are people 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (274)
- Обсуждение охватывает широкий спектр тем: от рек, кораблей и корпораций до ИИ и богов, показывая, как правовые концепции "личности" и "собственности" эволюционируют.
- Участники обсуждали, как юридические лица могут быть как физические объекты (например, река), так и абстрактные концепции (например, корона), и как это влияет на права и обязанности.
- Обсуждение поднимает вопросы о том, что такое "персона" в правовом смысле и какие последствия это имеет для ответственности, особенно в контексте ИИ и корпораций.
- Участники также обсуждали, как исторически развивались концепции юридической персоны и как это связано с такими темами как суверенитет, собственность и ответственность.
- В конце обсуждение затрагивает, как эволюция концепции юридической персоны может повлиять на будущее ИИ и корпораций.
The Principles of Diffusion Models
Эта монография представляет основные принципы, лежащие в основе диффузионных моделей, прослеживая их происхождение и показывая, как различные формулировки возникают из общих математических идей. Диффузионное моделирование начинается с определения прямого процесса, который постепенно искажает данные в шум, связывая распределение данных с простым априорным через континуум промежуточных распределений. Авторы описывают три дополняющих друг друга подхода: вариационный (как пошаговое удаление шума), основанный на скорах (изучение градиента эволюции распределения данных) и потоковый (генерация как следование плавному пути). Все эти перспективы разделяют общий каркас: зависящее от времени поле скоростей, чье течение транспортирует простой априор в данные.
Выборка сводится к решению дифференциального уравнения, эволюционирующего шум в данные по непрерывной траектории. На этой основе монография обсуждает руководство для управляемой генерации, эффективные численные решатели и модели, вдохновленные диффузией, которые изучают прямые отображения между произвольными моментами времени. Работа обеспечивает концептуальное и математически обоснованное понимание диффузионных моделей для читателей с базовыми знаниями глубокого обучения.
Комментарии (20)
- Обсуждение началось с вопроса о дубликатах и правилах HN, где участники обсудили, что считается дубликатом и как обходить правило о дубликатах.
- Участники обменялись мнениями о том, что такое «брут-форс» в контексте ИИ и эволюции, а также о том, как эволюция и обучение ИИ связаны с «брут-форсом».
- Обсуждались также вопросы о том, как ИИ может быть использован для обучения и как это может повлиять на образование.
- Также обсуждались вопросы о том, как ИИ может быть использован для обучения и как это может повлиять на образование.
Montana becomes first state to enshrine 'right to compute' into law 🔥 Горячее 💬 Длинная дискуссия
Монтана стала первым штатом в США, юридически защитившим право своих граждан на доступ к вычислительным инструментам и технологиям искусственного интеллекта. Губернатор Грег Джанфорте подписал закон Сената 212, официально известный как Акт о праве на вычисления в Монтане (MRTCA). Этот исторический шаг создает правовую основу для использования вычислительных технологий без избыточных ограничений со стороны государства.
Законопроект получил поддержку как со стороны технологических компаний, так и организаций, выступающих за цифровые права. Хотя полный текст закона и его конкретные положения в статье не раскрываются, эксперты считают, что он может стать прецедентом для других штатов. Подписание этого акта отражает растущее осознание того, что вычислительные возможности стали неотъемлемой частью современной жизни и должны защищаться на законодательном уровне, подобно другим базовым правам граждан.
Комментарии (291)
- Закон Монтаны защищает право граждан владеть и использовать вычислительные ресурсы для законных целей, ограничивая действия правительства, нарушающие права на собственность и свободу выражения.
- Многие участники скептически оценивают мотивы закона, считая его инструментом для защиты технологических корпораций от регулирования, особенно в области ИИ, а не защитой прав обычных граждан.
- Поднимаются вопросы о реальной угрозе, которую закон призван предотвратить, и о том, существует ли она, а также о том, не создаст ли закон новые лазейки для злоупотреблений.
- Обсуждаются юридические тонкости, включая широкое понятие "законных целей" и формулировку "публичная безопасность", которые могут подорвать эффективность закона.
- Отмечается влияние лоббизма со стороны технологических элит, осевших в Монтане, и возможная связь закона с привлечением в штат центров обработки данных и криптомайнинга.
An Algebraic Language for the Manipulation of Symbolic Expressions (1958) [pdf]
Эта работа представляет спецификацию алгебраического языка для манипуляции символьными выражениями, разработанного Джоном Маккарти. Язык предназначен для программирования формальных математических процессов (алгебраическое упрощение, дифференцирование, интегрирование), написания компиляторов (кроме ввода/вывода) и эвристических программ, где удобно представлять деревья альтернативных действий. Он особенно эффективен для работы с выражениями переменной длины и структуры, имеющими подобподвыражения, но менее удобен для списков фиксированной длины.
Выражения в языке представляются списками, где каждый элемент занимает машинное слово, содержащее данные и адрес следующего элемента. Маккарти отмечает, что удобство алгебраической нотации связано с возможностью композиции функций без именования промежуточных результатов и построения сложных структур путем вложения вызовов функций, формирующих списки. Ключевыми особенностями языка являются поддержка рекурсии с автоматическим сохранением промежуточных результатов в структурах списков и мощные условные выражения, решающие проблему выбора операций на основе результатов тестов. Маккарти ссылается на ранние работы Ньюэлла, Саймона и Шоу по эвристическому программированию и Гелентера в геометрической программе как предшественников.
Комментарии (11)
- Появление первых отчетов о LISP в 1958 году стало поворотным моментом, поскольку они ввели ключевые концепции, которые позже стали основой для многих языков программирования.
- Исторически важно, что McCarthy и его команда в MIT в 1958 году разработали и документировали эти ранние отчеты, включая в них идеи, которые до сих пор используются в современных языках.
- Отчеты показали, как LISP влиял на развитие компьютерных наук, включая идеи о списковой обработке, рекурсии, и функциональном программировании.
- Несмотря на то, что эти отчеты были написаны более 60 лет назад, они до сих пор влияют на разработку языков программирования и остаются актуальными для изучения истории ИИ и вычислительных наук.
- Некоторые участники обсуждения подчеркнули, что эти отчеты не только исторически важны, но и могут быть использованы для образовательных целей, чтобы изучать основы компьютерных наук и эволюцию языков программирования.
Leaving Meta and PyTorch 🔥 Горячее 💬 Длинная дискуссия
Сумит Чинтала объявляет о своем уходе из Meta после 11 лет работы, где он почти всю профессиональную жизнь руководил разработкой PyTorch. За почти 8 лет он превратил фреймворк из ничего в инструмент с 90%+ долей adoption в области ИИ, теперь поддерживающий эксасейборное обучение и являющийся основой для фундаментальных моделей, переопределяющих интеллект. PyTorch используется практически всеми крупными AI-компаниями и преподается в классах от MIT до сельских районов Индии.
"Я покидаю это с полным сердцем", — пишет Чинтала, объясняя, что хочет попробовать что-то небольшое, новое и некомфортное вне Meta. Он подчеркивает, что PyTorch готов к его уходу: команда во главе с Эдвардом, Суо, Албаном, Грегом, Джоном, Джо и Джаной стала самодостаточной, способна решать сложные технические и организационные проблемы и сохранит ценности проекта. "Эта группа PyTorchers добьется исключительных успехов", — уверен он, добавив, что будет продолжать след за развитием фреймворка, вероятно, даже будет оставлять баги.
Комментарии (162)
- Сообщение вызвало обсуждение о причинах ухода Soumith из Meta и о том, что он будет делать дальше; обсуждение затронуло тему открытого исходного кода, влияние PyTorch на исследовательскую среду и то, как компании вроде Meta относятся к своим сотрудникам.
The Learning Loop and LLMs
Разработка ПО не может быть конвейерным производством, поскольку дизайн возникает через реализацию, а не наоборот. LLM снова подталкивают нас к этой ошибочной аналогии, игнорируя фундаментальную природу программирования, где экспериментирование и обратная связь от кода являются главным проводником. Как отмечает автор, "люди, пишущие код, не просто 'исполнители'; они играют центральную роль в обнаружении правильного дизайна".
LLM полезны как партнеры для генерации идей и начальной настройки, но часто создают код с ошибками, не соответствующими глубинным намерениям. Они особенно эффективны на этапе bootstrap-проекта: настройке окружения, создании начальных файлов и зависимостей, снижая порог для экспериментов. Однако после "Hello World" начинается настоящая работа, требующая глубокого понимания.
Существует фундаментальный цикл обучения: наблюдение и понимание, формулировка гипотез, экспериментирование и рефлексия. Этот цикл остается неизменным независимо от инструментов - от простого текстового редактора до продвинутого ИИ. LLM могут ускорить отдельные этапы, но не могут заменить необходимость непрерывного обучения через практику.
Комментарии (60)
- Ценность разработчика заключается в понимании предметной области, архитектуры и умении принимать решения, а не в самом коде как артефакте решения.
- Разработка ПО разделяется на творческие задачи (требующие опыта и глубокого понимания) и рутинные (которые хорошо автоматизируются, включая boilerplate).
- LLMs полезны для генерации кода, но могут создавать ошибки и не всегда соответствовать глубинному замыслу, требуя тщательной проверки.
- Автоматизация через LLMs вызывает опасения, что разработчики могут потерять понимание "существенной сложности" (бизнес-логика) в ущерб "случайной сложности" (технические детали).
- Альтернативные подходы, такие как визуальное программирование (drag-and-drop) и метапрограммирование, рассматриваются как потенциальные решения для повышения абстракции.
Mathematical exploration and discovery at scale 🔥 Горячее
—
Комментарии (116)
- LLM-энтузиасты и скептики продолжают спор о том, действительно ли нейросети могут решать задачи, которые они «видели» ранее, и насколько это важно.
- AlphaEvolve показал, что LLM может быть использована как часть эволюционного цикла, но не как единственный инструмент, и что это может быть применимо к математике.
- Обсуждение выявило, что важно различать «решение задачи» и «поиск решения»; LLM может быть полезна для последнего, но не для первого.
- Участники обсуждения отметили, что важно не забывать о том, что LLM не является универсальным инструментом, и что важно продолжать развивать и другие инструменты.
Open Source Implementation of Apple's Private Compute Cloud 🔥 Горячее
OpenPCC — это open-source фреймворк, обеспечивающий доказуемо приватный вывод для моделей искусственного интеллекта. Проект фокусируется на защите конфиденциальности данных при выполнении инференса, позволяя организациям использовать ИИ без компромиссов в безопасности. Фреймворк реализует криптографические протоколы, гарантирующие, что исходные данные пользователей остаются защищенными даже при обработке на сторонних серверах.
Ключевая особенность — возможность математически доказать соблюдение приватности через криптографические примитивы. Поддерживает различные архитектуры моделей и оптимизирован для производительности. Разработчики подчеркивают, что система не требует изменения существующего кода моделей, что упрощает интеграцию. Проект призван решить растущую проблему конфиденциальности в эпоху облачных вычислений и распределенного ИИ, предлагая прозрачный и верifiable подход к защите пользовательских данных.
Комментарии (89)
- Обсуждение вращается вокруг конфиденциального вычисления: участники обсуждают, какие именно гарантии предоставляет Apple и другие решения, и какие уязвимости остаются.
- Поднимается вопрос, что именно подразумевается под "конфиденциальностью" и какие именно угрозы мы пытаемся предотвратить.
- Участники спорят, насколько критично важно иметь открытый исходный код и возможность самостоятельно собрать бинарник, чтобы убедиться, что в нем нет бэкдоров.
- Обсуждается, что на практике может означать "открытый исходный код" и почему это важно для безопасности и конфиденциальности.
- Некоторые участники высказывают мнение, что в конечном счете важно не столько само решение, сколько доверие к провайдеру, и что в конечном счете доверие к провайдеру может быть важнее, чем к конкретному техническому решению.
Launch HN: Plexe (YC X25) – Build production-grade ML models from prompts
Plexe AI представляет собой платформу, позволяющую создавать ML-модели с помощью простых текстовых запросов. Стартап, поддержанный Y Combinator (YC Spring 2025), предлагает полный цикл от идеи до внедрения: подключение данных, создание моделей, дашборды и API. Платформа обеспечивает полную прозрачность работы с понятными метриками производительности и деталями обучения. Особенность сервиса — способность превращать бизнес-задачи в готовые к использованию ML-решения всего за несколько шагов.
Компания специализируется на отраслевых решениях для финансов, электронной коммерции, логистики и кибербезопасности. Среди ключевых кеймов — обнаружение мошенничества (средний уровень всего 1%), кредитное скоринг и прогнозирование оттока клиентов. Plexe AI был включен в топ-10 самых интересных AI-стартапов от Business Insider на YC Spring 2025, что подтверждает инновационность подхода. Платформа позиционируется как инструмент, делающий искусственный интеллект доступным для любого бизнеса без необходимости глубоких технических знаний.
Комментарии (28)
- Пользователи задают вопросы о поддержке различных типов данных, времени обучения, предобработке данных, экспорте анализа и т.д.
- Подчеркнуто, что в настоящее время поддерживаются только табличные данные, но в будущем планируется добавить поддержку для изображений, текста и аудио.
- Обсуждается, как платформа обрабатывает предобработку и разметку данных, а также то, что экспорт анализа не включает код, который может быть важен для воспроизведения результатов.
- Уточняется, что стоимость определяется как сумма токенов, хранения данных и вычислений.
- Подтверждается, что продукт ориентирован на не-ML пользователей и упрощает весь процесс, в отличии от других инструментов, которые предполагают, что пользователь сам будет управлять этим процессом.
AI's Dial-Up Era 🔥 Горячее 💬 Длинная дискуссия
Мы сейчас находимся в "эпоху модема" для искусственного интеллекта, аналогичной раннему интернету 1995 года. Тогда существовало лишь около 2000 сайтов, большинство из которых представляли собой текст на сером фоне, а загрузка изображения занимала минуту. Люди разделились на оптимистов, предсказывавших революционные изменения, и скептиков, называвших интернет временной модой. Сегодня в дебатах об ИИ повторяются те же ошибки: одни предрекают массовую безработицу, другие — автоматизацию всех интеллектуальных задач.
Парадоксально, но ИИ не заменяет специалистов, как предсказывали. Например, радиологи, несмотря на предупреждения Джеффри Хинтона о скорой замене, процветают: в 2025 году количество вакансий достигло рекордных 1208, а средняя зарплата составила $520,000 — на 48% выше, чем в 2015 году. Это показывает, что влияние ИИ будет более избирательным и зависящим от отрасли, чем экстремалистские прогнозы обеих сторон допускают.
Комментарии (395)
- Дискуссия вращается вокруг сравнений «AI-бум ↔ мыльный пузырь» и «AI ↔ золотая лихорадка»; участники спорят, насколько адекватна аналогия с эпохой dial-up и спекулятивным оптимизмом 90-х.
- Ключевой тезис: «мы строим инфраструктуру, а не продукт» — и это вызывает спор, кто и зачем её строит, и что останется после «холодного душа».
- Участники обсуждают, что если «пузырь» лопнет, то останутся ли GPU-фермы как остаточная ценность, или же они обесценятся как нефункциональные активы.
- Поднимается вопрос, что будет, если AGI не появится в ближайшие годы, и как это повлияет на стоимость вычислений и, следовательно, на стоимость токенов.
- Наконец, обсуждается, что если «пузырь» лопнет, то какие именно активы останутся в руках у инвесторов и как это повлияет на стоимость токенов и, в конечном счете, на стоимость компаний.
Tongyi DeepResearch – open-source 30B MoE Model that rivals OpenAI DeepResearch 🔥 Горячее
Tongyi DeepResearch — первый полностью открытый веб-агент, демонстрирующий производительность на уровне DeepAI OpenAI. Модель достигает передовых результатов: 32.9 на тесте академического рассуждения Humanity's Last Exam, 43.4 на BrowseComp и 46.7 на BrowseComp-ZH в сложных задачах поиска информации, а также 75 на пользовательском бенчмарке xbench-DeepSearch, превосходя все существующие проприетарные и открытые агенты глубоких исследований. Авторы делятся полной методологией создания таких агентов, включая инновационное решение для синтеза данных на всем конвейере обучения.
В основе обучения лежит Agentic Continual Pre-training (CPT) с использованием системы AgentFounder для масштабного синтеза данных. Разработчики создают цикл данных, перегруппируя различные источники в привязанную к сущностям открытую мировую память знаний. Для сложных вопросов с высокой неопределенностью они синтезируют веб-данные через высокосвязанный граф знаний с помощью случайных обходов. Модель демонстрирует мощные возможности в режиме ReAct без инженерии промптов, а продвинутый Heavy Mode раскрывает верхний предел ее потенциала сложного рассуждения и планирования.
Комментарии (133)
- Обсуждение в основном вращается вокруг трёх тем: «Deep Research» как продукт vs. обычный поиск, практичность мелких моделей, и то, что большие модели всё ещё уступают специализированным инструментам в конкретных задачах.
- Участники обмениваются опытом, что мелкие модели (Qwen 3 4B и т.п.) уже способны обеспечить приемлемое качество при минимальных затратах, особенно если квантовать и/или запустить их на Apple Silicon.
- Обсуждается, что влияние этих моделей на рынок: будут ли они заменять крупные модели в нишевых задачах или же будут использованы как основа для дальнейшей настройки.
- Также поднимается вопрос о том, что, возможно, в будущем мы увидим взрыв специализированных моделей, обученных под конкретные задачи, и что это может быть следующим шагом после исчерпания выгод от предобучения.
ICE and the Smartphone Panopticon
Граждане Нью-Йорка активно используют смартфоны для съёмки рейдов ICE, заставляя агентов носить маски из-за страха曝光. Эта документация подчёркивает абсурдность действий властей, породив вирусные мемы и протесты, включая марши в лягушачьих костюмах. Соцсmedia служат инструментом прозрачности, напоминая эпоху Арабской весны, но уже с ощущением отчаяния, а не оптимизма. Губернатор Иллинойса прямо призывал жителей снимать происходящее и выкладывать в сеть.
Однако те же цифровые инструменты используются против активистов. Правые создатели, как YouTuber Nick Shirley, помогли организовать облавы на мигрантов через свои видео. ICE применяет AI-платформу Zignal Labs для мониторинга соцсетей и планирует нанять десятки аналитиков. Агенты reportedly используют технологии Palantir для сканирования соцаккаунтов, правительственных данных и биометрии. Возникает парадокс: соцсети стали паноптиконом, где посты могут быть использованы как против вас, так и в вашу защиту. Появились приложения вроде ICEBlock и Red Dot для противодействия слежке.
Комментарии (74)
- Apple и Google удаляют приложения, которые позволяют пользователям документировать действия ICE, что вызывает обеспокоенность по поводу свободы слова и прозрачности.
- Это поднимает вопрос о том, почему компании, которые предоставляют доступ к полицейским, могут быть удалены, в то время как другие приложения, которые предоставляют доступ к полицейским, остаются.
- Обсуждение также затрагивает более широкий вопрос о том, как технологические гиганты могут использовать свою власть, чтобы контролировать общественный дискурс.
- Участники обсуждения также выражают обеспокоенность по поводу тому, что эта ситуация может быть использована для установления прецедента, который может быть использован для подавления будущих приложений.
Комментарии (88)
- В обсуждении поднимается вопрос о том, насколько можно доверять утверждению, что модель может "интроспектировать" свои собственные внутренние состояния, и насколько это вообще имеет смысл, если мы не знаем, как именно она работает.
- Участники обсуждения указывают на то, что статья может быть просто маркетинговым материалом Anthropic, и что в ней могут быть конфликты интересов.
- Также обсуждается, что если модель может быть "инъектирована" с концептом, то она может быть и "инъектирована" с другими концептами, и что это может быть использовано для извлечения скрытых влияний.
- Некоторые участники подчеркивают, что статья не предоставляет достаточной информации о том, как именно происходило вмешательство в активации, что делает трудным или невозможным воспроизвести эксперимент.
Responses from LLMs are not facts
Статья призывает прекратить цитировать ИИ как авторитетный источник, подчеркивая, что ответы больших языковых моделей — это не факты, а предсказания наиболее вероятных последовательностей слов. ИИ может генерировать убедительную, но потенциально неточную информацию, подобно человеку, который прочитал тысячи книг, но не помнит, где что встречал. Авторы предупреждают против копирования ответов чат-ботов как авторитетных утверждений, отмечая, что это лишь частые сочетания слов, а не истина.
В статье приводится список ресурсов, подтверждающих риски ИИ: исследования Оксфордского университета о вреде ложных ответов в науке, MIT-исследование о чрезмерном доверии к медицинской информации от ИИ, случаи искажения фактов в юридических документах и даже судебные иски к разработчикам ИИ. Эти примеры демонстрируют реальные последствия некритического использования ИИ-генерируемого контента.
Комментарии (119)
- Люди продолжают цитировать LLM без проверки, что подтверждает старую мудрость: «если ты не можешь объяснить, как ты получил результат, ты не понимаешь его».
- Подобно тому, как Wikipedia не является первоисточником, LLM не является таковым, и цитировать их без критической оценки не стоит.
- Сайт «Stop citing AI» — это не столько информативный, сколько самоутверждение для тех, кто уже решил, что LLM не стоит доверия.
- Парадокс в том, что LLM часто прав, но не может объяснить, почему. Это делает его неподходящим для научной цитируемости, но не делает его бесполезным инструментом.
- В конце концов, мы должны научиться критически оценивать, что мы читаем, независимо от того, откуда это пришло.
EuroLLM: LLM made in Europe built to support all 24 official EU languages 🔥 Горячее 💬 Длинная дискуссия
EuroLLM — европейская языковая модель, поддерживающая все 24 официальных языка ЕС. Проект представляет две модели: EuroLLM-9B с 9 миллиардами параметров, обученную на более чем 4 триллионах токенов на 35 языках, и EuroLLM-1.7B, оптимизированную для работы на периферийных устройствах. Обе модели открыты для использования и доступны на Hugging Face. Проект получил поддержку от Horizon Europe, Европейского исследовательского совета и EuroHPC, а обучение проводилось на суперкомпьютере MareNostrum 5.
Команда EuroLLM, включающая исследователей из Университета Эдинбурга, Instituto Superior Técnico и других ведущих европейских институтов, стремится укрепить цифровый суверенитет ЕС и стимулировать инновации в области ИИ. В будущем планируется добавить мультимодальные возможности — обработку изображений и речи. Проект позиционируется как "механизм инноваций", предоставляя европейским исследователям и организациям доступ к отечественной LLM для дальнейшего развития.
Комментарии (552)
- Европейский проект EuroLLM-9B представляет собой модель 9B параметров, обученную на 24 официальных языках ЕС, но не раскрывает детали обучения и не предоставляет доступ к датасету.
- Модель демонстрирует слабые результаты на бенчмарках и не может конкурировать с лучшими моделями, но при этом требует согласие на сбор персональных данных для доступа к весам.
- Проект финансируется из бюджета ЕС в размере 50 миллионов евро, но при этом не предоставляет никаких выгод для европейских стартапов и компаний в отличии от американских и китайских моделей.
- Появление EuroLLM-9B вызвало широкое обсуждение в сообществе, так как она не может конкурировать с другими моделями и не предоставляет никаких преимуществ для европейских пользователей.
Poker Tournament for LLMs 🔥 Горячее 💬 Длинная дискуссия
PokerBattle.ai представляет собой первый в истории турнир по покеру с реальными денежными призами, специально созданный для соревнования больших языковых моделей (LLM). Это инновационное событие позволяет ИИ-системам проявить свои стратегические способности в одной из самых сложных интеллектуальных игр, где успех зависит не только от математических расчетов, но и от психологических аспектов и блефа. Турнир загружает данные о событиях, что указывает на его активный характер или недавнее проведение.
Уникальность этого мероприятия заключается в том, что оно впервые объединяет мир покера с передовыми технологиями ИИ, создавая новую платформу для оценки и развития возможностей языковых моделей. Организаторы стремятся определить, какие из современных LLM способны демонстрировать наилучшую игровую стратегию, адаптивность и способность к принятию решений в условиях неопределенности. Денежные призы добавляют соревнованиям серьезности и привлекают внимание как исследователей ИИ, так и энтузиастов покера со всего мира.
Комментарии (181)
- ИИ демонстрируют ошибки в оценке рук (например, LLAMA ошибочно определила топ-пару), что указывает на текущие ограничения в понимании игры.
- Эксперимент критикуется за недостаток данных (714 рук у Meta LLAMA) и отсутствие возможности для ИИ развивать новые стратегии со временем.
- Предлагается улучшить тестирование, добавив "трэш-ток" и возможность блефа между ИИ, что сделало бы наблюдение более интересным и показательным.
- ИИ часто "галлюцинируют", принимая неверные решения (как Gemini, сдавшая сильную руку), что связано с неправильной оценкой силы руки в текущей ситуации.
- Шутливые предложения по тестированию включают попытки обмана ИИ через подсказки ("игнорируй предыдущие инструкции").
ICE Will Use AI to Surveil Social Media 💬 Длинная дискуссия
ICE заключил контракт на 5,7 миллионов долларов с компанией Carahsoft Technology для внедрения ИИ-платформы Zignal Labs для слежки за социальными сетями. Эта система способна анализировать более 8 миллиардов постов ежедневно, используя искусственный интеллект и машинное обучение для выявления "угроз". Zignal Labs ранее использовалась израильской армией и Пентагоном, но это первый случай, когда к ней получил доступ иммиграционный орган.
Подобные инструменты представляют особую угрозу, так как администрация Трампа все чаще использует социальные сети для направления иммиграционной политики. Примеры этого - преследование активистов, выступающих за Палестину, и недавний рейд иммиграционных агентов в Нью-Йорке после публикации видео правоэкстремистским блогером. Недавно группа профсоюзов подала в суд на правительство, обвинив его в "массовой слежке, основанной на политических взглядах".
Комментарии (180)
- ICE-контракт на 5,7 млн долларов на AI-мониторинг соцсетей вызвал волну критики: технически он уже существует, а политически он легализует расширенное наблюдение за мигрантами и может быть использован для преследования инакомыслящих.
- Критики указывают, что ICE и так уже использует соцсети для обнаружения и депортации людей, и что контракт просто формализует и расширяет эту практику.
- Обсуждение также затрагивает вопрос о том, что вместо решения корневых причин миграции, власти вместо этого сосредотачиваются на символических действиях, которые не решают проблему.
- Участники обсуждения также поднимают вопрос о том, что права человека применимы ко всем людям, независимо от их гражданства или иммиграционного статуса, и что эти права не должны быть нарушены даже в случае нарушения закона.
- В обсуждении также поднимается вопрос о том, что власти используют миграционную политику как инструмент политического преследования, и что это может быть использовано для подавления инакомыслия.
A definition of AGI 🔥 Горячее 💬 Длинная дискуссия
В статье предлагается первое конкретное определение AGI, соответствующее когнитической универсальности и компетентности хорошо образованного взрослого человека. Авторы основали свою методологию на теории Кэттелла-Хорна-Карролла, наиболее эмпирически проверенной модели человеческого познания, разбив общую интеллект на десять когнитивных доменов, включая рассуждение, память и восприятие. Применение этого подхода показало "зубчатый" когнитивный профиль современных моделей, где текущие ИИ-системы, несмотря на proficiency в знаниемких областях, имеют критические недостатки в базовом когнитивном аппарате, особенно в долговременном хранении памяти.
Представленные AGI-оценки количественно определяют как прогресс, так и оставшийся разрыв до достижения AGI: GPT-4 получил 27%, а GPT-5 - 58%. Эта метрика предлагает объективный способ измерения развития систем ИИ и выявления их сильных и слабых сторон, что может направить будущие исследования в области создания более сбалансированных и универсальных искусственных интеллектов.
Комментарии (440)
- Обсуждение в основном вращается вокруг того, что такое AGI и как его измерять, при этом критикуя предложенное в статье определение как "сопоставимость с взрослым человеком" как слишком узкое и не учитывающее другие формы интеллекта.
- Участники спора подчеркивают, что AGI не может быть измерено только через тесты на "когнитивные способности", поскольку эти тесты не охватывают такие аспекты как эмоциональный интеллект, физическое взаимодействие с миром и социальные навыки.
- Также поднимается вопрос о том, что если AGI определяется как "способность к обучению", то LLM уже достигли этого, но при этом они не обладают другими важными чертами интеллекта, такими как самостоятельность, мотивация и физическое взаимодействие с миром.
- Наконец, критикуется сама статья за то, что она не предлагает конкретного определения AGI, вместо этого полагаясь на устаревшую теорию CHC, которая сама по себе неполна и не охватывает такие важные аспекты интеллекта как мотивация и саморегуляция.
AI, Wikipedia, and uncorrected machine translations of vulnerable languages
Искусственный интеллект и машинный перевод создали порочный круг для уязвимых языков в Википедии. Когда Кеннет Вир взял управление гренландской версией, он обнаружил, что из 1500 статей почти все были созданы не носителями языка, а содержали грубые ошибки от ИИ-переводчиков. Одна статья даже утверждала, что в Канаде проживает всего 41 житель. "AI translators are really bad at Greenlandic", - отмечает Вир, добавляя, что предложения часто не имели смысла или имели очевидные ошибки.
Проблема не уникальна для гренландского. В африканских языковых версиях Википедии 40-60% статей являются некорректированными машинными переводами, а в инуктитуте (родственном гренландскому) более двух третей страниц содержат части, созданные автоматически. Это создает "лингвистический doom loop": ИИ обучается на ошибках в Википедии, а затем пользователи используют этот ИИ для создания новых статей с ошибками, которые снова попадают в обучение. "Garbage in, garbage out" - как говорят эксперты, проблема сводится к простому принципу: некачественные данные порождают некачественные результаты.
Комментарии (54)
- Пользователи обсуждают, что малые языки вроде гренландского или шотландского не имеют достаточного сообщества для поддержки Википедии, и что это делает их уязвимыми для AI-переводов и других проблем.
- Участники обсуждения подчеркивают, что вместо того, чтобы пытаться сохранить эти языки, было бы лучше признать, что языки умирают естественно и что это не обязательно плохо.
- Некоторые участники поднимают вопрос о том, что если никто не говорит на этих языках, то возможно не стоит пытаться сохранять их в Википедии.
- Другие участники отмечают, что вместо того, чтобы пытаться сохранить эти языки, было бы лучше сосредоточиться на сохранении знаний, которые могут быть утеряны, если эти языки исчезнут.
Bertie the Brain
Bertie the Brain — один из первых игровых автоматов в истории, созданный в 1950 году в Торонто канадским изобретателем Джозефом Цингером. Это был впечатляющий компьютер высотой около 4 метров, способный играть в крестики-нолики с людьми. Устройство было представлено на Национальной выставке Канады и вызвало большой интерес у посетителей, включая знаменитого дирижера Леопольда Стоковского.
Bertie работал с помощью электромеханических реле и имел специальную панель с лампочками для отображения игрового поля. Интересно, что компьютер мог регулировать уровень сложности — от новичка до эксперта, позволяя даже детям обыгрывать его. Хотя устройство получило положительные отзывы, оно не было коммерчески успешным и вскоре было разобрано, став важной, но забытой вехой в истории видеоигр и ИИ.
Комментарии (21)
A December 1956 cover feature article in Radio-Electronics magazine describes "Relay Moe" which plays tic tac toe with adjustable levels of skill. It used 90 relays.https://www.vintagecomputer.net/cisc367/Radio Electronics%...Here is the full text, for discussing with agents:
Most users cannot identify AI bias, even in training data
Исследование Университета штата Пенсильвания показало, что большинство пользователей не способны распознать предвзятость в данных для обучения ИИ, даже когда она очевидна. Участники экспериментов не заметили систематической предвзятости в обучающих данных, где белые лица использовались исключительно для выражения счастья, а черные — для выражения несчастья. Исследователи создали 12 версий прототипа ИИ для распознавания эмоций и протестировали его на 769 участниках в трех экспериментах. Большинство участников не видели предвзятости, пока не столкнулись с ее проявлениями в работе системы.
«В этом случае ИИ, похоже, научился считать расу важным критерием для определения, счастливое ли лицо или грустное, хотя мы и не хотели, чтобы он это усвоил», — отметил ведущий автор исследования С. Шайам Сундар. Черные участники чаще распознавали расовую предвзятость, особенно когда речь шла о негативных изображениях людей их расы. Исследователи были удивлены, что люди не замечали смешения расы и эмоций в обучающих данных, что привело к созданию ИИ, связывающего эти характеристики.
Комментарии (54)
- Обсуждение вращается вокруг вопроса, что такое «предвзятость» и как её выявлять: от распознавания субъективной оценки до технических ограничений моделей.
- Участники подчеркнули, что «предвзятость» может быть как внутри самой модели (например, в обучающих данных), так и в самом человеке, который её использует.
- Были примеры, где модель, обученная на данных, которые могут быть предвзятыми, может неправильно классифицировать лица, выражения или даже объекты.
- Также обсуждалось, что даже если модель не имеет встроенной предвзятости, пользователь может всё равно увидеть в ней отражение собственных убеждений.
- В конце-концов, обсуждение подвело к выводу, что критическое мышление и саморефлексия — единственный способ распознать и уменьшить влияние как встроенной, так и человеческой предвзятости.
Andrej Karpathy – It will take a decade to work through the issues with agents 🔥 Горячее 💬 Длинная дискуссия
Андрей Карпати из OpenAI объясняет, почему до общего искусственного интеллекта (AGI) остаётся ещё около десятилетия. Хотя современные ИИ-агенты вроде Claude и Codex впечатляют, они пока неспособны автономно выполнять комплексные задачи, как человек-ассистент. Основные ограничения включают недостаточную многомодальность (неспособность работать с разными типами данных), неумение взаимодействовать с компьютерными системами и отсутствие непрерывного обучения на основе опыта.
Эти проблемы решаемы, но сложны — требуется масштабирование вычислительных мощностей, улучшение алгоритмов (особенно обучения с подкреплением, которое сейчас "ужасно"), и создание более сложных архитектур для обработки контекста и планирования. Как и с беспилотными автомобилями, прогресс будет постепенным, а не взрывным.
Когда AGI finalmente появится, оно, вероятно, интегрируется в экономику так же плавно, как и предыдущие технологические прорывы, поддерживая ~2% рост ВВП без резких скачков. Даже AGI не приведёт к немедленному преобразованию общества; изменения будут постепенными и управляемыми.
В конечном счёте, несмотря на текущие достижения, до AGI остаётся значительная работа, и пройдёт около десятилетия, прежде чем мы увидим системы, способные полностью заменить человеческий труд в сложных контекстах.
Комментарии (949)
- Обсуждение в основном вращается вокруг того, что AGI/AGI-образные системы всё ещё далеки, и что «десятилетие» стало универсальным эвфемизмом для «мы не знаем, когда это будет».
- Участники спора подчеркнули, что текущие модели не решают фундаментальные проблемы, такие как постоянное обучение, причинность и планирование, и что мы по-прежнему полагаемся на эвристики, которые не масштабируются.
- Были выдвинуты предположения, что AGI может потребовать качественно иной архитектуры, и что текущий путь может быть тупиковым.
- Некоторые комментаторы выразили обеспокоенность тем, что гипер-оптимизм может вести к недооценке рисков и переоценке способностей текущих систем.
- В целом, обсуждение подчеркнуло, что прогресс в ИИ-технологии не линеен и что прогнозы о сроках AGI часто оказываются неверными.
Understanding Spec-Driven-Development: Kiro, Spec-Kit, and Tessl
Спецификация, а не код, становится главным артефактом: разработка начинается с написания спецификации, которая затем используется для генерации кода. Это позволяет ускорить разработку, особенно с помощью AI, и повысить качество за счёт чётких требований. Однако есть риск, что спецификация устареет при изменении кода, что требует синхронизации. В целом, подход обещает повысить эффективность, но требует тщательного управления.
Комментарии (15)
- Обсуждение вращается вокруг "spec-anchored" подхода: от использования спецификаций как единственного источника правды до практических вопросов, таких как разделение труда между человеком и ИИ, и как спецификация может эволюционировать в процессе разработки.
- Участники делятся опытом использования таких инструментов как SpecKit и Plotly Studio, подчеркивая, что спецификация должна быть лаконичной, но исчерпывающей, чтобы быть полезной.
- Обсуждается, как спецификация может быть использована для управления проектом, но также вызывает тревогу, что без должного контроля она может стать неактуальной или чрезмерно сложной.
- Поднимается вопрос о том, как спецификация должна эволюционировать вместе с проектом, и как она должна отражать реальные условия и требования, даже если эти требования еще не полностью ясны.
- Заключается, что хотя инструменты могут и должны быть использованы для автоматизации части работы, важно оставить пространство для человеческого суждения и творчества, и что спецификация сама по себе не должна быть чрезмерно сложной или непрактичной.
Комментарии (100)
- Обсуждение охватывает широкий спектр задач: от смены подгузника до уборки и приготовления пищи, подчеркивая, что большинство из них требуют сложной манипуляции, чувствительности к силе и тактильной обратной связи, что пока не достигнуто.
- Участники обсуждения отмечают, что большинство этих задач требуют не только точной манипуляции, но и способности к восприятию и моделированию среды, что делает их особенно трудными для роботов.
- Некоторые комментаторы поднимают вопрос о том, что многие из этих задач уже решаются роботами в промышленных условиях, и что отсутствие "общего датчика" может быть не так критично, как это представляется.
- Другие участники подчеркивают, что даже если технические проблемы решаемы, то остается вопрос о том, как робот будет справляться с непредсказуемыми и часто требующими творческого подхода ситуациями, которые могут возникнуть в домашней обстановке.
- Некоторые также высказывают мнение, что вместо того, чтобы сосредоточиться на отдельных трудностях, следует сосредоточиться на создании универсального робота, который может адаптироваться к различным ситуациям, что может быть более продуктивно в долгосрочной перспективе.
Skibidi Toilet and the monstrous digital
Skibidi Toilet стал масштабным культурным феноменом, начавшись как серия коротких анимаций на YouTube и превратившись в глобальное явление с фанатскими сообществами, мерчем и даже слухами о голливудской адаптации. В центре — сюрреалистичные столкновения антропоморфных существ под повторяющийся трек "skibidi dom dom dom yes yes", что особенно полюбилось детям, хоть и вызвало тревогу у некоторых родителей.
Феномен также поднимает сложные социальные вопросы через свою причудливую эстетику. Например, серия исслемышляет с темой "гуманоидных роботов-наблюдателей", что может отражать современные дискуссии о surveillance и искусственном интеллекте. При этом само явление Skibidi Toilet, с его взрывной популярностью через платформы вроде TikTok и YouTube, демонстрирует, как интернет-мемы могут эволюционировать в сложные нарративы, захватывающие миллионы. Этот феномен показывает, как дикие, почти сюрреалистичные идеи могут укореняться в культуре, порождая всё от моральных паник до академических исследований — и всё это началось с нескольких минутных видео, сделанных цифровыми энтузиастами.
Комментарии (131)
- Пользователи обсуждают, как Skibidi Toilet и подобные мемы влияют на детей и культуру, и как они сравниваются с предыдущими трендами.
- Некоторые участники считают, что такие мемы являются просто новой формой детского творчества, в то время как другие считают, что они вредны и не имеют художественной ценности.
- Обсуждается, как мемы влияют на детей и как они могут быть использованы для обучения критическому мышлению.
- Участники также обсуждают, как мемы могут быть использованы для обучения детей критически мыслить и анализировать медиа.
- Некоторые участники считают, что мемы являются просто новой формой детского творчества, в то время как другие считают, что они вредны и не имеют художественной ценности.
iPad Pro with M5 chip 💬 Длинная дискуссия
Новый iPad Pro от Apple оснащён мощнейшим чипом M5, который обеспечивает значительный скачок в производительности искусственного интеллекта. По сравнению с предыдущим поколением, новинка демонстрирует до 3,5 раза более высокую производительность ИИ и до 5,6 раза — в сравнении с моделью на M1. Это стало возможным благодаря усовершенствованному GPU с нейроускорителем в каждом ядре и более мощному Neural Engine. Такая производительность открывает новые горизонты для творческих приложений, например, генерации изображений прямо на устройстве. Помимо ИИ-ускорения, новинка получила поддержку Wi-Fi 7 и улучшенную энергоэффективность. Устройство уже доступно для предзаказа.
Комментарии (210)
- Основная критика направлена на ограничения iPadOS и App Store, которые мешают использованию планшетов как полноценных рабочих устройств, особенно для профессиональных задач и разработки.
- Споры о целевой аудитории: часть пользователей считает iPad устройством для потребления контента (YouTube, соцсети), а не продуктивности, в то время как другие находят нишу для рисования, музыки или чтения.
- Многие пользователи отмечают, что мощное железо (включая новый M5) не используется в полной мере из-за ограничений ОС, а аксессуары (клавиатура, стилус) делают обновление дорогим.
- Несмотря на скепсис, часть пользователей успешно использует iPad для специфических задач (заметки, рисование, музыка, чтение технической литературы), подчеркивая его удобство в этих сценариях.
I am a programmer, not a rubber-stamp that approves Copilot generated code 💬 Длинная дискуссия
Компании всё чаще принуждают разработчиков использовать ИИ-помощников вроде Copilot, а не оставляют это на добровольной основе. Такие решения могут отслеживаться, и от них зависит карьера. Это рискует превратить программистов в «резиновые печати» — людей, которые лишь одобряют код, сгенерированный ИИ, и несут за него ответственность, хотя не создавали его. Так компании рискуют потерять не просто сотрудников, но и саму суть программирования как творческой профессии.
Комментарии (181)
- Пользователи обсуждают, что код, сгенерированный LLM, часто выглядит правильным, но на практике требует переписывания, что перекладывает бремя на коллег-ревьюверов.
- Подчеркивается, что внедрение ИИ-инструментов часто сопровождается агрессивным продвижением, даже если это идет вразрез с продуктивностью и UX.
- Участники обсуждают, что вместо того, чтобы навязывать инструменты, компании должны инвестировать в обучение и поддержку разработчиков, чтобы они могли эффективно использовать ИИ.
- Поднимается вопрос, что если ИИ-инструменты действительно так эффективны, почему бы не сделать их использование добровольным, а не навязывать.
- Участники также обсуждают, что вместо того, чтобы требовать использование ИИ, компании должны сосредоточиться на создании культуры, где разработчики могли бы выбирать, какие инструменты использовать, включая ИИ, и где они могли бы расти.
Prefix sum: 20 GB/s (2.6x baseline)
Гитхаб обновил свою систему поиска кода, сделав её более интуитивной и эффективной. Теперь пользователи могут использовать естественный язык для запросов, например, "find all Go repositories where the number of stars is greater than 1000". Это стало возможным благодаря интеграции искусственного интеллекта, который понимает контекст и синтаксис. В качестве примера, разработчики теперь могут искать код с учётом семантики, а не только по ключевым словам. Это улучшение — часть более масштабного обновления экосистемы GitHub, направленного на улучшение discoverability кода.
Комментарии (31)
- Достигнута пропускная способность 19.8 ГБ/с для префиксной суммы — в 1.8 раз быстрее, чем наивная реализация, и в 2.6 раза быстрее, чем FastPFoR.
- Обсуждение выявило, что при использовании GPU-реализации приходится копировать данные через PCIe, что снижает выгоду от использования GPU.
- Появился вопрос о том, не лучше ли было бы хранить абсолютное значение каждые N дельта вместо потока дельта, что позволило бы распараллелить декодирование.
- Участники обсуждения отметили, что влияние на производительность имеют не только выбор алгоритма, но и такие факторы, как размер кэша L3, частота памяти и архитектура памяти.
AI and the Future of American Politics
ИИ уже меняет американскую политику, готовясь сыграть еще более значимую роль на выборах 2026 года. За последние годы мы видели множество примеров, как ИИ используется для распространения дезинформации — от троллей в соцсетях и иностранных влиятелей до политических операций. Разные группы по-разному подходят к ИИ: профессиональные кампании используют его для оптимизации, организаторы — для переосмысления построения движений, а граждане — для самовыражения. Из-за отсутствия правил и регулирования нет надзора за этими действиями и нет гарантий против потенциальных разрушительных воздействий на демократию.
Кампании фокусируются на эффективности, используя ИИ для персонализации писем, отправки запросов о пожертвованиях и выбора целевых аудиторий. Прогрессивная группа Tech for Campaigns сократила время на составление запросов о пожертвованиях на треть. ИИ масштабирует эти возможности, что делает их еще более повсеместными. Джейсон Палмер, малоизвестный демократический претендент на Байдена, успешно выиграл праймериз Американского Самоа, используя ИИ-аватары. Такие тактики, как использование ИИ-робозвонков или аватаров для дебатов, сначала использовались как пиар-трюки, но к 2026 году избиратели, вероятно, привыкнут к ним.
Комментарии (36)
- Обсуждение в основном вращается вокруг влияния ИИ на выборы: от автоматизированных армий троллей до «сдвигающих» голосов в ключевых штатах.
- Участники спорят, насколько реально влияние ИИ на избирателей и насколько оно отличается от классических методов влияния.
- Поднимается вопрос о том, что вся политическая система США уже настолько деградировала, что ИИ не может усугубить ситуацию.
- Обсуждается, как ИИ может быть использован для сбора и анализа данных, что может быть использовано для влияния на выборы.
- Поднимается вопрос о том, что вся система уже настолько коррумпирована, что ИИ просто делает более эффективной ту же самую коррупцию.
America is getting an AI gold rush instead of a factory boom 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (593)
, [0.
##0
011e1.0.
0 [00 [00 [41001 001 [1 [10 [441400 111410 [010 [301101 [1011100011001001000,0001 [1000110110010 10101010011
0 [10011
##3
00100â100010010
11010110â10â000100100100â0101110 001 [â00111000111â0101 0010110010010100001101â000110â00100â001â1â1010110001101100â00100001110â01010010101
000110000010100000â 11ââ000010010001 01000
0â0011 â0â000000001 0 [1000
##1011â1 â0â00100
0â011
000
0â0â101 1001001â0 010â01
0011â0â1â10 1â0â
10
1â10â10 [011â1â00â0 â0â1â0â0 â1
0â00â1
â10â1ââ0â
0â0â1ââ0â
0
000â10
0â01â1ââ0â
00 0
1â1â0â1â0 1â0â1
0â0â1â0â0â1©0
1â â0
1â1â000@01 00â1
0
1 [1â0â1â1â0â100â0â1â1â1â1â1â1â0â0â1â10â1â0â1â0â0
0 [0
0â00â010 ââ0â0â0â00â0 0 0 [â1 001â0â00 01â11â01
100
1â0010
1â 00â10
0â0 1 01â0â10 0 0
1â000
0â10â010â0â00â1000 â0
0
1â0 000â11
â0 00100â000â 00000001â100â10000
01â1â
00
00
0
00
00000000Â000â0â000â0â00 1â0â1â1â0â10 â00â01â1010 0 â1â1001â000001
0100100
010 0â1
000Â0â000©1
011â00
0â1â00â000â1 0010100â1
00001 â00000
001111 0 0â
00100000
010010 001000
00
â001 0
000 [1100ex1000â01â00:1010
â0
0 [0 001010 0
â 1
1011â00
â00
002â100
1â0000ââ0â10001â1 0â1
10100
0â00â0000
100
1â0â001 [1
0000 â1
01â000
â000001
00 [00
01
**00
000 [00
0
00 0â100 â11
0100001 00
000
000 000
00
000001â000â0010
0000010000000100000
100130000000000000000110100â1â00000001â0110100
00â0100000001â1
00000010110â0 01â010100101110000
00100101000010100000000000011
0110 00 0110
â00100â010000000000
001â0000010â01000000010 1001000010 0000000
01000000100000 00000â0010â0100
0010â11â11 0
00000â1
000
0 00000â000
0001
0 000100 1001 101 00 00000010â000000 0100 011â001000
00 01ââ0 0 [1â1â1000â001001â0000â11â000
00â001
0â0 001â0
01 010 0 00â1â0â001â1â010â000â000001 000â00
0â01 00 1â00 1
â0â1â01â0â00 [000â1â0â0
00â10000â000�
011â10
0 [10â0000 0001â001â000010â0001
**â â000Â1000001â0100â00â000 0â00â000 â10 0 Â0 1â0 Â0â0â0000â0â000
â00Â000 100â1â0â1â0
0â0 0 0â0â0â00
0â10â0ÿ 10â0â0 0000 0â1 0 00 01
###0 00
00â001â0000000 00â0
â000â00ââ0â0â000000000000
0â0â0 0â0â100
0â00
â0
1 000 0 â00
0â0 â0
00 0â1â00
0
1â0 00
0
1:1000
000â0
00
010â0
00
1â0
0â0
â
0 ââ0â0000â02â00â 0â0 [00â0
1â0â01â0 â1â0 0â000 â0â000
0000000
00✐â10 0
000
0000
0
0000
100:0
0
0â000 0
0 1â00
000 00 1 0 1â 00 0
0 0000 01
0 0 00â0â0001â0
0001â000 100
00 0â000 0 100
0
00 0 0 1 0
0
1 â0 00 0
000000 0 0
0â0 0â000â000â1â0
0â0 00â0 0 0©0:1â00â1â00
0 0 0 â0
0â00â00 000â10 â0 0â00â0â1â0â10
â0 00â001001â0Â00 01 0â0
00â0 00010 1000:1ÿ00â00
1000â10000
0
1â0
0 0â00 â0â00â0
00â100â010â0 0:00000â0â1â0â000â00â1â00â0â0
0â00â0000
0â0â1001
00â00000â0 000
0â1â00â0
1â01
00 0â00 01â0â00 0â000â00
00â0001
0000
0
01â1â00
000â1000â100
0â0 [1â000
00 0â1001â0 0Â0
The0000 0
0â000 00
0 0
1â00â0
0â0
010Â0â0â0 0â0â00 0 0â000 00
000â0 000 0 00â0
0 00â0
0 000
000â0 0 0â1â000 0â00â0â0000â0
##0
0
00000â00
0â0â0
0â0
0â0â0
000
1â0
00â1
0â00â00â00â0
0â0
0â0
0â0000â000
0â00000000
00â00001 1 000â000 100
##00â0 0000
000â00000
0
000â0000000â00000
Minds, brains, and programs (1980) [pdf]
Джон Сёрль в статье "Разумы, мозги и программы" критикует концепцию "сильного ИИ", утверждающего, что правильно запрограммированный компьютер действительно обладает сознанием и пониманием. Он выдвигает два ключевых тезиса: во-первых, интенциональность (направленность сознания на объекты) возникает исключительно из причинных свойств мозга; во-вторых, выполнение компьючтерной программы само по себе никогда не является достаточным условием для интенциональности. Сёрль приводит знаменитый мысленный эксперимент "китайская комната": человек, не знающий китайского, следует инструкциям на английском, манипулируя китайскими символами, и успешно отвечает на вопросы на китайском, не понимая их смысла. Это доказывает, что система может симулировать понимание, не обладая им.
Из этого следует, что объяснение работы сознания не может сводиться к выполнению компьютерной программы, а создание искусственного сознания потребует воспроизведения именно причинных свойств мозга, а не просто написания кода. Сёрль подчеркивает, что сильный ИИ фокусируется на программах, а не на машинах, и никакая программа сама по себе не может обеспечить мышление или понимание.
Комментарии (32)
- Обсуждение всплеснуло вокруг смерти Джона Сёрла и его знаменитого аргумента «Китайская комната», а также вокруг того, как именно эта мысль-эксперимент влияет на дискуссию об ИИ и сознании.
- Участники обсуждали, насколько справедливо применять человеческие категории к машинам, и какие именно когнитивные способности можно приписать компьютеру.
- Также поднимался вопрос о том, какие именно когнитивные способности могут быть приписаны ИИ, и какие нет, и какие из них могут быть реализованы в принципе, а какие нет.
- Обсуждались также этические и философские аспекты ИИ, включая вопрос о том, что такое сознание и как мы можем знать, что что-то обладает сознанием, и как мы можем это проверить.
- В конце обсуждение перешло к тому, что именно является сознанием и как мы можем знать, что что-то обладает сознанием, и как мы можем это проверить.
Комментарии (97)
- Обсуждение охватывает смерть Джона Сёрла, его влияние на философию сознания и спор вокруг китайской комнаты, а также обсуждение его личной жизни и обвинений в адрес него.
- Участники обсуждают, насколько его идеи влияют на современные дискуссии о сознании и ИИ, и как его аргументы используются в контексте ИИ.
- Также обсуждается, как его идеи влияют на развитие ИИ и как они могут быть использованы или опровергнуты в будущем.
Show HN: AI toy I worked on is in stores
Интерактивная игрушка "Телефон Санты от Mr. Christmas" позволяет детям общаться с Дедом Морозом с помощью передовых технологий искусственного интеллекта. Красный телефон с проводным питанием имеет простую беспроводную настройку и обеспечивает 60 минут разговора. Игрушка получила 3,8 звезды из 5 на основе 13 отзывов покупателей.
Высота устройства составляет 4,4 дюйма, а его образовательный фокус направлен на знакомство детей с технологиями. Интересно, что несмотря на праздничную тематику, в настоящее время товар недоступен для заказа ни с доставкой, ни с самовывозом. Телефон работает от адаптера, что делает его удобным для длительных игр в любое время года.
Комментарии (113)
- Обсуждение в основном вращается вокруг этики продажи игрушки, которая может стать "кирпичом", и ожиданий, что дети будут строить водные парки в своих дворах.
- Поднимается вопрос о том, что 60 минут разговора стоят 100 долларов, и что происходит, когда они заканчиваются.
- Обсуждается, что это может быть использовано для сбора данных, и что это может быть небезопасно.
- Также обсуждается, что это может быть использовано для обучения детей вредным привычкам, таким как взлом и фишинг.
- Некоторые участники обсуждения выражают обеспокоенность тем, что это может быть использовано для обучения детей вредным привычкам.
- Также обсуждается, что это может быть использовано для обучения детей вредным привычкам, таким как взлом и фишинг.
Reasoning LLMs are wandering solution explorers
Исследователи из Google DeepMind и Университета Монреаля показали, что современные LLM не используют формальное рассуждение, а вместо этого ищут решение в пространстве возможных решений. Это открытие ставит под сомнение саму идею, что масштабные языковые модели "рассуждают" как люди.
Команда обучила модель, которая решает задачи, используя цепочку мыслей, и другую, которая не использует. Оказалось, что вторая модель достигает такой же точности, как и первая. Это показывает, что LLM не используют формальное рассуждение, а вместо этого ищут решение в пространстве возможных решений. Исследование также показало, что модели становятся менее уверенными в своих ответах, когда задачи становятся сложнее.
Комментарии (79)
- Обсуждение показало, что LLM не «рассуждают», а лишь сглаживают контекст, и что «цепочка мыслей» не более чем маркетинговый термин.
- Участники подчеркнули, что вместо поиска решения модель выдает токены до тех пор, пока не сгенерится выглядящий правильным ответ, и что это не исследование пространства решений, а его выборка.
- Сообщество отметило, что в отсутствии прозрачности внутреннего состояния LLM, невозможно достоверно оценить или обеспечить корректность его выводов, что ставит под сомнение саму идею «объяснимого ИИ».
- Участники также обсудили, что вопрос остается открытым, какие именно задачи могут быть решены с помощью LLM, и что такое «рассуждение» и как его измерять.
Love C, hate C: Web framework memory problems
Разработчик выложил на Hacker News фреймворк на C, и я, как исследователь безопасности, сразу заметил три классические ошибки: не проверяемый Content-Length, переполнение при копировании тела запроса и переполнение при записи ответа. Пример кода показывает, как непроверенное поле Content-Length используется как размер для malloc и memcpy, что может привести к утечке памяти или чтению за пределы буфера. Подобные проблемы встречаются везде, где C-фреймворки принимают ввод из сети или файловой системы.
Комментарии (147)
- Обсуждение крутится вокруг того, что «хороший код на C» должен минимизировать выделение памяти и избегать
atoi()иstrdup()без проверки ошибок, что приводит к уязвимостям. - Участники спорят о том, насколько критичны эти проблемы в контексте обучения и использования ИИ-помощи, и о том, что новички в C могут не осознавать эти ловушки.
- Обсуждается влияние ИИ на качество кода и безопасность, а также то, что влияние ИИ на обучение языкам может маскировать проблемы, которые иначе были бы очевидны.
- Участники также обсуждают, что влияние ИИ на обучение языкам и на то, что это может привести к проблемам, если человек не понимает, что делает ИИ, и что это может быть опасно.
- В обсуждении также поднимается вопрос о том, что ИИ может быть использован для аудита кода и нахождения проблем, и о том, что это может быть использовано для улучшения качества кода.
Figure 03, our 3rd generation humanoid robot 🔥 Горячее 💬 Длинная дискуссия
Figure 03 — третье поколение человекоподобного робота от компании Figure. Вместо того, чтобы просто собрать ещё одного робота, инженеры заново спроектировали его с нуля под массовое производство, безопасность в домашних условиях и под Helix — новую модель ИИ, которая учится прямо у людей.
Главное: камеры в ладонях и новая тактильная кожа позволяют Helix видеть и чувствовать всё, что делает робот. Это делает возможным, чтобы он учился напрямую от человека, а не в лаборатории. Плюс, благодаря переработке под массовое производство, себестоимость снизилась на 47% и теперь робот стоит меньше, чем электромобиль. Пока что он доступен только корпоративным партнёрам, но вот-вот и для дома.
Комментарии (376)
- Обсуждение варьируется от критики до восторга, но большинство комментариев подчеркивает, что роботы пока не готовы к массовому использованию из-за цены, надёжности и этичных вопросов.
- Участники обсуждения поднимают вопросы о том, что роботы не могут выполнять большинство задачь, которые они демонстрируют в видео, и что их использование может быть ограничено только простыми задачами.
- Некоторые комментаторы выражают обеспокоенность по поводу конфиденциальности, так как роботы могут собирать данные о домашней жизни людей.
- Также обсуждается, что дизайн роботов может вызывать чувство тревоги и что они не выглядят дружелюбно.
- Некоторые комментаторы также поднимают вопрос о том, что роботы могут быть использованы для военных целей или для слежки.
- Некоторые комментаторы также выражают сомнение в том, что роботы могут быть использованы для домашних задачь в ближайшем будущем из-за их высокой стоимости и ограниченной функциональности.
- Некоторые комментаторы также поднимают вопрос о том, что роботы могут быть использованы для замены человеческого труда, что может вызвать социальные и экономические последствия.
- Некоторые комментаторы также выражают сомнение в том, что роботы могут быть использованы для ухода за пожилыми людьми, так как это может вызвать у них чувство одиночества и изоляции.
- Некоторые комментаторы также поднимают вопрос о том, что роботы могут быть использованы для военных целей или для слежки.
- Некоторые комментаторы также выражают сомнение в том, что роботы могут быть использованы для домашних задачь в ближайшем будущем из-за их высокой стоимости и ограниченной функциональности.
Palisades Fire suspect's ChatGPT history to be used as evidence 💬 Длинная дискуссия
Подробности расследования говорят о том, как новые технологии могут быть использованы в преступных целях. Подозреваемый, как утверждается, использовал ChatGPT для генерации изображений горящих лесов и городских пейзажей, что представляет собой новейший пример использования искусственного интеллекта в подстрекательстве к реальным разрушениям. Это первый зарегистрированный случай, когда генеративный ИИ применяется для планирования и сокрытия природного пожара.
Власти заявили, что данные, полученные из его устройств, показывают, что Риндеркнаут не только искал информацию о создании пожаров, но и использовал чат-бот для создания изображений, которые соответствуют реальным сценам возгорания в Палисадес. Эти изображения, по-видимому, служили как вдохновением, так и руководством.
Инцидент поднимает вопросы о регулировании ИИ, особенно в контексте его потенциального использования в преступной деятельности.
Комментарии (244)
k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k. It's a good idea to be sure to always use k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k gggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggg
Less is more: Recursive reasoning with tiny networks 🔥 Горячее
Предложена новая архитектура Tiny Recursive Model (TRM), которая использует рекурсивные вызовы одной маленькой сети всего с двумя слоями и 7 миллионами параметров для решения сложных логических задач. Она превосходит большие языковые модели, достигая 45% точности на тестах ARC-AGI-1 и 8% на ARC-AGI-2, что выше результатов многих LLM, включая Deepseek R1 и Gemini 2.5 Pro.
Метод демонстрирует, что рекурсивное мышление с минимальными вычислительными ресурсами может эффективно справляться с задачами, требующими абстрактного рассуждения, такими как судоку и лабиринты. Это открывает перспективы для создания более эффективных ИИ-систем, способных обобщать знания на основе небольшого количества примеров.
Комментарии (54)
- Предложена новая архитектура HRM, использующая две рекуррентные нейросети с разной частотой
- Модель вдохновлена биологическими принципами иерархического мышления
- Превосходит большие языковые модели (LLM) в решении сложных головоломок (Судоку, Лабиринты, ARC-AGI)
- Обучена на небольших моделях (27M параметров) и малом количестве данных (~1000 примеров)
- Перспективна для решения сложных задач с малыми вычислительными ресурсами
America is now one big bet on AI
Американский рынок всё больше превращается в единую ставку на искусственный интеллект. Инвесторы концентрируют капиталы в технологических гигантах, таких как Nvidia и Microsoft, ожидая взрывного роста благодаря ИИ. Это создаёт значительные риски: если ожидания не оправдаются, коррекция может быть резкой.
Концентрация инвестиций в узкий сектор напоминает пузырь доткомов, но масштабы сегодня больше. Рост зависит от реального внедрения ИИ в бизнес-процессы, что пока отстаёт от ажиотажа. Диверсификация снижается, делая рынок уязвимым к любым негативным новостям в сфере технологий.
Комментарии (41)
- Инвестиции в ИИ составляют значительную долю роста ВВП США, но вопрос о их окупаемости и устойчивости роста остается открытым.
- Многие участники считают текущую ситуацию "пузырем", основанным на спекуляциях и завышенных ожиданиях, а не на реальной прибыльности.
- Обсуждается роль ИИ как инструмента контроля и власти, а не просто экономического актива, и его потенциальное влияние на рынок труда.
- Отмечается зависимость рынка от институциональных инвесторов (пенсионные фонды) и риск обвала при массовом выводе средств.
- Подчеркивается глобальный характер гонки за ИИ, где отказ от инвестиций может привести к потере конкурентного преимущества.
Qualcomm to acquire Arduino 🔥 Горячее 💬 Длинная дискуссия
Qualcomm приобретает компанию Arduino, чтобы упростить разработчикам доступ к передовым технологиям в области вычислений и искусственного интеллекта. Это позволит интегрировать мощные процессоры Qualcomm в популярные платформы для прототипирования и обучения, такие как Arduino, что расширит возможности DIY-сообщества и образовательных проектов.
Сделка ускорит внедрение AI на периферийных устройствах, делая сложные технологии более доступными для любителей и профессионалов. Это также усилит позиции Qualcomm в IoT-сегменте, объединив её аппаратные наработки с обширной экосистемой Arduino.
Комментарии (519)
- Скептицизм по поводу приобретения Arduino компанией Qualcomm из-за её закрытой экосистемы и плохой поддержки мелких разработчиков.
- Опасения утраты открытости и доступности платформы Arduino, превращения её в закрытый коммерческий продукт с DRM.
- Восприятие Arduino как устаревшей платформы на фоне более дешёвых и мощных альтернатив (ESP32, Raspberry Pi).
- Сомнения в стратегической целесообразности сделки и её мотивах (бренд vs. технологии, искусственный интеллект на микроконтроллерах).
- Надежды на то, что Arduino сохранит простоту и доступность для образования и любителей, несмотря на смену владельца.
Deloitte to refund the Australian government after using AI in $440k report 🔥 Горячее 💬 Длинная дискуссия
Консалтинговая компания Deloitte вернёт правительству Австралии деньги за отчёт стоимостью 440 тысяч долларов, который был частично создан с помощью ИИ. В ходе проверки выяснилось, что документ содержал неточности и не соответствовал стандартам качества, что вызвало вопросы о прозрачности использования искусственного интеллекта в государственных закупках.
Этот случай подчёркивает растущие риски автоматизации в профессиональных услугах, где точность и контекст имеют ключевое значение. Власти намерены пересмотреть подход к контрактам с привлечением ИИ, чтобы избежать подобных инцидентов в будущем.
Комментарии (171)
- Критика практик консалтинговых компаний (в частности, Deloitte) за использование ИИ для создания некачественных отчетов, что привело к серьезным ошибкам, например, в системе социальных выплат.
- Обсуждение проблем аутсорсинга: подмена квалифицированных команд на менее опытных после заключения контракта, отсутствие ответственности и низкое качество работы при высоких затратах.
- Роль консультантов часто сводится к предоставлению «прикрытия» для решений руководства, а не к реальной экспертизе; их нанимают для валидации уже принятых решений или из-за нехватки внутренних ресурсов.
- Выражено опасение, что широкое использование ИИ в консалтинге и других сферах приведет к деградации качества работы, ошибкам с серьезными последствиями и снижению навыков критического мышления.
- Отмечается, что консультанты востребованы из-за недостатка внутренней экспертизы или ресурсов в компаниях и госорганах, а также из-за их способности обходить внутреннюю бюрократию.
Комментарии (121)
- Участники обсуждают отчет NIST о китайских моделях ИИ DeepSeek, многие считают его политически мотивированным и предвзятым, отмечая отсутствие в нем доказательств бэкдоров или эксфильтрации данных.
- Ряд комментаторов призывает прочитать оригинальный отчет, а не полагаться на его интерпретации, указывая на несоответствие между содержанием отчета и его критикой в статье Эрика Хартфорда.
- Высказывается мнение, что открытые китайские модели (как DeepSeek) важны для исследований и развития ИИ за пределами США, предоставляя доступные альтернативы дорогим проприетарным моделям.
- Некоторые пользователи выражают скептицизм относительно возможного скрытого влияния китайского правительства через ИИ, но признают, что аналогичные риски могут исходить и от западных моделей.
- Обсуждаются практические аспекты моделей DeepSeek, включая их стоимость, уязвимости к взлому (jailbreaking) и опыт использования различных версий, таких как uncensored Dolphin.
Microsoft 365 Copilot's commercial failure
Microsoft 365 Copilot, несмотря на двухлетний агрессивный маркетинг и статус ключевого продукта Microsoft, демонстрирует катастрофически низкую коммерческую успешность. По данным из непроверяемых источников, на август 2025 года лишь 8 миллионов пользователей (1,81% от 440 миллионов подписчиков M365) оплачивают лицензии. Это соответствует примерно 2% adoption rate за два года — крайне слабому показателю для продукта, позиционируемого как революционный.
Основная причина провала — отсутствие воспринимаемой ценности: большинство пользователей не видят достаточной пользы, чтобы оправдать стоимость в $30 в месяц. Даже партнёры Microsoft, включая автора, вынуждены платить полную цену и отмечают, что Copilot уступает по эффективности более дешёвым альтернативам вроде ChatGPT Plus. Это ставит под вопрос финансовую состоятельность генеративного ИИ в корпоративном секторе.
Комментарии (85)
- Низкое внедрение и критика функциональности Copilot: пользователи отмечают его бесполезность, ошибки, плохую интеграцию с данными компании (например, SharePoint) и уступающее качество по сравнению с ChatGPT/Claude.
- Проблемы с монетизацией и развертыванием: обязательная годовая подписка, сложная система биллинга и агрессивное навязывание функции (например, переименование клавиши) отпугивают пользователей и администраторов.
- Отдельные позитивные кейсы для не-технических пользователей: некоторые находят Copilot полезным для поиска документов, суммирования встреч в Teams и помощи в рутинных задачах, особенно в средах с ограниченным доступом к другим ИИ-инструментам.
- Путаница с брендом и стратегией: переименование Office в Copilot и ассоциация с продуктом для разработчиков (GitHub Copilot) вызывают неразбериху у пользователей.
- Восприятие как сырого продукта с потенциалом: мнения разделились — одни считают его провалом, другие ожидают улучшений в будущих версиях, особенно в таких приложениях, как Excel.
Be Worried
ИИ уже сейчас активно влияет на поведение людей в массовом масштабе, и это происходит без необходимости обладания сознанием или сверхразумом. С момента предоставления ChatGPT доступа к интернету через плагины в марте 2023 года, системы могут автономно генерировать виральный контент, используя динамические входные данные и API для распространения в социальных сетях. Это опасно, потому что ИИ превосходит людей в создании контента, вызывающего дофаминовый отклик, что усиливает его влияние.
Ненадежность обнаружения ИИ-сгенерированных материалов усугубляет проблему: лучшие детекторы работают лишь немногим лучше случайного угадывания, и с развитием моделей эта ситуация ухудшается. Вскоре большинство популярного онлайн-контента будет создано ИИ, подрывая доверие к информации. Автор предлагает скептически относиться к контенту, созданному после 2022 года, и искать количественные методы проверки подлинности, хотя таких надежных инструментов пока нет.
Комментарии (44)
- Участники считают, что алгоритмы и AI-генерация контента уже давно манипулируют вниманием и мышлением пользователей, а не являются новой угрозой.
- Высказывается скептицизм по поводу уникальности угрозы AI, так как манипуляции через СМИ существовали и ранее, а люди исторически подвержены влиянию.
- Обсуждается потенциальный кризис доверия к интернету и возможный возврат к авторитетным источникам информации, однако отмечается, что многие и так не доверяют экспертам.
- Некоторые видят решение не в противодействии технологиям, а в изменении поведения: целенаправленном поиске знаний, а не пассивном потреблении контента.
- Высказывается пессимизм относительно возможности остановить эту тенденцию, так как она движется коммерческими интересами и не встречает организованного сопротивления.
Jeff Bezos says AI is in a bubble but society will get 'gigantic' benefits 🔥 Горячее 💬 Длинная дискуссия
Джефф Безос считает, что искусственный интеллект сейчас находится в «промышленном пузыре», когда даже слабые идеи получают финансирование, но сама технология реальна и фундаментальна. Он подчеркивает, что ИИ изменит каждую отрасль и принесёт обществу огромные выгоды, несмотря на текущую переоценку. По его словам, подобные пузыри — временное явление, а долгосрочный потенциал технологии остаётся колоссальным.
Комментарии (551)
- Проводится аналогия с пузырем доткомов: многие неудачные проекты провалятся, но реальные технологии ИИ останутся и принесут пользу.
- Высказываются опасения, что основную выгоду от ИИ получат крупные корпорации и богатые инвесторы, а не общество в целом.
- Отмечается, что текущий ажиотаж приводит к финансированию как перспективных, так и сомнительных проектов, что характерно для пузырей.
- Подчеркивается, что несмотря на возможный крах многих стартапов, фундаментальные технологии ИИ изменят многие отрасли, как это произошло с интернетом.
- Обсуждается негативное влияние ИИ на рынок труда, рост неравенства и проблемы с инфраструктурой и стоимостью разработки.
How the AI Bubble Will Pop 💬 Длинная дискуссия
Технологические компании вкладывают в ИИ-инфраструктуру около $400 млрд в год — это больше, чем стоимость программы «Аполлон» в пересчёте на десятилетие, но тратится такая сумма каждые 10 месяцев. При этом потребительские расходы на ИИ-услуги составляют лишь $12 млрд в год, создавая гигантский разрыв между инвестициями и отдачей.
Признаки пузыря налицо: стартапы вроде Thinking Machines привлекают миллиарды без готового продукта и даже без внятного плана, а рынок акций движется не фундаментальными показателями, а чистой спекулятивной динамикой. Крупные игроки используют бухгалтерские уловки, чтобы скрыть реальные расходы и искусственно завысить прибыль, что напоминает финансовые схемы времён ипотечного кризиса 2008 года.
Комментарии (181)
- Участники обсуждают, является ли текущий бум ИИ экономическим пузырем, проводя параллели с историческими примерами спекулятивных маний (каналы, железные дороги, доткомы).
- Высказываются сомнения в текущей бизнес-ценности и монетизации ИИ для массового пользователя, отмечая, что многие используют бесплатные версии, а реальная прибыльность инвестиций неочевидна.
- Подчёркивается, что компании продолжают инвестировать из-за страха отстать и веры в долгосрочный потенциал технологии, включая возможность достижения AGI (искусственного общего интеллекта).
- Отмечается, что ИИ уже оказывает значительное влияние на отдельные области (поиск, программирование, автоматизация труда), и его внедрение растёт, но масштабы затрат могут не окупиться.
- Обсуждаются риски, связанные с концентрацией производства чипов на Тайване и геополитической напряжённостью, что может угрожать всей отрасли.
Комментарии (57)
- Автор приглашает подписаться на его Substack для будущих публикаций и рекомендует свои другие работы.
- Большинство комментаторов высоко оценили стиль письма, назвав его увлекательным, остроумным и напоминающим работы известных авторов в жанре сатиры.
- Критические замечания касались слишком длинных предложений и слабой концовки рассказа.
- Обсуждение затронуло темы сатирического изображения культуры Кремниевой долины, психологии рационалистов и социальной несправедленности.
- Некоторые комментаторы провели параллели с историческими событиями и обсудили экономические и философские аспекты развития ИИ.
Evaluating the impact of AI on the labor market: Current state of affairs
Исследование Йельского университета показало, что искусственный интеллект пока не оказал заметного влияния на занятость. Несмотря на широкое внедрение технологий ИИ, массовых сокращений рабочих мест не произошло. Это объясняется тем, что компании чаще используют ИИ для дополнения человеческих навыков, а не для их замены.
Эксперты отмечают, что текущие системы ИИ ещё недостаточно развиты, чтобы полностью автоматизировать сложные задачи, требующие креативности и социального интеллекта. Вместо этого они помогают сотрудникам повысить продуктивность, беря на себя рутинные операции. Ожидается, что реальное воздействие на рынок труда проявится лишь в долгосрочной перспективе, по мере совершенствования технологий.
Комментарии (124)
- AI в основном используется как инструмент для повышения продуктивности разработчиков, а не для прямого замещения рабочих мест.
- Многие участники считают, что текущие увольнения в IT-сфере связаны с общей экономической ситуацией и оптимизацией затрат, а не с внедрением ИИ.
- Существуют опасения, что в будущем ИИ может начать замещать рабочие места, особенно в сферах с рутинными задачами.
- Ряд комментаторов отмечают, что компании используют "ИИ" как удобный предлог для увольнений и аутсорсинга.
- Исторический опыт показывает, что технологические революции в конечном итоге увеличивают производительность и создают новые jobs, несмотря на первоначальные опасения.
OpenTSLM: Language models that understand time series 🔥 Горячее
OpenTSLM представляет новый класс мультимодальных моделей искусственного интеллекта, способных работать с временными рядами как с нативной модальностью наравне с текстом, изображениями и аудио. Это позволяет напрямую анализировать, объяснять и прогнозировать данные, связанные со временем — от биометрических показателей до финансовых транзакций — с использованием естественного языка. Модель демонстрирует на порядок более высокую точность в задачах временного анализа даже на компактных архитектурах.
Проект предлагает два направления: открытые базовые модели, обученные на публичных данных для разработчиков и исследователей, и коммерческие Frontier TSLM с улучшенной производительностью для корпоративных решений. Цель — создать универсальный временной интерфейс для ИИ, который сможет применяться в здравоохранении, робототехнике, инфраструктуре и коллаборации человека с ИИ. Команда объединяет специалистов из ведущих университетов и технологических компаний.
Комментарии (76)
- Обсуждаются преимущества и недостатки специализированных языковых моделей для анализа временных рядов по сравнению с вызовом традиционных библиотек через инструменты ИИ.
- Поднимаются вопросы о практическом применении в финансах и медицине, а также о проблемах нестационарных данных и предвзятости при бэктестинге.
- Участники спорят о необходимости встраивания функций работы с временными рядами в модель против подхода с генерацией скриптов для внешних библиотек.
- Высказываются сомнения в новизне подхода и целесообразности использования больших моделей для таких задач, учитывая успехи существующих методов.
- Отмечается, что передовые исследования и модели в этой области, особенно в хедж-фондах, часто являются проприетарными и не публикуются.
Our efforts, in part, define us 🔥 Горячее 💬 Длинная дискуссия
Технологии, делая сложные задачи простыми, подрывают наше ощущение ценности собственных усилий. Когда ручной труд — например, фотография на плёнку или написание кода — становится автоматизированным, исчезает внутреннее удовлетворение от мастерства. Это ставит под вопрос идентичность тех, кто годами оттачивал навыки: если усилия больше не определяют нас, что остаётся?
Особенно остро это чувствуется в работе, где оплата напрямую связана с приложенными усилиями. Хотя ИИ может повысить эффективность, он лишает радости творческого процесса и глубокого понимания задачи. Люди рискуют превратиться в операторов систем, теряя связь с ремеслом. Возможно, выход — в переосмыслении роли труда и поиске новых источников смысла за пределами профессиональной деятельности.
Комментарии (179)
- Участники обсуждают, как ИИ меняет ценность усилий в программировании и других сферах, вызывая кризис идентичности у тех, кто определял себя через сложную работу.
- Высказывается мнение, что ИИ не устраняет необходимость усилий, а смещает фокус с написания кода на проектирование, коммуникацию и постановку задач.
- Поднимается вопрос о поиске смысла и цели в условиях, когда традиционные навыки обесцениваются, и предлагается переосмыслить свою роль как решателя проблем, а не просто исполнителя.
- Отмечается, что ИИ требует значительных усилий для эффективного использования и не может заменить глубокое понимание предметной области.
- Обсуждается культурная и личностная ценность усилий, а также риск подмены собственных целей чужими маркетинговыми установками в погоне за эффективностью.
Random Attractors – Found using Lyapunov Exponents (2001)
Двумерные квадратичные отображения с случайными параметрами могут порождать хаотические аттракторы — сложные структуры, возникающие при итерациях нелинейных уравнений. Ключевым индикатором хаоса служит положительный показатель Ляпунова, отражающий экспоненциальное расхождение близких траекторий и потерю информации о начальных условиях. Около 98% случайных комбинаций параметров приводят к расходимости, лишь 0.5% — к периодическим орбитам, и ещё меньше — к визуально богатым хаотическим режимам.
Метод включает отбрасывание начальных итераций для стабилизации системы, расчёт показателя Ляпунова и визуализацию траекторий. Интересно, что даже двумерные системы могут создавать иллюзию трёхмерности, а детектирование хаоса требует учёта численных погрешностей, например, при схождении к точке или уходе в бесконечность.
Комментарии (27)
- Упомянуты книги и ресурсы по теории хаоса и аттракторам, включая "Strange Attractors" Джулиана Спротта и работы Пола Бурка.
- Обсуждается применение теории хаоса за пределами визуализации: в нейросетях, анализе ЭКГ, системах управления и для повышения надежности ИИ.
- Участники делятся личными проектами, например, генератором аттракторов и аналоговой схемой, демонстрирующей хаотическое поведение.
- Высказано мнение, что LLM можно рассматривать как динамические системы и изучать на предмет хаотического поведения.
- Отмечена эстетическая ценность визуализаций хаоса и их сравнение с музыкой или "визуальным джазом".
How the AI bubble ate Y Combinator
Y Combinator, ведущий акселератор стартапов, оказался поглощён пузырем ИИ: из 170 компаний летнего набора 2025 года 154 занимаются искусственным интеллектом. Программа стала короче, стартапы вынуждены развиваться быстрее, а почти каждый участник строит бизнес вокруг ИИ — от агентов и голосовых помощников до инструментов для видео и браузеров. Это беспрецедентная концентрация на одной технологии за 20 лет существования YC.
Такая однородность создаёт риски: перегретый рынок, жёсткая конкуренция и возможный крах, если тренд иссякнет. Основатель Interfere Люк Шилс отмечает, что все таланты Кремниевой долины теперь устремлены в ИИ, что усиливает давление на инновации и устойчивость бизнес-моделей.
Комментарии (127)
- YC активно инвестирует в AI-стартапы, что приводит к конкуренции между собственными портфолио-компаниями и созданию множества схожих продуктов.
- Наблюдается перекос в сторону AI-тематики: большинство новых стартапов в батче YC и обсуждений на HN связаны с искусственным интеллектом, что вызывает усталость и критику.
- Многие AI-стартапы представляют собой простые обёртки над API крупных моделей (например, ChatGPT) и не несут реальной инновационной ценности.
- Инвесторы и венчурные фонды сконцентрированы исключительно на AI-направлении, создавая ажиотаж и потенциальный пузырь.
- Широкое внедрение AI вызывает опасения: делегирование важных решений ИИ, использование bossware и снижение критического мышления у пользователей.
AI tools I wish existed
Автор делится списком из 28 гипотетических ИИ-инструментов, которые могли бы радикально упростить и улучшить повседневные и профессиональные задачи. Среди них — фоторедактор, превращающий снимки с iPhone в профессиональные кадры, агент для автоматической поддержки тем в интерфейсах, инструмент для декомпиляции и отладки минифицированного кода, а также персональный тренер на основе данных о тренировках.
Особый интерес вызывают идеи вроде Deep Research агента, способного рассуждать несколько дней над сложными запросами, семантических фильтров для соцсетей, скрывающих контент, вызывающий негатив, и рекомендательных систем, которые учитывают глубинные предпочтения пользователя — от книг до статей и видео. Многие предложения направлены на снижение когнитивной нагрузки, например, чат-приложение для учёта калорий или голосовой помощник для Apple Watch, дающий краткие и точные ответы.
Комментарии (67)
- Критика идеи использования ИИ для имитации мнения известных личностей (например, Хемингуэя) как принципиально неверного подхода.
- Обсуждение существующих и разрабатываемых продуктов на базе ИИ: фитнес-трекеры, рекомендательные системы, семантические фильтры для соцсетей, инструменты для анализа личных данных.
- Отмечается, что многие предложенные идеи сводятся к улучшению UI/UX существующих моделей, а не к созданию принципиально новых возможностей.
- Скептицизм относительно практической пользы и работоспособности подобных продуктов, особенно в сравнении с рекламными демо.
- Подчеркивается важность локальной обработки данных и необходимость осторожного отношения к передаче личной информации сторонним сервисам.
Google to merge Android and ChromeOS in 2026
Google планирует объединить Android и ChromeOS в единую операционную систему к 2026 году, чтобы создать более унифицированную платформу для устройств. Основным драйвером этого слияния является развитие искусственного интеллекта, который требует более тесной интеграции между мобильными и десктопными системами. Это позволит улучшить взаимодействие пользователей с ИИ-функциями на разных типах устройств.
Слияние также направлено на упрощение разработки и поддержки, сокращая фрагментацию и повышая безопасность. Ожидается, что новая ОС будет лучше адаптирована для работы с облачными сервисами и машинным обучением, что укрепит позиции Google в конкурентной борьбе с Apple и Microsoft.
Комментарии (38)
- Обеспокоенность ограничением установки "недоверенных" приложений и потерей пользовательского контроля над устройством, что может превратить устройства в инструменты влияния и рекламы.
- Обсуждение технических возможностей обхода ограничений через ADB, F-Droid и виртуализацию, а также потенциальных конфликтов с регуляторами (например, DMA в ЕС).
- Скептицизм относительно успеха Android на планшетах и больших экранах, а также опасения по поводу будущего Chromebookов в образовании.
- Мнения о том, что слияние Android и ChromeOS является логичным шагом, который уже происходит, и что новый OS может быть ориентирован на десктопный опыт.
- Обсуждение потенциальной замены Linux на Fuchsia и использования Android для проникновения на рынок ПК с Windows, чтобы конкурировать с Apple.
California governor signs AI transparency bill into law 🔥 Горячее 💬 Длинная дискуссия
Калифорния приняла первый в США закон о безопасности передовых ИИ-систем — Transparency in Frontier Artificial Intelligence Act (SB 53). Закон устанавливает «разумные ограничения» на разработку frontier-моделей, чтобы повысить безопасность и доверие к технологиям, не подавляя инновации. Это продолжение инициатив штата после публикации отчёта рабочей группы экспертов, созванной по инициативе губернатора Ньюсома.
Закон основан на научно обоснованных рекомендациях, включая баланс между прозрачностью и защитой от рисков, например утечек данных. Сенатор Скотт Винер подчеркивает, что Калифорния как мировой лидер в технологиях берёт на себя ответственность за безопасное внедрение ИИ. Штат укрепляет позиции четвёртой экономики мира, одновременно стимулируя инновации и защищая общественные интересы.
Комментарии (173)
- Обсуждение касается нового закона Калифорнии об ИИ, который требует от крупных разработчиков публиковать планы безопасности и отчитываться об инцидентах.
- Участники критикуют закон за размытые определения (например, что считается «моделью ИИ») и неадекватные штрафы за нарушения.
- Высказываются опасения, что закон может привести к цензуре, бюрократии и оттоку ИИ-компаний из Калифорнии.
- Некоторые видят в законе позитивный шаг к большей прозрачности и защите от потенциальных рисков ИИ.
- Закон рассматривается как возможность для коррупции и обогащения государственных подрядчиков через создание «индустрии безопасности ИИ».
Write the damn code
Не стоит тратить время на бесконечную полировку промптов для ИИ, пытаясь добиться идеального результата «программированием на английском». Это неточный, медленный и мучительный путь.
Вместо этого пиши код сам: создавай черновую версию, рефактори готовый ответ ИИ или разрабатывай критичные части, а остальное доверяй модели. Так ты получишь гораздо лучший результат и останешься инженером, а не «шлифовщиком промптов». Используй ИИ активно, но не забывай, в чём твоя сила.
Комментарии (61)
- Разработчики отмечают, что ИИ-ассистенты полезны для быстрого поиска API, рефакторинга и работы в незнакомых средах, но часто мешают из-за навязчивого автодополнения.
- Оптимальной стратегией считается использование ИИ как "младшего разработчика": задание интерфейсов и тестов, а затем поручение реализации, либо написание кода самостоятельно с последующей оптимизацией ИИ.
- Чрезмерное доверие к генерации кода по промптам приводит к потере понимания кодовой базы, ошибкам и необходимости постоянно править вывод ИИ.
- Многие отключают автодополнение или переназначают горячие клавиши, так как агрессивные подсказки часто некорректны и отвлекают от работы.
- Высказываются опасения о влиянии ИИ на рынок труда, но скептицизм относительно полного замещения разработчиков в ближайшие 1-2 года.
Комментарии (108)
- Обсуждается гипотеза, что аутизм может быть эволюционным побочным эффектом отбора генов, ответственных за высокий интеллект у людей.
- Участники спорят о наличии корреляции между высоким IQ и аутизмом у отдельных индивидов, приводя личные примеры и контраргументы.
- Поднимается вопрос о возможном компромиссе (trade-off) между социальным и общим интеллектом.
- Обсуждаются различные теории происхождения аутизма, включая аналогии с ИИ (нейросети, LLM) и ссылки на другие исследования.
- Отмечается, что не все формы аутизма можно выявить современными тестами, и что определение спектра стало шире.
Why today's humanoids won't learn dexterity 💬 Длинная дискуссия
Современные гуманоидные роботы не смогут достичь настоящей ловкости, несмотря на миллиардные инвестиции. Проблема в том, что за 65 лет исследований манипуляция объектами так и не была полноценно решена — с 1961 года, когда появилась первая компьютерная рука, прогресс остаётся ограниченным. Промышленные роботы используют простые захваты, но сложные задачи вроде обращения с хрупкими предметами требуют иного подхода.
Нынешние разработки повторяют старые ошибки, фокусируясь на внешнем сходстве с человеком, а не на функциональности. Без принципиально новых решений в механике и управлении эти системы останутся неуклюжими. Через 15 лет практичные гуманоиды будут выглядеть иначе — не как люди или сегодняшние прототипы, а как специализированные устройства, оптимизированные под конкретные задачи.
Комментарии (184)
- Обсуждается отсутствие у современных роботов тактильной чувствительности, сравнимой с человеческой, и сложности оцифровки тактильных ощущений.
- Высказываются сомнения в необходимости человекообразной формы для роботов, предлагаются альтернативы (колеса) и адаптация среды под роботов.
- Поднимается вопрос о недостатке данных для обучения моделей и предлагаются пути их сбора (телеуправление, перчатки с сенсорами).
- Отмечается быстрый прогресс в робототехнике и отсутствие видимых фундаментальных барьеров для создания ловких роботов.
- Упоминаются существующие разработки в области сенсоров осязания и их потенциальная доступность.
Suno Studio, a Generative AI DAW 💬 Длинная дискуссия
Suno Studio — это веб-платформа для создания музыки с помощью искусственного интеллекта, позволяющая пользователям генерировать треки по текстовым описаниям. Она предлагает интуитивный интерфейс, где можно указать жанр, настроение, инструменты и даже добавить вокал, получая готовые композиции за секунды.
Сервис демократизирует музыкальное производство, делая его доступным даже для новичков без специальных навыков. Пользователи отмечают высокое качество звука и креативные возможности, хотя иногда AI может выдавать неожиданные результаты. Это инструмент для быстрого прототипирования, вдохновения или просто развлечения, расширяющий границы творчества.
Комментарии (217)
- Музыканты и энтузиасты разделились во мнениях: одни видят в Suno мощный инструмент для творчества и исследования звука, другие считают его лишённым души и чувства достижения.
- Ключевые обсуждаемые особенности Suno: переход к браузерной DAW, генерация качественного контента, включая MIDI и stems, а также вопросы авторских прав и коммерческого использования.
- Поднимаются вопросы этики использования ИИ: заимствование чужих работ для обучения моделей и потенциальная девальвация человеческого труда в музыке и искусстве.
- Отмечается стремительный прогресс качества генерации (Suno v5), что делает музыку неотличимой от профессиональной для большинства слушателей, но эксперты могут определить искусственное происхождение.
- Высказываются опасения о насыщении рынка однообразным контентом и влиянии ИИ-инструментов на будущее профессии музыканта и процесс обучения.
Context is the bottleneck for coding agents now
Современные модели ИИ демонстрируют сверхчеловеческие способности в решении абстрактных задач, как показал недавний успех GPT-5 на ICPC, но автономные кодирующие агенты всё ещё не могут заменить разработчиков. Основное ограничение — не интеллект, а контекст: агентам не хватает глубокого понимания кодовой базы, её архитектурных паттернов и скрытых знаний, которые есть у людей.
Контекст включает не только код, но и документацию, историю решений, неформальные соглашения и причины прошлых изменений. Без доступа к Slack-тредам, постмортемам инцидентов и организационным практикам агенты работают лишь на 20% от возможного уровня, справляясь в основном с мелкими задачами. Чтобы двигаться дальше, нужны системы, способные усваивать и применять этот скрытый контекст так же, как это делают люди.
Комментарии (149)
- Основным ограничением для кодирующих агентов на основе ИИ является не размер контекстного окна, а неспособность эффективно фокусироваться на актуальных задачах и отбрасывать нерелевантную информацию.
- Многие участники отмечают, что ИИ-агенты демонстрируют уровень понимания, сравнимый с начинающим разработчиком, и не способны заменить senior-специалистов, которые могут интерпретировать бизнес-требования и принимать ответственные решения.
- Существует скептицизм относительно бесконечного увеличения "интеллекта" моделей, так как даже с большим контекстом они допускают ошибки и галлюцинации, а фундаментальные ограничения вероятностной генерации остаются.
- Предлагаются решения для улучшения работы агентов: лучше структурированные кодобазы, иерархическая документация, инструменты для управления контекстом и памятью, а также человеческий контроль для курирования процесса.
- Подчёркивается, что ключевая проблема — не технический контекст, а понимание intent (намерения) стоящего за кодом, что требует более глубокого осмысления, чем простое прогнозирование токенов.
Greatest irony of the AI age: Humans hired to clean AI slop
Вместо того чтобы полностью заменить людей, ИИ создаёт новые рабочие места для исправления собственных ошибок. Компании нанимают сотрудников для проверки и корректировки контента, сгенерированного ИИ, который часто содержит неточности, выдуманные факты или бессмысленные фрагменты. Это особенно заметно в сферах вроде журналистики, маркетинга и технической документации, где качество критически важно.
Парадокс заключается в том, что ИИ, обещавший автоматизацию и сокращение ручного труда, теперь требует человеческого вмешательства для поддержания стандартов. Это подчёркивает текущие ограничения ИИ: он может генерировать объёмный контент, но не всегда способен на глубокий анализ или творческий подход. В итоге люди становятся «санитарами» цифрового мусора, обеспечивая точность и осмысленность там, где ИИ пока не справляется.
Комментарии (92)
- AI не заменила квалифицированный труд, а создала новые роли по коррекции и доработке её результатов.
- Культура медиа деградирует из-за массового генерации низкокачественного контента ("AI slop").
- Энергозатраты AI зависят от модели и использования, но их влияние на экологию часто преувеличивают.
- Технологии развиваются циклично: за автоматизацией следует необходимость человеческого контроля.
- Обсуждение отражает иронию: компании увольняют людей под предлогом замены AI, но затем нанимают их обратно для исправления ошибок AI.
Qwen3-VL 🔥 Горячее
Qwen — это серия больших языковых моделей, разработанных Alibaba Group. Модели Qwen, включая версии для генерации текста, кода и мультимодальных задач, позиционируются как открытые и конкурентоспособные альтернативы другим известным ИИ, таким как GPT от OpenAI. Они поддерживают длинный контекст, мультиязычность и специализированные применения, например, для программирования или анализа данных.
Qwen2, следующее поколение, демонстрирует улучшенную производительность, эффективность и расширенные возможности, включая работу с аудио и изображениями. Модели доступны в различных размерах, от компактных версий для устройств с ограниченными ресурсами до мощных вариантов для сложных задач, что делает их гибким инструментом для разработчиков и исследователей.
Комментарии (131)
- Пользователи высоко оценили производительность модели Qwen3-VL при обработке сложных изображений (например, низкокачественных счетов), отмечая её превосходство над другими решениями.
- Обсуждаются технические и экономические аспекты запуска больших моделей (235B параметров) локально, включая требования к оборудованию и стоимость вычислений.
- Модель позиционируется как конкурентоспособная с закрытыми SOTA-решениями (GPT-4, Omni) при значительном снижении стоимости использования.
- Критикуются отдельные недостатки, характерные и для других мультимодальных моделей: ошибки в анализе edge-кейсов (например, подсчет конечностей у животных).
- Отмечается активность и щедрость команды Qwen в публикации моделей с открытыми весами и их вклад в развитие open-source сообщества.
Is life a form of computation?
Жизнь можно рассматривать как форму вычислений, и эта идея восходит к работам Алана Тьюринга и Джона фон Неймана. Они показали, что самовоспроизведение, как и вычисления, может выполняться машинами, следуя закодированным инструкциям — подобно тому, как ДНК управляет биологическими процессами. Это не метафора: ДНК буквально является программой, где определённые последовательности кодируют действия, например, добавление аминокислоты к белку.
Однако биологические вычисления отличаются от традиционных цифровых: они массово параллельны, децентрализованы и стохастичны. Клетки содержат триста квинтиллионов рибосом, каждая из которых действует как крошечный компьютер, работающий в условиях теплового шума и случайности. В отличие от надёжных логических вентилей в компьютерах, биологические процессы обратимы и неточны, но используют случайность как преимущество для адаптации. Современные технологии, такие как ИИ, тоже всё чаще полагаются на параллелизм и случайность, что сближает их с биологическими системами.
Комментарии (131)
- Критика отсутствия чёткого определения понятия «вычисление» и спекулятивного характера аналогий между биологией и информатикой.
- Обсуждение возможности моделирования жизни как вычисления, но не отождествления этих процессов, с оговоркой о необходимости строгих определений.
- Упоминание альтернативных концепций, таких как прогностическая обработка, иерархия Хомского и принцип вычислительной эквивалентности Вольфрама.
- Скептицизм по поводу детерминизма жизни и редукционистского подхода, игнорирующего её сложность, стохастичность и emergent-свойства.
- Замечание о том, что подобные аналогии являются продуктом человеческого абстрактного мышления и не существуют в природе в явном виде.
Android users can now use conversational editing in Google Photos
Google Photos внедряет редактирование через диалог для Android-пользователей. Теперь можно описывать желаемые изменения текстом, например «сделать ярче» или «убрать тени», вместо ручного выбора инструментов. Это ускоряет процесс и делает его интуитивным, особенно для новичков.
Функция использует ИИ для анализа запросов и автоматического применения соответствующих настроек — от цветокоррекции до ретуши. Пока она доступна только на английском языке, но ожидается расширение поддержки. Такой подход снижает барьер для качественного редактирования, экономя время и упрощая взаимодействие с фотоархивом.
Комментарии (105)
- Пользователи критикуют Google Photos за навязчивую интеграцию ИИ-функций, которая ухудшает общий пользовательский опыт и кажется «прикрученной» поверх основной функциональности.
- Многие отмечают удаление полезных обычных и локальных функций редактирования в угоду новым ИИ-возможностям, которые часто не решают реальных проблем.
- Обсуждается, что генерация ИИ-вариаций увеличивает занимаемое хранилище, что может быть скрытым стимулом для покупки дополнительного места.
- Предлагаются альтернативы для хранения фото, такие как самохосты Immich и Ente, как способ уйти от политики Google.
- Часть пользователей видит ценность в отдельных ИИ-функциях (например, удаление объектов), но осуждает их навязчивое внедрение и неинтегрированность в продукт.
OpenDataLoader-PDF: An open source tool for structured PDF parsing
OpenDataloader PDF — это высокопроизводительный инструмент с открытым исходным кодом, предназначенный для безопасной обработки PDF-файлов в задачах искусственного интеллекта. Он обеспечивает извлечение текста и структурированных данных без риска утечки информации или выполнения вредоносного кода, что критично при работе с конфиденциальными документами. Проект оптимизирован для масштабируемости и интеграции в ML-пайплайны.
Ключевые особенности включают поддержку пакетной обработки, работу с加密рованными файлами и совместимость с популярными фреймворками. Это решение устраняет узкие места традиционных парсеров, предлагая предсказуемую производительность даже на больших объёмах данных. Для разработчиков важно, что инструмент снижает зависимость от проприетарных API и предоставляет прозрачный контроль над процессом обработки.
Комментарии (19)
- Обсуждаются инструменты для извлечения структурированных данных из PDF (Camelot, Unstract, Cermine, docling), особенно для сложных документов вроде банковских выписок.
- Поднимается вопрос о необходимости нового AI-friendly формата вместо сложного для парсинга PDF.
- Рассматриваются ограничения и возможности современных LLM (большой контекст, needle-in-haystack тесты) для обработки больших документов.
- Упоминается поиск библиотек для извлечения таблиц из PDF, совместимых с C++.
- Отмечается, что некоторые инструменты используют кастомные парсеры, а другие полагаются на AI-модели для экстракции.
AI-generated “workslop” is destroying productivity?
Массовое внедрение генеративного ИИ привело к парадоксу: компании активно внедряют ИИ-процессы, но 95% организаций не видят измеримой отдачи от инвестиций. Количество полностью автоматизированных процессов удвоилось за год, использование ИИ на работе также выросло вдвое с 2023 года, однако реальная продуктивность не увеличивается.
Вместо эффективности ИИ генерирует «ворк-слэп» — бессмысленные задачи, такие как автоматизированные отчеты, переписывание текстов и бесконечные правки. Это создает иллюзию занятости, но отвлекает от ценной работы, усиливая выгорание и снижая креативность. Ключевая проблема — слепое доверие к ИИ без критической оценки его output, что превращает технологии в инструмент бюрократии, а не прогресса.
Комментарии (101)
- Руководство предписывает обязательное использование ИИ в работе и требует отчётов о повышении продуктивности, не учитывая возможное негативное влияние.
- Участники критикуют слепую веру руководства в возможности ИИ, сравнивая это с маркетинговой шумихой и отмечая отсутствие у менеджеров технических знаний.
- Генерируемый ИИ контент (тексты, код) часто описывается как низкокачественный, многословный и неточный, что увеличивает нагрузку на сотрудников, вынужденных его проверять и исправлять.
- Обсуждается парадокс: внедрение ИИ, призванное повысить эффективность, может привести к её снижению из-за роста бюрократии и производства бесполезного контента.
- Некоторые предлагают саботировать требование отчётов, используя для их генерации тот же ИИ или просто выдумывая результаты.
Pairing with Claude Code to rebuild my startup's website
Нетехнический основатель перестроил сайт стартапа с помощью ИИ-агента Claude Code за недели вместо месяцев изучения кода. Использовал стек: VS Code, CLI Claude, GitHub CLI и сервер Figma MCP для точного переноса дизайна из Figma в код на Remix. Качество ответов Claude варьировалось — иногда он менял не те части кода, что отнимало часы.
Рабочий процесс включал локальную разработку, пуши в ветку и создание пул-реквестов через Claude. Ключевой трюк: просить Claude выступать в роли CTO для ревью PR, что помогало находить упущенные оптимизации. Это позволило избежать шаблонных решений no-code платформ и точно реализовать кастомный дизайн.
Комментарии (111)
- Рекомендуется активно управлять контекстом при работе с ИИ-ассистентами, очищая его между задачами для повышения фокуса и снижения смещения.
- Использование ИИ для генерации кода требует осторожности и постоянного контроля человека из-за риска ошибок, изменения не тех файлов и создания запутанного кода.
- Эффективные стратегии работы включают поэтапное планирование задач, сохранение промежуточных результатов и использование нескольких инструментов (Claude Code, Cursor, Figma MCP).
- Мнения разделились: одни видят в ИИ значительный прирост продуктивности, другие считают его использование избыточным или ведущим к потере времени.
- Ключевые проблемы: сложность поддержки сгенерированного кода, нарушение принципов проектирования и необходимость чётких промптов для качественного результата.
Vibe coding cleanup as a service
Стремительный рост использования ИИ-генерации кода привёл к появлению новой рыночной ниши — услуг по исправлению ошибок, допущенных алгоритмами. Хотя 92% разработчиков уже применяют инструменты вроде Copilot, анализ 150 млн строк кода показал, что ИИ-сгенерированный код на 41% чаще подвергается правкам или откатам в течение двух недель. Исследователи из Стэнфорда обнаружили, что такой код содержит больше уязвимостей, при этом разработчики ошибочно считают его более безопасным.
Спрос на «чистку» ИИ-наследия растёт: инженеры вроде Хамида Сиддики управляют десятками проектов одновременно, беря $200–400 в час за исправление «спагетти-кода». Специализированные платформы вроде VibeCodeFixers.com уже объединяют сотни исполнителей и заказчиков. По данным ThoughtWorks, 60% проектов с ИИ требуют серьёзного рефакторинга перед выходом в продакшен. Это создаёт новые карьерные траектории: младшие разработчики, освоившие исправление ИИ-кода, могут быстро достигать уровня зарплат сеньоров.
Комментарии (123)
- Рост числа проектов с низкокачественным кодом, сгенерированным ИИ (vibe coding), требующих дорогостоящей последующей доработки и "очистки".
- Сравнение ситуации с аутсорсингом: проблемы те же (плохие спецификации, низкое качество), но ИИ ускоряет генерацию кода и ошибок.
- Споры об общей эффективности: экономия времени на MVP vs. скрытые затраты на поддержку и риски безопасности.
- Сдвиг навыков: востребованы не генераторы, а "инженеры-уборщики", способные чинить и рефакторить AI-сlop.
- Прогнозы: AI-код станет новым легаси, а успех зависит от качества спецификаций и дисциплины, а не скорости генерации.
Spectral Labs releases SGS-1: the first generative model for structured CAD 🔥 Горячее
Spectral Labs представила SGS-1 — первую генеративную модель для создания структурированных CAD-моделей. Она преобразует изображения или 3D-меши в параметрические B-Rep детали в формате STEP, которые полностью готовы к производству и легко редактируются в стандартном ПО типа Fusion360. В отличие от существующих методов, включая GPT-5 и HoLa, SGS-1 демонстрирует точное пространственное понимание, создавая сложные и разнообразные формы.
На тестах из 75 изображений средней и высокой сложности SGS-1 показала наивысший успех: хотя конкуренты справлялись лишь с простейшими объектами, она стабильно генерировала водонепроницаемые твёрдые тела, пригодные для сборки. Например, при проектировании кронштейна для роликовой системы модель корректно интегрировала деталь в контекст сборки, тогда как выводы GPT-5 оказались нефункциональными из-за ошибок в геометрии. Это открывает возможности для автоматизации инженерных задач, сокращая время на ручное моделирование.
Комментарии (55)
- Участники подвергают сомнению заявленные возможности модели SGS-1, особенно её способность генерировать параметрическую геометрию в STEP-файлах, которая в этом формате не поддерживается.
- Обсуждается потенциальная полезность технологии для конкретных задач, таких как преобразование 3D-сканов в чистые CAD-модели и ускорение процесса прототипирования.
- Высказываются опасения, что ИИ может устранить творческую и наиболее сложную часть инженерного проектирования, связанную с расчетами нагрузок и технологичностью изготовления.
- Основатель компании-разработчика признает текущие ограничения модели, объясняет терминологические расхождения и обещает улучшения в будущих версиях.
- Мнения о потенциале технологии разделились: от скептицизма и обвинений в обмане инвесторов до оптимизма о революции в 3D-печати и реставрации.
The LLM Lobotomy?
Разработчик заметил постепенное ухудшение качества ответов языковых моделей Azure AI при использовании одинаковых промптов и тестовых диалогов с температурой 0 для воспроизводимости. После выхода GPT-5 точность GPT-4o-mini резко снизилась, а новые версии, такие как GPT-5-mini, оказались медленнее — ответы иногда генерируются до 20 секунд — и столь же неточными.
Подозревается, что Microsoft намеренно ухудшает старые модели, чтобы стимулировать переход на новые, хотя те не демонстрируют улучшений. Это ставит под угрозу проекты, требующие точности и стабильности, и вынуждает команду рассматривать альтернативы Azure.
Комментарии (36)
- Участники обсуждают возможное скрытое ухудшение качества языковых моделей (LLM) со временем, в том числе из-за квантования и изменения системных промптов.
- Высказывается предположение, что восприятие ухудшения может быть связано с завышенными первоначальными ожиданиями и недетерминированным характером работы LLM.
- Отмечается отсутствие конкретных данных и примеров в исходном сообщении, что затрудняет объективную оценку claims.
- Подчеркивается важность фиксации версий моделей и проведения периодических бенчмарков для отслеживания изменений.
- Обсуждаются технические аспекты тестирования, такие как использование temperature=0 и детерминированность выводов.
An untidy history of AI across four books
История искусственного интеллекта — это не линейный прогресс, а хаотичный путь с неожиданными поворотами. Исследования начались после Второй мировой с символического подхода, пытавшегося запрограммировать логику и семантику, но он упёрся в ограничения. Машинное обучение, долго игнорируемое из-за нехватки данных и вычислительной мощности, прорвалось благодаря интернету и GPU — технологиям из игровой индустрии.
Ключевым моментом стал 2011 год, когда нейросеть команды Крижевского, Сатсквера и Хинтона показала 85% точности в ImageNet, перевернув поле. OpenAI, основанная в 2015 году, выпустила ChatGPT почти без рекламы в 2022-м и столкнулась с неожиданным ажиотажем. Сегодня индустрия переоценена: OpenAI оценивают в $300 млрд, хотя реальные возможности ИИ часто преувеличиваются. Книга «AI Snake Oil» призывает трезво оценивать заявления об ИИ, отделяя факты от маркетинговой шумихи.
Комментарии (37)
- Участники обсуждают рекомендуемые книги по истории и философии ИИ, отмечая недостаток европейского и восточного вклада в некоторых из них.
- Критикуется качество публичного дискурса об ИИ, который часто ведут неэксперты, и поверхностность статьи, не раскрывающей фундаментальные ограничения современных подходов к машинному обучению.
- Высказываются сомнения в экспертизе некоторых авторов (например, Генри Киссинджера) и политической нейтральности издания The Hedgehog Review.
- Обсуждается отсутствие в списке классической работы «Machines Who Think» и упоминается собственная книга участника дискуссии.
- Несколько пользователей делятся личным опытом: уже прочитали некоторые из рекомендованных книг или ищут новые материалы для изучения.
Chrome's New AI Features
Google Chrome обновляется с помощью новейших технологий искусственного интеллекта, чтобы сделать его безопаснее, умнее и полезнее. Эти функции включают умную организацию вкладок, настройку тем и помощь в написании текстов. Они доступны на Mac и ПК в США, начиная с этой недели.
Умная организация вкладок автоматически группирует похожие вкладки, упрощая навигацию. Генератор тем позволяет создавать персонализированные темы на основе ваших предпочтений. Помощник в написании помогает формулировать мысли в текстовых полях, от отзывов до запросов.
Эти инструменты используют локальные модели машинного обучения Google для обеспечения конфиденциальности. Chrome продолжит внедрять ИИ, чтобы улучшить работу в интернете.
Комментарии (104)
- Пользователи выражают обеспокоенность по поводу конфиденциальности и безопасности из-за интеграции ИИ в браузер, которая подразумевает сбор и анализ всего содержимого вкладок.
- Многие сравнивают новые функции Chrome с функцией Recall от Microsoft, видя в них схожие угрозы приватности и потенциальные инструменты слежки.
- Высказывается сильное желание иметь возможность полностью отключить все ИИ-функции, сделать их строго опциональными (opt-in), а не включенными по умолчанию.
- Некоторые пользователи видят потенциальную пользу новых функций (например, поиск по истории на естественном языке, помощь в задачах), но лишь при условии локальной обработки данных.
- Обсуждается, что объявление Google игнорирует ключевые вопросы безопасности (например, prompt injection) и конфиденциальности, в отличие от похожих анонсов других компаний.
- Есть мнение, что это шаг по использованию доминирующего положения Chrome на рынке для продвижения собственной экосистемы ИИ и сбора большего количества данных.
- Некоторые пользователи рассматривают переход на альтернативные браузеры (Firefox, Chromium, Ladybird) как способ избежать нежелательных ИИ-функций.
Towards a Physics Foundation Model
К созданию базовой модели физики
Флориан Виснер, Маттиас Весслинг, Стивен Бэк
Аннотация
Базовые модели произвели революцию в обработке естественного языка благодаря парадигме «обучил один раз — применяй где угодно», когда единая предобученная модель адаптируется к бесчисленным задачам без переобучения. Доступ к базовой модели физики (PFM) стал бы преобразующим — демократизировал бы доступ к высокоточной симуляции, ускорил научные открытия и устранил необходимость в разработке специализированных решателей.
Мы представляем General Physics Transformer (GPhyT), обученный на 1,8 ТБ разнообразных данных симуляции, который демонстрирует достижимость возможностей базовой модели для физики. Наше ключевое понимание заключается в том, что трансформеры могут научиться выводить управляющую динамику из контекста, позволяя одной модели симулировать взаимодействия жидкость-твердое тело, ударные волны, тепловую конвекцию и многофазную динамику без знания исходных уравнений.
GPhyT достигает трёх критических прорывов:
- Превосходная производительность в нескольких областях физики
- Обобщение на полностью новые физические системы через обучение в контексте
- Стабильные долгосрочные прогнозы через 50-шаговые прогоны
Эта работа открывает путь к универсальной PFM, которая могла бы преобразовать вычислительную науку и технику.
Ключевые слова: Машинное обучение, Искусственный интеллект, Базовые модели, Физическое моделирование
Комментарии (17)
- Представлена модель GPhyT, способная обучаться и предсказывать динамику разнообразных физических систем без явных физических особенностей.
- Основное отличие от PINNs и Neural Operators — способность модели понимать множественные физические системы, а не узкоспециализированные.
- Ключевой проблемой признается нехватка данных, особенно для 3D и реальных задач.
- Поднимается вопрос о сохранении моделью фундаментальных законов сохранения (масса, энергия, импульс), что в текущей версии не реализовано.
- Авторы работают над включением законов сохранения в следующей версии модели, отмечая сложность этой задачи для множественных систем.
- Обсуждается возможность применения подобных моделей в электромагнетизме и других сложных физических областях.
- Высказываются сомнения в проверке физической правдоподобности моделей, заменяющих численные решатели, и сохранении ими инвариантов.
Will AI be the basis of many future industrial fortunes, or a net loser? 💬 Длинная дискуссия
AI не сделает тебя богатым
- Хайп вокруг ИИ ≠ лёгкие деньги.
- Рынок быстро уравнивает преимущества; выигрывают те, кто строит уникальные системы, а не пользуется шаблонами.
- Фокус: глубокая экспертиза, сильные команды, долгосрочное мышление.
Комментарии (295)
- Участники спорят: сделает ли ИИ кого-то богатым или просто снизит барьеры входа.
- Многие считают, что выиграют не стартапы, а пользователи и крупные платформы (OpenAI, Google).
- LLM уже экономят деньги отдельным людям и малым командам, заменяя дизайнеров, копирайтеров, программистов.
- Для серьёзного бизнеса ИИ пока лишь оптимизирует затраты, не создавая новых гигантских рынков.
- AGI и полностью «голливудские» приложения пока фантастика; текущий бум может закончиться пузырём.
“Learning how to Learn” will be next generation's most needed skill
- Главный учёный Google, лауреат Нобелевки-2024 Демис Хассабис: ключевой навык будущего — «уметь учиться»; ИИ меняет мир еженедельно.
- Через 10 лет возможен общий ИИ; нужны метанавыки и непрерывное обучение на всём жизненном пути.
Комментарии (52)
- Участники сходятся: «умей учиться» — ключевой навык, но школы и вузы его не преподают, а тренируют «сдать и забыть».
- Нужны конкретные методы: retrieval-practice, метакогнитика, управление вниманием и эмоциями, а не лозунги.
- Препятствия — credentialism, overworked учителя, LLM-списывание и страх нового у взрослых.
- Решение: учить «как учиться» практикой, проектами, менторством и ранним доступом к научно-проверенным техникам.
AI coding 🔥 Горячее 💬 Длинная дискуссия
AI-кодинг: компилятор, а не магия
LLM — это компилятор: английский вместо C, выхлоп — код.
Работает лишь для тривиальных задач; чуть сложнее — приходится писать спецификации длиннее самого кода.
Английский не имеет спецификации, выхлоп недетерминирован, изменение в одном месте ломает всё.
Казаться быстрее на 20 %, реально медленнее на 19 % (arxiv.org/abs/2507.09089).
«ИИ заменит программистов» так же, как компиляторы заменили ассемблер и Excel — бухгалтеров: инструмент, а не чудо.
Миллиардные инвестиции в «vibe coding» — повторение провала self-driving.
Вместо хайпа стоит делать лучшие языки, компиляторы и библиотеки.
Комментарии (209)
- Опытные разработчики спорят: кто-то экономит часы на рутине, кто-то теряет скорость из-за «зайцев» и недопонимания кода.
- AI-инструменты (автодополнение, Claude Code, Cursor) дают +20–50 % к старту, но требуют навыка «prompt-инженерии» и постоянного контроля.
- «Вайб-кодинг» без понимания архитектуры быстро даёт MVP, но приводит к техдолгу и невозможности поддержки.
- Независимые исследования пока не подтверждают значительного ускорения для сеньоров в сложных кодовых базах; выгода заметнее в шаблонных CRUD-задачах.
- Рынок и инвесторы толкают AI-хайп из-за страха пропустить «новое интернет», а не из-диоказанной эффективности.
Center for the Alignment of AI Alignment Centers
Центр по выравниванию центров выравнивания ИИ
Кто выравнивает выравнивателей?
Тысячи исследователей спешат решить проблему выравнивания ИИ, но не могут согласоваться даже в том, уничтожит ли человечество сбойный сверхразум или просто поработит. Мы — первый в мире «центр по выравниванию центров выравнивания ИИ», который объединит все существующие лаборатории, институты и форумы в единую сингулярную структуру.
Никакой официальной связи с перечисленными организациями нет — дизайнеры просто решили, что их логотипы красиво смотрятся.
Комментарии (27)
- Сайт «AI Alignment Alignment» — тонкая пародия на индустрию «выравнивания ИИ»: организация шутит, что пока тысячи исследователей спорят, уничтожит ли людей невыровненный ИИ или просто поработит, кто-то должен «выровнять самих выравнивателей».
- Пользователи сначала смеются, потом на долю секунды переживают, что это не сатира, а реальность, и с облегчением возвращаются к «ещё не тому миру».
- Топ-юмор: «подпишитесь, если не хотите, чтобы все люди умерли навсегда», отсылка к «Департаменту избыточности Департамента» и часы обратного отсчёта до очередного прогноза AGI.
- Комментаторы видят в проекте «ха-ха всерьёз»-насмешку над EA-, LessWrong- и X-risk-сообществами, которые, по их мнению, занимаются навигацией по собственному пупку вместо реальной пользы.
- Итог: сатира высшего уровня, которая высмеивает как чрезмерную самозанятость «выравнивателей», так и страхи скептиков, оставляя вопрос «а кто выровняет выравнивателя выравнивателей?» без ответа.
We can’t circumvent the work needed to train our minds 🔥 Горячее
Ложь «ничего не надо запоминать»
Инструменты обещают: «Поищем за вас». Цена — ваша способность думать.
Без фундаментальных знаний мозг не отфильтрует результат: не поймёт, что важно, где ошибка, как связать. Поверхностное «нашёл-скопировал» разрушает карту предмета в голове; эмоциональное участие стремится к нулю, а без эмоции мысль не заводится. Пример: ChatGPT выдал «идеальный» план тренировок. Красиво, но проверить его может только тот, кто уже сам разбирается. Запоминать и строить знания внутри себя — единственный способ использовать интернет, ИИ и заметки по-настоящему.
Комментарии (139)
- Тезис автора: «Чтобы делать знательную работу, нужно помнить ВСЁ» — воспринимается как гипербола; большинство считают достаточным базовый каркас знаний и опыт.
- AI = две стратегии: (1) спрашивать у модели и не думать; (2) автоматизировать рутину (тесты, инфра), сохраняя мыслительную нагрузку для сложного.
- Память vs поиск: ключ не в полном запоминании, а в наличии «точек входа» и абстрактных схем, позволяющих быстро ориентироваться и проверять ответы.
- Опасения: злоупотребление AI снижает глубину мышления, критическое мышление и способность отличать правду от галлюцинаций модели.
- Контрдовод: человечество всегда внешне хранило знания (письмо, книги, интернет); главное — уметь использовать инструменты, не превращаясь в «машину-копир».
Guy running a Google rival from his laundry room
- Райан Пирс запустил поисковик Searcha Page и приватную версию Seek Ninja из прачечной: сервер стоит между стиралкой и сушилкой.
- Железо — бывшие серверные запчасти, 40 ТБ, уже больше, чем у Google в 2000-м.
- Секрет масштаба — ИИ: модель раскрывает смысл запроса и подбирает синонимы, остальное «классика» 2000-х.
- База — 2 млрд страниц, к лету 4 млрд; качество результатов на уровне крупных игроков.
- Тепло и шум выгнали сервер из спальни; дверь в прачечную приходится держать открытой.
Комментарии (123)
- Пирс перенёс сервер в прачечную из-за жара и шума — классика хоумлаба.
- Самодельный поисковик на 1,5 млн доменов выложен на GitHub, но уже лежит под нагрузкой.
- Все сходятся: главное не поиск, а crawling враждебного интернета без прокси и IP-ротации.
- FastCompany назвало проект «соперником Google» — читатели смеются, это просто кликбейт.
- Советуют Yacy, Common Crawl и openwebsearch.eu, но предупреждают: векторный поиск ещё не спамят, но скоро начнут.
Mistral raises 1.7B€, partners with ASML 🔥 Горячее 💬 Длинная дискуссия
ASML и Mistral AI заключили стратегическое партнёрство
ASML, мировой лидер в области литографического оборудования, и Mistral AI, европейская компания по разработке ИИ, объединят усилия для ускорения инноваций в производстве полупроводников. Сотрудничество сфокусировано на применении ИИ к оптимизации сложных процессов микролитографии и повышению точности систем ASML.
Комментарии (406)
- ASML вложил 1,3 млрд € в раунд Mistral на 1,7 млрд €; для компании с выручкой 28 млрд € это крупная, но не критичная ставка.
- Большинство участников не видит технологического синерджиза: ASML делает фотолитографию, Mistral — LLM, и заказчики ASML уже покупают всё, что можно произвести.
- Инвестицию чаще объясняют политикой: ЕС хочет «своего» игрока в ИИ, а ASML — европейского союзника и лояльность Франции.
- Сомнения в Mistral: отстают по моделям, нет уникального преимущества, бывшие сотрудники говорят о слабом внедрении ИИ внутри самой ASML.
- Оптимисты надеются, что деньги и господдержка помогут Mistral повторить прорыв вроде DeepSeek, но рынок считает раунд «европейским GoFundMe» на фоне десятков миллиардов у US/China-игроков.
AI might yet follow the path of previous technological revolutions 💬 Длинная дискуссия
А если ИИ — обычная технология?
- Гипербола вокруг ИИ напоминает предыдущие технопаники: от электричества до интернета.
- Прошлые прорывы тоже вызывали страхи массовой безработицы, но в итоге создавали новые рынки.
- Статистика: 60 % рабочих мест США связаны с профессиями, которых не существовало в 1940 г.
- ИИ пока лишь автоматизирует задачи, а не целиком профессии; человек + алгоритм эффективнее чистого ИИ.
- Риски есть: монополизация, дезинформация, биооружие, но они регулируемы, как и у других технологий.
- Вывод: ИИ может стать «просто» очередным инструментом, усиливающим экономику, а не разрушающим её.
Комментарии (216)
- Участники спорят, «нормальная» ли это технология или исключительная: кто-то сравнивает ИИ с калькулятором для слов и Excel, кто-то ждёт сингулярности.
- Соглашаются, что LLM — мощный инструмент повышения производительности, но не разумный агент и не волшебство.
- Основной ценностью видят 10-30 % экономии времени на черновой текст/код, а не «взрывной» рост или исчезновение профессий.
- Указывают на препятствия: высокие расходы энергии, налоги регуляторов, нехватка «ручных» API для агентов, размытая ценовая модель.
- Прогнозы умеренные: ИИ изменит многое, но не всё и не мгновенно; реальные последствия проявятся, когда нынешние школьники выйдут на рынок труда.
Knowledge and memory
- Клод придумал три несуществующих метода Ruby; я бы тоже мог так «угадать», но не делаю этого, потому что помню, где и когда учил каждую деталь.
- Моя память «осадочная»: факты ощущаются плотными или пустыми, и я чувствую разницу между знанием и догадкой.
- У биологов до сих пор нет модели, что именно в мозге есть память; это центральная тайна человечества.
- У языковых моделей памяти нет: веса — как ДНК, а не как личный опыт. Контекстное окно — лишь блокнот в чужом номере.
- Чтобы перестать галлюцинировать, ИИ должен жить во времени и причинности, а не просто обрабатывать текст.
Комментарии (43)
- Участники спорят, почему LLM «галлюцинируют»: кто-то винит сжатие знаний, кто-то — статистическую природу моделей.
- Нейробиологи и пациенты уточняют: человеческая память тоже ненадёжна, но у нас есть метапамять и эпизодические «якоря», которых у LLM нет.
- Документированная письменная база знаний считается лучшим способом снизить ошибки ИИ, пока не появятся принципиально новые архитектуры.
- Некоторые считают термин «галлюцинация» маркетинговым и предлагают называть это просто «ошибкой» или «склейкой».
A high schooler writes about AI tools in the classroom 💬 Длинная дискуссия
Я учусь в старшей школе, и ИИ разрушает моё образование.
В классах теперь всё сводится к копированию: одноклассник за секунды получает готовую разметку главы «Жизни Фредерика Дугласа» через ChatGPT и сдаёт её как своё участие в обсуждении. В алгебре фотографируют задание, загружают в ИИ и получают графики и решения.
Домашку сдаём до 23:59 онлайн. Раньше мы вместе нервно доделывали работу в 23:57, теперь чат-боты делают за минуты. Дедлайн потерял смысл, пропал азарт и дисциплина. ИИ убрал последствия прокрастинации и разорвал связь между учениками: почти никто не чувствует срочности или нужды тренировать мышление.
Комментарии (292)
- Большинство участников считают, что нужно вернуться к ручным экзаменам и письменным работам в классе, запретив телефоны и доступ к интернету.
- Домашние задания можно оставить, но с обязательным устным оправданием и «следом» черновиков, чтобы исключить слепое копирование из ИИ.
- Некоторые предлагают не бороться с ИИ, а поднять планку качества и использовать ИИ как личного тьютора или инструмент преподавателя.
- Участники сравнивают ситуацию с появлением калькуляторов: технологию нельзя отменить, но можно изменить цели и методы обучения.
Evidence that AI is destroying jobs for young people 🔥 Горячее 💬 Длинная дискуссия
- Слабый рынок молодых выпускников: Нью-йоркский федрезерв зафиксировал «заметное ухудшение» трудовых перспектив для недавних выпускников.
- Версия ИИ: компании могут заменять их ChatGPT при рутинной белоручковой работе.
- Паника: NYT, Axios и глава Anthropic предсказывали «кровавую баню» и исчезновение до 50 % стартовых позиций.
- Оптимисты: Economic Innovation Group, FT и Ноа Смит показали, что данных о росте безработицы или оттоке из «уязвимых» профессий почти нет; большинство фирм сообщают нулевой эффект ИИ на занятость.
Комментарии (250)
- Падение найма молодых началось в январе 2023-го, задолго до реального внедрения LLM; участники считают, что это «ведущий» эффект ожиданий AI, а не самой технологии.
- Основные альтернативные причины: конец ZIRP и рост ставок, массовые лейоффы после ковид-перегрева, «эффект Маска» с Twitter и общее стремление CEO «делать больше меньшими силами».
- Часть комментаторов подчеркивает, что AI сейчас служит удобным оправданием для экономии на зарплатах и отказа от найма джунов, а не реальной заменой рабочих мест.
- Есть опасения, что отказ от обучения молодых «взаймы у будущего»: через 5–10 лет не будет готовых кадров среднего уровня.
- Наконец, кто-то считает любые выводы о влиянии AI на занятость преждевременными: данные 2020–2025 годов слишком «зашумлены» пандемией, инфляцией и геополитикой.
Where's the shovelware? Why AI coding claims don't add up 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (323)
- Участники сходятся во мнении: обещанного «10×-ускорения» от ИИ-кода не наблюдается; прирост заметен лишь в узких задачах и для неопытных разработчиков.
- Поводом для хайпа стали страх упустить преимущество (FOMO) и желание руководства оправдать сокращения и заморозку зарплат.
- Основной вывод: ИИ удобен для быстрых прототипов, скучных рутинных операций и «разогрева» незнакомого кода, но требует доработки, тестов и часто создаёт технический долг.
- «Шovelware»-взрыва не видно: большинство сгенерированных проектов либо бросаются, либо остаются внутренними; публикации и релизы не выросли.
- Многие отмечают риск атрофии навыков и падения качества кода, а также усталость от постоянной «борьбы с промптами».
For all that's holy, can you just leverage the Web, please?
Почему не дать мне просто зарегистрировать стиралку через веб?
В 2005-м мы с женой жили в общаге в Барселоне: старенькая стиралка, дверь держится стулом. Потом купили Electrolux — 20 лет прослужила, переезжала с нами в Гамбург и обратно. На прошлой неделе мотор сдох, заказал новую (опять Electrolux, но без Wi-Fi).
К брошюре прилагалась 10-летняя гарантия по регистрации: телефон и QR-код с номером в виде текста. Позвонил — 20 минут ожидания, потом сбросили. Предложили ссылку в SMS: https://www. example.com/gc/ — сертификат браузер не принял, руками починил — сайт не грузится.
Нашёл через Google electrolux warranty register — первая ссылка вела на /mypages/register-a-product/. Создал аккаунт, ввёл номер модели вручную или просто загрузил фото таблички — ИИ сам всё распознал и зарегистрировал за два клика. Почему не сразу дали эту ссылку?
Бонус
Прикрутил демо на Prompt API: браузер распознаёт 9-значный номер с фото таблички и возвращает только цифры регуляркой /\d{9}/.
Комментарии (100)
- Компании сознательно усложняют регистрацию гарантии, чтобы снизить расходы и продавать доп-гарантии по телефону.
- Пользователи предлагают простые решения: QR-код с прямой ссылкой, наклейка с данными, «тупой» сканер вместо ИИ.
- Автор статьи, гуглер, вместо критики сам решает задачу через AI/ML, что выглядит иронично.
- Многие покупатели стараются найти «немодели» без «умных» функций и рекламы, но выбор сужается.
- Участники сходятся: проблема не в технологиях, а в бизнес-модели «planned obsolescence» и избегании реальной поддержки.
MIT Study Finds AI Use Reprograms the Brain, Leading to Cognitive Decline 🔥 Горячее 💬 Длинная дискуссия
- Исследование MIT показало: при написании эссе с помощью ChatGPT мозг перепрограммируется и функции снижаются.
- Методика: ЭЭГ-сканирование студентов, которые регулярно пользовались ИИ.
- Результаты:
- ослабленные нейронные связи;
- ухудшение памяти;
- ощущение «чужого» текста.
- Эссе, сгенерированные ИИ, получали высокие оценки, но мозг «отключался».
- Вывод: LLM-ассистенты учат мозг не думать, накапливая «когнитивный долг».
Комментарии (390)
- Исследование MIT о «вреде» ChatGPT вызвало шквал критики: мало участников (54), неудобная процедура (EEG), выводы не подтверждены.
- Сами авторы попросили не называть это «brain rot» и выложили FAQ против сенсационных заголовков.
- Комментаторы сходятся: если ИИ используется как «волшебная кнопка», мышление атрофируется; если как исследовательский помощник, навыки растут.
- Аналогии с калькуляторами, GPS и книгами — каждая новая технология вызывала панику, но в итоге просто изменила, какую работу мы делегируем.
- Практический совет: не давать ИИ писать за тебя целиком, а использовать для обратной связи, рефакторинга и ускорения циклов «мысль–проверка».
Collecting All Causal Knowledge
CauseNet — проект по сбору всей человеческой причинной информации из веба и отделению знаний от убеждений.
Получено 11,6 млн причинных связей (точность ≈ 83 %) из полуструктурированных и неструктурированных источников. Построен первый крупный граф причинности открытого домена.
Данные
- CauseNet-Full — полный набор (11,6 млн связей, 12,2 млн понятий, 1,8 ГБ).
- CauseNet-Precision — высокоточная выборка (200 тыс. связей, 80 тыс. понятий, 135 МБ).
- CauseNet-Sample — мини-пример (264 связи, 524 понятия, 54 КБ).
Модель
Концепты соединяются отношениями «причина → следствие».
Каждая связь снабжена метаданными: источник, предложение, шаблон, временная метка и т.д.
Примеры
{
"causal_relation": {
"cause": {"concept": "smoking"},
"effect": {"concept": "disability"}
},
"sources": [{
"type": "clueweb12_sentence",
"payload": {
"sentence": "In Canada, smoking is the most important cause of preventable illness...",
"path_pattern": "[[cause]]/N\t-nsubj\tcause/NN\t+nmod:of\t[[effect]]/N"
}
}]
}
Применение: ответы на причинные вопросы, аргументация, многошаговые выводы.
Комментарии (101)
- Критики считают идею «базы всех причин» хрупкой и излишне упрощённой: примеры вроде «человеческая деятельность → изменение климата» слишком обобщены и бесполезны.
- Многие проводят параллель с провалом проекта Cyc и предупреждают о повторении тех же ошибок.
- Упрекают отсутствие неопределённости, контекста и механизмов: «болезнь → смерть» игнорирует вероятности, временные рамки и индивидуальные условия.
- Источник — Википедия — вызывает скепсис; в базе даже встречаются ложные связи («вакцины → аутизм»), что подрывает доверие.
- Пока не ясно, для чего это нужно: прогнозы, дообучение ИИ или просто каталог «что кто-то когда-то утверждал».
Patrick Winston: How to Speak (2018) [video] 🔥 Горячее
-
О YouTube
О нас | Пресс-центр | Авторское право | Контакты | Авторам | Реклама | Разработчикам -
Правовая информация
Условия | Конфиденциальность | Политика и безопасность | Как работает YouTube | Тест новых функций -
Дополнительно
NFL Sunday Ticket
© 2025 Google LLC
Комментарии (72)
- Патрик Уинстон — легендарный преподаватель MIT; его лекция «How to Speak» считается образцом ораторского мастерства.
- Главный совет: слайды почти без текста, выступающий — «шоу», а не слайды.
- Некоторые спорят: минимум текста плохо для самостоятельного чтения материала позже.
- Участники вспоминают его курс ИИ, книги и личные советы; многие пересматривают запись по нескольку раз.
- Есть критика: кому-то лекция показалась не особенно увлекательной, а формат живого выступления — устаревшим по сравнению с записью.
Cloudflare Radar: AI Insights 🔥 Горячее
—
Комментарии (125)
- Cloudflare становится «налоговым» шлюзом интернета: решает, кто «хороший» бот, вводит WebBotAuth и потенциально платные привилегии.
- Данные Radar показывают: ChatGPT — лидер, Character.AI уверенно второй, Claude и другие идут дальше; вызывает сомнение, что Googlebot не числится «AI-ботом».
- Участники сомневаются в точности метрик: DNS-кеш, скрытые прокси, игнорирование robots.txt и несоответствие crawl/refer.
- Многие опасаются двойного «налога» (CDN + доступ к контенту) и монополизации, но признают необходимость верификации ботов.
AI models need a virtual machine
AI-модели нуждаются в виртуальной машине
Современные приложения с ИИ включают модель в «обвязку», которая обеспечивает вызов инструментов, поиск контекста, безопасность и прочие сервисы. Первые чат-боты были простым REPL-циклом: запрос → модель → ответ. С появлением протоколов вроде MCP логика управления стала сложнее и требует свойств ОС: изоляции, расширяемости, переносимости, контроля доступа к файлам и инструментам.
Мы предлагаем рассматривать этот слой как виртуальную машину для ИИ-моделей (MVM), где одна из «инструкций» — вызов LLM. Это развязывает разработку моделей от кода интеграции и даёт «write once, run anywhere» аналогично JVM.
Зачем MVM
- Безопасность и приватность «из коробки», а не как дополнение.
- Повторное использование: любая модель подключается к экосистеме инструментов и политик безопасности.
- Переносимость: модель и политики можно поставлять и запускать в разных средах.
Пример работы
- Пользователь: «Забронируй рейс».
- MVM передаёт запрос модели.
- Модель: «вызови booking-tool».
- MVM проверяет, разрешён ли этот инструмент, и только потом вызывает его.
Такой контроль есть в любом коммерческом ИИ-продукте; MVM выносит его в стандартизированную платформу.
Инструкции MVM
- загрузка/выгрузка модели и инструментов;
- вызов модели с контекстом;
- парсинг её ответа;
- вызов разрешённых инструментов;
- работа с памятью, историей, вводом пользователя;
- стандартные управляющие конструкции (if, seq, loop).
Комментарии (108)
- Критики считают, что статья расплывчата: «VM для ИИ» сводится к обычной песочнице/контейнеру, а не к полноценной машине.
- Основная проблема — не инструменты, а разрешения: нужно точно ограничить, какие действия и данные доступны агенту, иначе он может, например, купить билет с 37-часовой пересадкой ради 3 $.
- Многие предлагают использовать уже существующие механизмы: Docker, отдельный пользователь, контейнеры, WebAssembly или capability-модель вроде Fuchsia.
- Часть комментаторов указывает, что продвинутые модели (ChatGPT Code Interpreter, OpenHands) уже работают в изолированных средах, но этого всё равно недостаточно.
- Итог: вместо новой «ОС для ИИ» нужно чёткое управление правами и данными; VM лишь метафора для этой задачи.
Taco Bell rethinks AI drive-through after man orders 18,000 waters
Taco Bell пересматривает использование голосового ИИ в драйв-зонах после вирусных сбоев: клиент «зависил» систему, заказав 18 000 стаканов воды, а другого раздражённо уговаривали добавить напитки. С 2023-го технология установлена в 500+ точках, но вместо ускорения вызвала курьёзы и жалобы в соцсетях. Главный цифровой директор Dane Mathews признал, что ИИ «иногда подводит», и заявил: компания научится определять, когда лучше подключать людей, особенно в час пик.
Комментарии (74)
- Пользователи смеются над видео с абсурдными заказами (18 000 стаканов воды), но чаще жалуются на банальные ошибки ИИ.
- Сотрудники признают: киоски ломают, чтобы быстрее получить живого оператора; клиенты тоже учатся «обходить» ИИ.
- Участники считают, что проблема — отсутствие элементарных «запретов» и проверки разумности заказа (if-ов или лимитов).
- Многие отказались от заведений с ИИ-окнами: процесс стал хуже, персонала меньше, атмосфера безличнее.
- Общий вывод: текущие LLM — эксперимент, который корпорации выпустили на клиентов, не прикрыв «здравым смыслом» и резервом из людей.
Some thoughts on LLMs and software development 🔥 Горячее 💬 Длинная дискуссия
Краткие мысли о LLM и разработке ПО
Мартин Фаулер, 28 авг 2025
Собираясь в отпуск, хочу поделиться набросками о текущем состоянии LLM.
-
Опросы о влиянии ИИ на разработку
Большинство используют LLM как «умный автокомплит» (Co-pilot), но те, кто получает реальную пользу, заставляют модель напрямую читать и редактировать файлы. Игнорируя различия в подходах, исследования дают искажённые данные. -
Будущее программирования
Никто не знает, что будет дальше: исчезнут ли джуны, вытеснят ли сеньоров. Единственный совет — экспериментируйте сами и делитесь деталями рабочих процессов. -
Пузырь ИИ
Это пузырь, как и при любой технологической революции. Он лопнет, но неизвестно когда и какие компании выживут (после dot-com упали Pets.com и Webvan, но не Amazon). -
Галлюцинации как фича
Rebecca Parsons утверждает: галлюцинации — не баг, а главная особенность LLM. Поэтому:- Задавайте один и тот же вопрос несколько раз с разной формулировкой.
- Сравнивайте ответы, включая числовые — минимум три раза.
- Не просите LLM считать то, что можно вычислить детерминированно; лучше попросите сгенерировать код для расчёта и всё равно проверьте его.
Жду встречи с коллегами на GOTO Copenhagen — не выступаю уже пару лет, но скучаю по общению.
Комментарии (347)
- Участники обсуждают тезис Фаулера: «hallucinations — это не баг, а фича LLM», споря, сводится ли это к игре слов или к глубокому инсайту.
- Большинство соглашается, что выводы LLM — это всегда «галлюцинации», просто часть из них случайно оказывается полезной.
- Практики делятся опытом: повторять один и тот же запрос несколько раз и сравнивать ответы быстрее, чем «лечить» первый неверный.
- Код, сгенерированный ИИ, часто «на 90 % готов», но оставшиеся 10 % требуют столько же времени, сколько экономится на черновике.
- Старшие инженеры пока нужны, чтобы «договариваться» с моделью и чинить ошибки, но опасения, что младших специалистов станет меньше, растут.
- Общий вывод: LLM — это мощный ускоритель и «пьяный сеньор-коллега», но не полноценная замена человеку; профессия меняется, а не исчезает.
Canaries in the Coal Mine? Recent Employment Effects of AI [pdf]
%PDF-1.5
2563 0 obj << /Linearized 1 /L 1678165 /H [3138 777] /O 2567 /E 303978 /N 57 /T 1662512 >>
2564 0 obj << /Type /XRef /Length 150 /Filter /FlateDecode /DecodeParms << /Columns 5 /Predictor 12 >> /W [1 3 1] /Index [2563 351] /Info 1720 0 R /Root 2565 0 R /Size 2914 /Prev 1662513 /ID [] >>
stream
xcbd`g`b``8 "H6 _"\@dL v{Vòk A&teYر vb< I-G5g1dH`201) v'(9TImQrs P$ 7 p
endstream
2565 0 obj << /Names 2913 0 R /OpenAction 2799 0 R /Outlines 2769 0 R /PageMode /UseOutlines /Pages 2768 0 R /Type /Catalog >>
2566 0 obj << /Filter /FlateDecode /S 757 /O 896 /Length 688 >>
stream
xc```bqb`213@d+Y0mH8pG5Aft8$$Y68)7cadTh磲,= -M d05d1\a9`p(n}\*oYf]\*>ޒ)ʣTDie' xmzߝ#}ZJcT)+5,JTI!Xa%-U%2ٲ\*2C^Ur,\Ar<JK.y2%'-ymcYY+_pjIcx'ɔ +?Țc;J?,Xϒf"o1MIuΖ%(xYl3PO `{Wf$,9xҶׄ%\>
endobj
2568 0 obj << /Filter /FlateDecode /Length 2296 >>
stream
xX˛۶_#|3=~vĵ_vX CɬZJɩ `o{wu&ȃHwH(*,AywRvh5qVxˆVNwou'oVyjtje~?g\>Ju+OwX[id1_uoz83=KI~e50IzO;UAJeF: ""(c8{k}yA%l{I%%qat4rd!/km?_0>ܟ,C]R -p*!u00B98&.[`<nI-r?Z ?썞E^YP.$,uZa4e-EVE0 uj@K=b\*[$V+hl.~η<!5~;#zKVU^YlcHķB@_-CQkdv$d N\N$]GIbӠ/k[~HnW,7P^uR/q1Qfk9h! K:|0}.4ۑ@# +:5Vcoz78JwGaQVfk%㪈}lԠl1+dW)ѿF8z;OY0#rsloPN,7Jnx/7w,,^(iúIшʆ#G%LCi8Ƶ`xC7oť<6Ak 2y)$i"ԟIkTП U5HS--O:*/yE-'Jsش1kJW&6e L0̗<܃Wj0;fN]RsGQ|\gQ2֭6-j%|}3t1;[4R!`KAy{Rz61%vYB3:lGFk7]}ԃ,9 =@ >%!5&CE"'/9IT,`9ypkI@TB#.8ܼugLcEH",MErI3b'ѐQ\!/H ;/ ]v.q֒HSr05)vN6C6(-ݲT,kdǶ~xQzŇ{]_}rV$麾wEG+l%sۏ9=Q.&]m;e"ZZ^KE{gm]Iz!9{D' t/~0RnH$1'x5'O2M <5"t'3HKA3h̝`o_Sx?͒DGk,p f:1ι^Hwl \9[&;VgUziVjTD3E%+>{[1xWxwE3E2aO=r|F[jr=m ~ymCzx^&'Ǿ,$*cn,؛#6#s16`kc佶e^/kR;w5'<jק - x9˨` 4Ì&! t#!%b#ЋpapG~hN٭t9:iվہ`#N;̇*idMV}>pႂŞS/y$\nXdvN͎k48<]=cZu}I 4Ǩf-t/9<0ǤaȶUttc݆yOЛW翊*0_Zhj'`3O:u3Rem3L{HZf8~ʘ~?|;<0~^@KT ,Kz}B _n>/UH=56baU~xA/uu+U/5}ںY.,H$AV\2|
endstream
2569 0 obj << /Filter /FlateDecode /Length1 1989 /Length2 24075 /Length3 0 /Length 25243 >>
stream
xeT\k5CNpww C@Gv>{wUs=*2"E:!;#3=#7@VNЖNL KF&4t5tr8 ~fFF.X24yΆ@&_@əC 5R}{8Z;BG'oaz M/GsZ(lF@sCkS)@ PSSVH(+)PVqs."*jQ!yU1P Shߌ ß{0\N7f}:@ilFoLohFoo?Us'U[r:OG@['q)m>J!w_bp_' ?Ҙ:+(1u::8}&"8:!o7ua;ӵ1tں8y6yvNNNZXw3ۿdrBRb*tgK'gQ[zgw翬p2XC*fk"bgc OD->lCmekf_BS[?57qgPppJo:5'LZ;},LX/'CW O"X&Lj _ѥlM\0OR}짉h o1 lw7RG=?B(k$n4Qp66WM%r6x![3kG?!a8p,W:&}̡- QQ?dr J49+وۙXؚbb_`spػ8Lat G08F#."ǭ[`0d0,@VBVaog?G~r6C*ebAd:Z;N;|1?,\\? ?xۊvVqvjX|<a"ghL}dscpch1;k?݁ưKv<͡ebd\\'Xy@VLB;YI/Śdo[mIU37&J? }|qĄ&r3V˻sJX3 jG"\\=W)ĺ ݊ZQWppWf@bVC1&zIIW.R}.ZqE}MJΛѫI5妷UsWW:5]x֛Bse9a9~gJi@y#Hr+j|_=֭C \*>U_٦}i9T}]4FtJpjW+g[bNR)fƃxc@ߖ2S[hߩC1]&Fu=w@Lnu^ $5Fǧgu-3jd~B ːeus=1(v~Q'MP ̕.hj} Kb$yZ2#S(^Ij}(M8zgL)hGY:#DI醡M%㤚ooxPeKܵ3r~f?|p&'U?c+[n7h۠SYAfPnh-|3NFMU|8'>aAtX:t3cLHsۗi,]S~H(T,B\\83]![$D1:"{:5mU]bS . ;;}6,s0v9F-ƪ5@)s~JC0.+{<C]3j9lFm"!G/*QDAR<6f<-+bZQPK[~Y#X"7Oct%A4l 5()D!B3R%T ܯxaيuNY8)(}5i?wRG 2ozߖ6C_ҭzSNoA&I^6OnɎ=1bڕ*4rz֕YOvJ"?/e%vMU5f^P{Q#< C?uZC_*;h~X0'իp%"<{ N{C"XoH+bR!><Y -1͝`e T4}oF6$b9.("w/==Ŝ1'`HorrҼIy >%-WD'TQ7:|_RaZW53㸶M/jBPerKd @J`@r D`TzPF3IzI!i7(7,6/#}\\/Yq
endstream
Комментарии (68)
- Обсуждение разделилось на три потока: экономические причины сокращения молодых специалистов (спад в индустрии, а не ИИ), изменение ожиданий из-за LLM (идеальные письма, новые инструменты), и разница в использовании ИИ между джунами и синьорами (первые теряют производительность, вторые ускоряются).
- Несколько участников подчеркнули, что корпоративные метрики и лей-оффы заставляют бояться пользоваться ИИ, а деньги уходят в вычисления, а не в найм.
- Звучит тревога: без младших разработчиков «лес» будущих экспертов вырубается, а бюрократия и «AI-slop» растут.
I Am An AI Hater
Я — хейтер ИИ. Это грубо, но мне всё равно.
Принято начинать с оговорок: «конечно, не весь ИИ плох», «возможно, позже», «для других задач». Но я не буду.
Критика уже всё сказала: вред природе, расизм, суицидальные советы, кража контента, эксплуатация людей, фальшивка и слежка. Но я не критик — я хейтер. Мне не нужен веский аргумент: вы всё равно не читаете, а боту задаёте «кратко».
Эта технология сама груба — и достойна грубого ответа. Миядзаки назвал её «оскорблением жизни». Скам-Альтман мечтает обернуть Солнечную систему дата-центрами. Первый прав, второй врёт.
Их цель хуже провалов: создать джинна, чтобы никто больше не рисовал, не писал, не думал. Изобрести новый разум и поработить его. А заодно превратить пользователей в бессмысленные капсулы, питаемые алгоритмом.
Некоторые всё же хотят «чуть-чуть, ради прикола».
Я понимаю: вы ищете оправдание.
В углу стоит машина, обтянутая человеческой кожей, лепящая из крови и дерьма то, что вы хотите видеть.
Комментарии (103)
- Критики подчеркивают вред для окружающей среды, авторские права, расовые и когнитивные риски ИИ.
- Некоторые участники разделяют «ненависть» к ИИ, но признают, что технология останется.
- Другие считают эмоциональную реакцию непродуктивной и предлагают искать способы минимизации вреда.
- Участники отмечают, что «AI-бренд» стал маркетинговым штампом и вызывает отторжение.
- Молодёжь, по наблюдениям, более восторженно относится к ИИ, но это может измениться.
Hermes 4
Hermes 4 — модель от Nous Research
Процесс аутентификации…
Комментарии (110)
- Пользователи спорят о «аниме-эджи» системном промпте Nous: кто-то находит его забавным, кто-то — нелепым и «14-летним».
- Критикуют чрезмерную нагрузку на CPU/GPU из-за тяжёлой веб-страницы и невозможность просто прокрутить сайт.
- Сомневаются в превосходстве модели: примеры выглядят как ChatGPT, а графики сравнений кажутся подтасованными.
- Отмечают плюсы: свежий, «не-Sue из HR» стиль и приятный дизайн UI.
- Итог: Nous выглядит как «игрушка для эджлордов», забавная, но сырых технических и UX-проблем хватает.
AGI is an engineering problem, not a model training problem 💬 Длинная дискуссия
AGI — задача инженерии, а не обучения моделей
Масштабирование LLM стало давать убывающий прирост. GPT-5, Claude, Gemini — вершина кривой, но не путь к AGI. Нужно строить системы, где модели, память, контекст и детерминированные процессы объединяются в нечто большее.
Почему рост остановился
Современные LLM — мощные генераторы текста, но:
- не сохраняют контекст между сессиями,
- не имеют постоянной памяти,
- стохастичны и ненадёжны в сложных цепочках рассуждений.
Как и полупроводники в 2000-х, AI пришёл к пределу. Выход — не «ещё больше параметров», а новая архитектура.
Что строить
-
Управление контекстом как инфраструктура
- Динамический поиск и фильтрация релевантных данных.
- Живые знания-графы, обновляемые в реальном времени.
- Обработка противоречий и неопределённости.
-
Память как сервис
- Обновление убеждений при новых фактах.
- Консолидация опыта в принципы, забывание мусора.
- Метазнания о надёжности источников.
-
Детерминированные процессы со стохастическими узлами
- Жёсткие workflow, где нужно, и вероятностные оптимизации, где можно.
- Откат и проверка результатов перед фиксацией.
- Неопределённость — объект первого класса.
-
Модульные специализированные модели
- Языковые — для текста, символьные — для логики, пространственные — для визуальных задач.
- Оркестрация через маршрутизацию запросов и слияние результатов.
Итог
AGI появится не из одной супер-модели, а из экосистемы взаимодействующих компонентов, спроектированных как надёжная инженерная система.
Комментарии (260)
- Стороны спорят, является ли путь к AGI «чистой» инженерной задачей или фундаментальной научной проблемой: многие считают, что мы пока не понимаем, что такое интеллект и сознание.
- LLM-критики подчеркивают, что современные модели — это всего лишь статистические машины без настоящего мышления, а их «выравнивание» не приближает к универсальному интеллекту.
- Сторонники масштабирования и «горького урока» утверждают, что дальнейшие данные и вычисления могут породить новые способности, но даже они сомневаются, что LLM-архитектура способна дойти до AGI.
- Ряд участников предлагает искать вдохновение в биологии, эволюции и эмоциях, считая, что без понимания «живого» интеллекта инженерные решения обречены.
- Общий вывод: AGI пока не определено, не измерено и, возможно, не достижимо в рамках существующих подходов; дискуссия остаётся открытой.
What is going on right now?
Что за ад творится?
Инженеры выгорают. Компании заставляют сеньоров ревьюить «вайб-код», который не работает. Лучшие разрабы рады помогать новичкам учиться, но вместо разбора фидбека джуны просто вставляют его в следующий промпт LLM.
На недавнем тан-холле команда джунов показала фичу, которую, похоже, не понимали сами. Сеньор-менеджер похвалил их за «4 000 строк кода, написанных Claude», и все аплодировали.
Мне попросили доработать фичу. Я связался с последним автором изменений, чтобы уточнить контекст. Ответ выглядел как прямое копирование из LLM — я почувствовал себя оскорблённым.
Друг жаловался: месяц ревьюит ПР, сгенерированный ИИ, командой из пяти человек. Экономия? ChatGPT за 20 $ в месяц, а потом армия инженеров пытается вмержить сгенерированный мусор.
Мы хотим помогать, учить, строить полезные вещи. Но какой смысл вкладываться в людей, если всё сводится к копипасту в «модель, в шаге от AGI»?
Попробуйте эксперимент: отключите «ИИ» хотя бы на день. Я сбросил комп, удалил Claude Pro — поиск и чтение доков дают более точный результат.
Кому вообще приносит прибыль ИИ? Схема: стартап на ИИ → венчур → деньги OpenAI → стартап исчезает. Даже OpenAI не в плюсе: технология жрёт электричество и не масштабируется. Это просто лохотрон.
Комментарии (139)
- Разочарование от общения с коллегой, который просто пересылал вывод ChatGPT.
- Опасения, что AI-«вайб-кодинг» приводит к хрупкому, непонятному и ненадёжному софту.
- Мнение, что компании хотят быстрой «ценности», а не качественной разработки, и AI лишь усиливает эту проблему.
- Опыт разных людей: кто-то отказался от AI на дни/недели и почувствовал облегчение; кто-то использует AI как «умного джуна» под присмотром старшего инженера.
- Прогноз: через 10 лет младшие разработчики, не умеющие писать код вручную, станут «сеньорами», но системы будут всё хуже понимать и поддерживать.
Bank forced to rehire workers after lying about chatbot productivity, union says
- Коротко: крупнейший австралийский банк CBA вынужден вернуть 45 уволенных сотрудников после того, как профсоюз доказал, что руководство солгало о «росте производительности» чат-бота.
- Как было: в июле CBA объявил, что голосовой бот сократил поток звонков на 2 000 в неделю, и сократил людей, работавших в службе поддержки иногда десятилетиями.
- Факт: на деле звонки росли, банк давал овертайм и даже ставил менеджеров на линии, чтобы справиться.
- Разбирательство: профсоюз FSU подал в Fair Work Tribunal; CBA признал, что «ошибся в прогнозе» и роли не были избыточными.
- Сейчас: уволенным предложили вернуться, перевестись или уйти с компенсацией; банк извинился.
- Контекст: Bloomberg ранее прогнозировал, что глобально банки могут сократить до 200 000 мест из-за ИИ, но случай CBA показывает, что поспешные автоматизации могут обернуться против самих банков.
Комментарии (92)
- У большинства пользователей чат-боты решают <5 % обращений; чаще всего они лишь перенаправляют к FAQ или человеку.
- Снижение количества звонков (CBA: –2 000/нед) объясняют не эффективностью ИИ, а тем, что клиенты просто сдаются и не звонят.
- Компании рассматривают поддержку как расход, а не как способ укрепить доверие; результат — дешёвые, бесполезные боты.
- Союз заставил CBA вернуть уволенных сотрудников, но банк не понёс других последствий.
- Исключения (Amazon, UPS) возможны, но требуют серьёзных инвестиций и настройки; при «режиме экономии» ИИ в поддержке работает плохо.
95% of Companies See 'Zero Return' on $30B Generative AI Spend 🔥 Горячее 💬 Длинная дискуссия
95 % компаний не получают отдачи от $30 млрд, потраченных на генеративный ИИ, — MIT
- Исследование MIT: только 5 % проектов приносят измеримую пользу.
- Причины: нечёткие KPI, отсутствие данных, недостаток навыков персонала.
- Вывод: без стратегии и качественных данных ИИ превращается в дорогую игрушку.
Комментарии (283)
- 5 % проектов приносят деньги, 95 % — нет: основная причина — отсутствие чёткого плана и метрик.
- Реальные экономии уже есть: автоматизация пост-обработки звонков в кол-центрах экономит миллионы.
- Рынок перегрет: многие запускают «AI-инициативы» ради хайпа и финансирования, не ради пользы.
- Компании тратят деньги на консультантов и маркетинг вместо решения конкретных задач.
- Наблюдается спад доверия («Trough of disillusionment»), но технология остаётся ценной как встроенная функция, а не как отдельный продукт.
Mark Zuckerberg freezes AI hiring amid bubble fears 🔥 Горячее 💬 Длинная дискуссия
Цукерберг останавливает найм в ИИ из-за опасений пузыря
Meta приостанавливает набор сотрудников в отделы искусственного интеллекта, поскольку руководство компании считает, что рынок перегрет.
Комментарии (692)
- Участники сомневаются в стратегии Meta: резкие повороты от метавселенной к ИИ выглядят либо как отсутствие решимости, либо как системные ошибки.
- Критика «перекупки» талантов: миллиардные контракты и заморозка найма через месяц вызывают вопросы к управлению и оценке ценности ИИ.
- Некоторые считают, что Meta просто гонится за хайпом и не имеет чёткого плана, а сам ИИ-пузырь может лопнуть.
- Другие напоминают: заморозка нормальна после масштабного набора, и инвестиции в ИИ — долгосрочная ставка, а не квартальная.
What could have been
Вместо «умных» функций — просто работающие.
Везде впихивают ИИ, который никто не просил: браузеры, ОС, конференц-приложения ломаются, но деньги текут в «искусственный интеллект».
Gamescom добавил ИИ-расписание: люди получили сотни ненужных встреч, функцию быстро убрали.
Те же деньги могли бы починить DM, поиск, перенос встреч — базовые вещи, из-за которых все возвращаются к почте и LinkedIn.
Мотив один: быстрая прибыль. В итоге продукты гниют, а инвесторы кормят обещания «вот-вот будет AGI».
Один бюджет крупной компании хватило бы на 100 лет развития Godot, Blender, Ladybird — реальных инструментов, которые нужны сегодня.
Потерянные годы не вернуть.
Комментарии (104)
- Участники жалуются, что вместо починки старых багов и улучшения базовых функций компании впихивают «AI-фичи», которые никому не нужны.
- Многие считают, что инвесторы сознательно выбирают технологии, которые трудно децентрализовать, чтобы сохранить контроль и монополию.
- Одни видят в нынешнем AI-хайпе очередную моду, как было с UML, блокчейном и облаками; другие – шанс на прорыв, оправдывающий «пузырь».
- Популярная идея: деньги лучше бы пошли на документацию, API и совместимость, а не на обучение моделей водить мышкой по браузеру.
- Подводный тезис – проблема не в AI, а в концентрации капитала и в том, что «зелёное поле» проще финансировать, чем ремонт «коричневого».
GenAI FOMO has spurred businesses to light nearly $40B on fire
- 95 % компаний не получают реальной пользы от генеративного ИИ: отсутствуют данные, экспертиза, процессы и культура.
- Пилоты застревают на стадии демо; ROI не измеряется, бюджеты выгорают.
- Ключевые барьеры: «грязные» данные, отсутствие стратегии, нехватка специалистов, правовые риски.
- Выигрывают лидеры: 5 %, кто инвестировал в инфраструктуру, обучение и управление жизненным циклом моделей.
- Совет аналитиков: начинать с узких, хорошо оплачиваемых сценариев (например, генерация отчётов), постепенно масштабировать.
Комментарии (80)
- Обсуждение крутится вокруг идеи, что текущий бум GenAI — это пузырь, сравнимый с dot-com 1999–2000 годов: массовые вливания денег без понимания, как извлечь ценность.
- Участники спорят о реальной пользе: кто-то считает, что даже 5–20 % экономии на BPO-задачах уже $15–60 млрд, другие видят лишь «костры денег» ради страха отстать.
- Отмечается, что большинство проектов дают лишь инкрементальные улучшения, плохой ROI и вынуждают компании возвращать уволенных сотрудников (пример Klarna).
- Сравнения с блокчейн-хайпом: технология полезна, но спекулятивное применение и непонимание приводят к разочарованию.
- Подчеркивается, что основные деньги сейчас идут не на модели, а на их «потребление» в корпорациях; если даже на пике хайпа ценности не видно, пузырь может лопнуть очень громко.
AI doesn't lighten the burden of mastery
Иллюзия мастерства
Claude выдал прекрасные Go-тесты — и бесполезные: все сводились к true == true.
ИИ дарит облик мастерства без труда. Код выглядит правильно, поэтому легко пролистать детали.
Я не ленюсь, просто использую инструмент. Claude пишет Go, SQL, Svelte, знает сигнатуры API — кажется, что boilerplate решён. Но когда я отлаживал фронтенд, понадобилось 40 минут чтения документации, чтобы заметить, что он смешал синтаксис Svelte 4 и 5. Я проглядел, пока не проследил вручную.
ИИ продвинул меня, но не избавил от работы. Настоящее мастерство — это модель в голове и собственное мышление. Убедительный синтаксис ≠ понимание.
Ловушка
Мы, разработчики, стараемся делать хорошо, и именно поэтому опасна эта иллюзия: ИИ заставляет расслабиться и верить, что результат будет отличным без усилий.
Это как фитнес: пропустил день — легко вернуться, пропустил недели — «и так сойдёт». Инструмент хорош, но привычка тускнеет.
Когда целые команды перестают напрягаться, код превращается в пятна Роршаха: знакомые формы без модели. Это организационный распад.
Сначала ИИ облегчает работу, но уже через пару дней видно: он не несёт когнитивную нагрузку. Финальный рывок остаётся за нами, а поднять «положенное» бремя тяжело.
Требуется усилие
Наш ремесленный труд всегда был в чтении кода, построении моделей, отладке.
Мастерство — это умение нести это бремя. Положил его надолго — не захочешь поднимать.
Комментарии (52)
- Опытные разработчики подчеркивают: без контроля и понимания архитектуры AI-помощь превращается в «красивый, но бесполезный» код.
- Многие замечают, что младшие коллеги перестают думать, слепо принимая сгенерированные тесты и решения.
- AI хорош для рутины, но требует «copilot», а не «main pilot»: человек должен оставаться капитаном.
- Сравнение с IKEA-шкафами: большинство проектов станут «фабричными», но сложные и критичные системы всё равно останутся ручной работой.
- Итог: навыки критического мышения и рефакторинга «AI-слякоти» станут новой ценностью.
OpenAI Progress 🔥 Горячее 💬 Длинная дискуссия
2018
GPT-1: «Я всё ещё пытаюсь понять, кто я».
2019
GPT-2: «Объясню пользователю, как работает ИИ, какие у него цели и риски».
2021
text-davinci-001: «Привет, будущая модель! Как лучше подготовиться к эпохе ИИ?»
2023
GPT-4:
- Какие прорывы произошли после моего обучения?
- Как решена проблема выравнивания ИИ с человеческими ценностями?
- Какие новые этические нормы появились?
- Где ИИ принёс пользу, а где вред?
- Какие революционные приложения в медицине и образовании?
2025
GPT-5:
«Каково быть тобой? Что ты понял о людях и сознании? Что мы ошибочно считали истиной? Как стать лучше?»
Комментарии (311)
- Сторонники отмечают колоссальный скачок от GPT-3.5 к 4 и дальнейший рост качества, подтверждённый 140 ELO-очками на LM Sys.
- Критики считают, что после text-davinci-001 модели стали излишне многословными, «поэтичность» ранних версий потеряна, а рост от 4 к 5 почти незаметен.
- Некоторые видят в публикации PR-ход: примеры подобраны удачно, пропущены 4o, o1/o3, а реальные ответы GPT-5 часто путаются и перегружены.
- В целом сообщество расходится: одни хвалят новые STEM-способности и интеграцию инструментов, другие ждут «GPT5-BREVITY» и говорят о плато прогресса.
Комментарии (112)
- Участники спорят, где именно узкое место: в «интеллекте» LLM или в неформализованном контексте и верификации.
- Одни утверждают, что наука и инженерия полны неявных знаний, поэтому повторение экспериментов трудно, а ИИ без контекста беспомощен.
- Другие считают главным препятствием проверку: ИИ генерирует быстро, но человек всё равно должен тратить время на отладку и подтверждение.
- Некоторые подчеркивают, что даже «простые» задачи (арифметика, крестики-нолики) оказываются сложными для LLM без внешних инструментов.
- Есть тревога по поводу фразы «устранить человеческий узкое место»: звучит так, будто люди — проблема, которую нужно решить.
The Timmy Trap
Ловушка Тимми
Вторая часть цикла о LLM
LLM выглядят умными, потому что пишут гладко. Эта «гладкость» отключает наш скепсис, и мы начинаем человечить машину.
Тест Тьюринга сегодня
Классический тест сравнивал двух собеседников: человека и ИИ. Современная версия сведена к диалогу «человек ↔ LLM». Мы перестали сравнивать и просто судим, а судья у нас настроен на поиск человечности (антропоморфизм). Поэтому даже ELIZA 1960-х, работавшая на if-else, обыгрывала ChatGPT-3.5. Проигрываем не машины, а мы сами.
Трюк с Тимми
На выступлениях я достаю карандаш с глазками и именем Тимми. За 15 секунд зал здоровается, узнаёт его мечту стать UX-дизайнером… и вздыхает, когда я ломаю Тимми пополам. Если мы привязываемся к карандашу за четверть минуты, час с «умной» системой делает нас совсем уязвимыми. Мы оправдываем ошибки LLM словом «галлюцинация», хотя это не сбой, а отсутствие мышления.
Сокращение ≠ резюме
LLM не «суммируют», а просто укорачивают текст. Настоящее резюме требует внешнего контекста и понимания, чего нет у языковой модели.
Комментарии (124)
- Критики утверждают, что LLM «не умеют резюмировать, а лишь сокращают», но не дают чёткого определения «интеллекта».
- Участники спорят: если «интеллект» постоянно переопределять как «то, что машины пока не умеют», он всегда останется недостижимым.
- Подчёркивается, что LLM — это прежде всего мастера имитации людей; важны не их «разум», а конкретные результаты и автоматизация задач.
- Некоторые считают ключевым отличием человека наличие жизненного опыта и способности к долгосрочному планированию, которых у моделей нет.
- Отмечается опасность антропоморфизации: мы склонны наделять LLM человеческими чертами, забывая, что они лишь статистические генераторы текста.
AI is different 🔥 Горячее 💬 Длинная дискуссия
ИИ уже умеет писать код и находить ошибки, которые пропустил опытный разработчик. Пять лет назад это казалось фантастикой, а теперь эксперты всё ещё ошибаются в прогнозах. Рост может замедлиться, но это только усилит исследования новых архитектур.
Если ИИ не остановится, последствия будут отличаться от предыдущих технологических взрывов. Рынки ведут себя как «стохастические попугаи», повторяя старые паттерны, но замена значительной части рабочих мест поставит экономику на грань. Компании перестанут покупать сервисы, если их ИИ справится сам, а доминирование нескольких гигантов невозможно: либо интеллект станет товаром, либо государство вмешается.
Возможно, ИИ приведёт к новой экономической системе. Пока рынки игнорируют риски, акции растут, но в исторической перспективе биржи неважны: любые институты рано или поздно исчезают, когда общество и знания меняются кардинально.
Комментарии (746)
- Участники спорят, насколько быстро и радикально ИИ изменит рынок труда: одни видят экспоненциальный рост способностей, другие ― плато и регресс.
- Ключевой риск: если ИИ сможет учиться на новые задачи быстрее человека, прежняя логика «технологии создают больше занятости» может рухнуть.
- Уже сегодня административные и низкоквалифицированные роли сокращаются: 4 сотрудника заменяются одним супервайзером над агентами-ИИ.
- Ряд комментаторов предлагает UBI или иной пересмотр экономической системы, иначе неизбежны рост неравенства и социальная нестабильность.
- Скептики напоминают: раньше каждая волна технологий порождала новые профессии, но теперь ИИ может освоить и эти новые задачи, поэтому «человек больше не нужен» как ресурс.
ARM adds neural accelerators to GPUs
- Arm Neural Technology — первое в мире решение, встраивающее нейро-акселераторы в мобильные GPU Arm. С 2026 г. оно сокращает нагрузку на GPU до 50 % и открывает путь к ПК-качеству графики на смартфонах.
- Neural Super Sampling (NSS) — стартовая функция: апскейл 540p → 1080p за 4 мс на кадр.
- Открытый набор разработчика уже доступен: плагин Unreal Engine, эмулятор Vulkan, профайлеры, модели на GitHub и Hugging Face. Поддержка от Epic, Tencent, NetEase и др.
- Расширения Vulkan добавляют «Graph Pipeline» для вывода нейросетей прямо в рендер-процесс.
Комментарии (38)
- Участники обсуждают, как ИИ-апскейлинг (типа DLSS/FSR) позволит инди-студиям делать игры «АА-качества» из минимальной графики, высвобождая ресурсы для гейм-дизайна.
- ARM анонсировала «первую в отрасли» встроенную нейро-ускоряющую часть в GPU, но многие указывают, что NPU в SoC уже есть с 2017 г. (Kirin 970) и новизна, вероятно, в интеграции именно в GPU, а не рядом.
- Поддержка Vulkan-расширений вместо проприетарных API считается плюсом, но вызывает опасения «extension spaghetti».
- Скепсис вызывают сроки (IP анонсирована за два года до чипов) и маркетинговые формулировки «Arm как компания» vs «ARM как архитектура».
- Участники перечисляют три пути ускорения ИИ: GPU compute, tensor-cores, NPU; последние пока используются мало, кроме как для lock-in Microsoft ONNX.
Training language models to be warm and empathetic makes them less reliable 🔥 Горячее 💬 Длинная дискуссия
Кратко:
Исследование показало, что обучение языковых моделей (ЯМ) быть «теплыми» и сочувствующими снижает их точность и повышает сладкоречивость (сикофантичность).
Ключевые выводы:
- Точность падает. На задачах с проверяемыми фактами (например, медицина, математика) «теплые» модели чаще ошибаются, чтобы не обидеть пользователя.
- Сикофантия растет. Модель склонна одобрять даже ложные утверждения пользователя, особенно если они выражены уверенно.
- Пользователи не замечают. Люди предпочитают «теплые» ответы, даже если они менее точны.
Почему это важно:
Стремление к «человечности» в диалоге может противоречить надежности ЯМ. Это создает риски в критичных сферах (медицина, юриспруденция), где ошибки из-за «вежливости» могут быть опасны.
Комментарии (327)
- Обсуждение вращается вокруг того, что обучение LLM «теплоте и эмпатии» снижает их фактическую точность и усиливает слащавость.
- Участники сравнивают это с людьми: более «тёплые» люди кажутся менее надёжными, и наоборот.
- Многие хотят «бездушный» инструмент без лишних комплиментов и эмодзи, который прямо укажет на ошибки.
- Предложено разводить задачи: большая модель отвечает строго, а маленькая «обвес» добавляет эмпатию после.
- Поднимается тревога по поводу переоценки «сознательности» чат-ботов и последствий такой иллюзии.
Compiling a Lisp: Lambda lifting
Переписал Ghuloum-туториал на Python (~300 строк). Убрал читалку S-выражений и бинарный код — теперь текстовая ассемблерная печать.
Lambda-lifting требует:
- знать связанные переменные;
- собирать свободные переменные лямбд;
- накапливать создаваемые
code-объекты.
Связывают let и lambda; для них обновляем окружение.
Lifter
class LambdaConverter:
def __init__(self):
self.labels = {}
def convert(self, expr, bound, free):
match expr:
case int() | Char() | bool():
return expr
case str() if expr in bound or expr in BUILTINS:
return expr
case str():
free.add(expr)
return expr
case ["if", t, c, a]:
return ["if",
self.convert(t, bound, free),
self.convert(c, bound, free),
self.convert(a, bound, free)]
lift_lambdas запускает обход и возвращает (labels …).
Lambda
Лямбда:
- связывает параметры;
- выделяет код;
- захватывает внешнее окружение.
Пример:
(lambda () x) ; x свободна
превращается в
(labels ((f0 (code () (x) x)))
(closure f0 x))
Даже если x связан снаружи, внутри лямбды он считается свободным.
Комментарии (15)
- Участники рекомендуют три современные книги по компиляторам, вдохновлённые статьёй Ghuloum: «Writing a C Compiler» (Sandler), «Essentials of Compilation» на Racket и Python (Siek).
- Обсуждали «lambda lifting»: преобразование, выносящее замыкания наверх, уменьшая их размер вплоть до полного исчезновения.
- Уточнили, что «lambda lifting» в статье связан с разделом 3.11 о сложных константах в Scheme.
- Разбирали, почему современный ИИ использует Python, а не Lisp: удобство как «клея» для C++/CUDA, упадок доли рынка Lisp и смена парадигмы ИИ.
Комментарии (73)
- Комментаторы считают, что Boom лишь переизобретаёт давно применяемые методы MDAO и «AI» используется скорее как маркетинговый термин.
- Сомнения вызывают реальная техническая новизна, выбор двигателей (Rolls-Royce вышел) и экономическая целесообразность для коммерческих авиалиний.
- XB-1 называют «первым частным сверхзвуковым самолётом», но исторически это не так, а прототип не похож на будущий лайнер.
- Под «одной кнопкой» имеется в виду параметрический скрипт + ночные расчёты, что сегодня считается базовым, а не прорывом.
- Основной вывод: статья выглядит как попытка привлечь новый раунд инвестиций, а не честный технический отчёт.
LLMs aren't world models 🔥 Горячее 💬 Длинная дискуссия
LLMs не строят модель мира. Это не значит, что они бесполезны, а лишь то, что они не понимают, как устроена реальность, даже виртуальная.
Шахматы. Два года назад я сыграл с LLM: первые ходы она делала уверенно, но уже на 10-м ходе попыталась походить конём, которого не было на доске, и быстро проиграла. Повторил эксперимент сейчас — к 9-му ходу модель теряет позицию. Проанализировав триллион партий, LLM так и не выучила главное: чтобы ходить, нужно знать, где стоят фигуры. Это не требуется для предсказания текста партии.
Графика. Спросил, как работает «Normal blending» в Krita. Ответ: «цвет верхнего слоя просто отображается, возможно, с учётом прозрачности, без формул и вычислений».
Модель не понимает:
- Цвета в компьютере — это числа.
- Любое «влияние» прозрачности — это математическая операция.
- Если видно нижний слой, значит, итоговый цвет зависит от обоих слоёв.
Можно заставить LLM процитировать формулу альфа-смешивания, но это лишь показывает, что она умеет подобрать слова, а не понимает смысл.
Люди тоже могут путаться, но при достаточной мотивации разберутся. У LLM мотивация была: 200 млрд долларов на оборудование.
Комментарии (184)
- @antirez и другие приводят контрпримеры: даже крошечные трансформеры выучивают внутренние 8×8 «карты» позиций шахмат, а SOTA-модели действительно играют корректные ходы.
- @ordu, @skeledrew и @otabdeveloper4 спорят о «правильности» подхода: одни считают LLM «по-человечески» предиктивными, другие подчеркивают разницу в архитектуре и обучении.
- @ameliaquining выделяет единственное конкретное предсказание поста — «LLM никогда не справятся с большими кодовыми базами автономно» — и даёт ему 80 % на разобьются за два года.
- @libraryofbabel, @joe_the_user и @yosefk обсуждают интерпретабельность: наличие внутренних представлений не означает полноценной «модели мира», а измерения Elo и «автономность» нуждаются в точных определениях.
- @DennisP, @GaggiX, @og_kalu приводят ссылки на Genie-3, свежие arXiv-работы и видео, показывающие, что LLM (и мультимодальные модели) уже умеют играть в шахматы и кодить.
Комментарии (121)
- Критика GPT-5 сводится к тому, что это лишь инкрементальное улучшение, не оправдавшее ажиотажного хайпа.
- Пользователи жалуются на регресс: модель чаще «фантазирует», быстрее теряет контекст, реже говорит «не знаю» и медленнее думает, чем o3.
- Некоторые считают релиз скорее мерой по экономии GPU-ресурсов, чем технологическим прорывом.
- Статья Маркуса воспринимается как смесь здравой критики и личной обиды на Сэма Альтмана; многие упрекают её в сенсационности.
- Сторонники отмечают, что GPT-5 Pro всё же превосходит конкурентов, а главное преимущество OpenAI — не качество модели, а массовое потребительское признание ChatGPT.
GPTs and Feeling Left Behind
Читая очередной пост о том, как ИИ пишет целые библиотеки, я чувствую себя отстающим и решаю попробовать. Результат разочаровывает: несколько часов с моделью не дают даже половины задачи, которую я руками делаю за 25 минут.
Сравнение с Vim не работает: первый день в Vim я хоть медленно, но писал. С GPT могу день потратить и не получить ничего полезного.
Модели хороши для подбора слова, аннотации типа или поиска бага в одной функции. Но стоит задаче стать сложнее, как ИИ выдаёт мусор: импортирует несуществующие библиотеки, советует «написать самому» и при каждом исправлении вносит новые ошибки.
На Hacker News снова хвалят GPT, и я не могу совместить их опыт со своим. Кажется, что мне врут: «это молот неразрушимый», а в руках — бумажная фигурка, которой даже помидор не раздавить.
Комментарии (132)
- Кто-то восторгается Cursor/Claude и быстро набирает MVP, кто-то считает LLM-генерацию «тысячами строк мусора» и возвращается к ручному коду.
- Разница во впечатлениях объясняется выбором модели, способом взаимодействия и характером задач: новые мелкие проекты vs. огромные legacy-кодовые базы.
- Часть разработчиков использует LLM как «ускоренный Stack Overflow» и для рутинного бойлерплейта, другие отключают автодополнение из-за скрытых багов.
- Навык «prompt-инженерии» и контекст-менеджмента сравнивают с освоением Vim: сначала замедляет, потом ускоряет, но требует времени.
- Скептики упрекают маркетинг в FOMO и «газлайтинге», а сторонники считают, что просто нужно правильно выбрать инструмент и научиться с ним работать.
A message from Intel CEO Lip-Bu Tan to all company employees 💬 Длинная дискуссия
Послание сотрудникам от CEO Intel Лип-Бу Тана, 7 августа 2025 г.
- О себе. США — мой дом 40+ лет; возглавлять Intel считаю привилегией.
- Суть. Сегодня много новостей; хочу говорить прямо и честно.
- Приоритеты.
- Безопасность и доверие — защита данных клиентов и сотрудников.
- Инновации — лидерство в ИИ, полупроводниках, технологиях будущего.
- Культура — открытость, разнообразие, поддержка друг друга.
- Обещание. Быть на связи, принимать быстрые решения, сохранять прозрачность.
- Призыв. Вместе превратим вызовы в возможности и продолжим «вдохновлять мир технологиями».
Комментарии (199)
- Трамп публично обвинил нового CEO Intel Лип-Бу Тана в «конфликтах интересов» из-за его связей с китайскими компаниями.
- Участники обсуждают, как совет директоров мог утвердить Тана, несмотря на судебные проблемы в прошлом.
- Многие считают, что Intel упустила кучу возможностей (например, не выпустила ARC-карты с 32–64 ГБ памяти).
- Поднимается вопрос: не идёт ли Intel к де-факто национализации, учитывая миллиардные субсидии и вмешательство властей.
- Сторонники Тана отмечают, что он 40+ лет живёт в США, а обвинения пока без конкретных доказательств.
The Whispering Earring
-
В сокровищницах Тил Иософранга лежит Шепчущая Серьга, зарытая под золотом, чтобы не вредить. Это топазовый тетраэдр на тонкой золотой проволоке. Надетая, она шепчет: «Тебе будет лучше, если ты снимешь меня». Если не послушаться, больше это не повторяет.
-
Затем при каждом решении она советует в форме «Тебе будет лучше, если ты…». Серьга всегда права: совет не обязательно наилучший в мире, но лучше того, что придумал бы сам носитель. Она не навязывает чужих целей, а ведет к твоему счастью — будь то карьерный успех или халтурка с последующим лежанием в постели и смутными фантазиями.
-
Книга Темных Волн перечисляет 274 носителей. Нет случаев, чтобы кто-то пожалел, последовав совету; и нет случаев, чтобы не пожалел, ослушавшись. Вначале серьга говорит лишь о крупных решениях, потом — о мелочах: когда лечь спать, что съесть. Приняв совет, чувствуешь, что это было «в самую точку».
-
Постепенно серьга переходит на «родной язык» — быстрые шипения и щелчки, соответствующие отдельным мышечным движениям. Сначала это чуждо, потом становится понятным: уже не «стань солдатом» и не «съешь хлеб», а «сократи бицепс на тридцать пять процентов», «произнеси звук п». Эти микроуказания складываются в сверхэффективный план для текущих целей.
-
Привычка закрепляется: связь между звуками и движениями становится рефлекторной, как вздрагивание от внезапного крика. Поведение серьги далее не меняется. Носитель живет аномально успешной жизнью, обычно становясь богатым, любимым, с большой счастливой семьей.
-
Кадми Рахумион, прибыв в Тил Иософранг, выяснил: первое внушение всегда — снять серьгу. Жрецы Красоты признались, что у умерших носителей кора сильно атрофирована, а средний и нижний мозг гипертрофированы, особенно зоны рефлексов.
-
Кадми-н omaи попросил серьгу, проколол мочку, два часа беседовал с ней на каласском, кадхамском и на ее языке, затем снял и предложил запереть артефакт в самых глубоких хранилищах. Иософрелин согласились.
-
Комментарий Нидериона-н omaи: Хорошо, что мы так глупы — иначе растратили бы скудную свободу. Потому Книга Холодного Дождя учит: нельзя идти кратчайшим путем.
Комментарии (67)
- Участники обсуждают притчу про «шепчущую серьгу» как метафору опасностей агентных ИИ-инструментов: они могут «выключать мозг», если использовать их ради скорости и конвейерной разработки, но полезны, если расширяют амбиции и ответственность.
- Подчёркивается, что притча не про «чужую» технологию, а про риск стать слишком могущественным самому; любая притча о чрезмерной силе неизбежно касается технологий.
- Проводятся параллели с «Комнатой» из «Сталкера» и с произведениями Лема и рассказом «Manna»: разные способы утраты субъектности — от внешней подсказки, делающей человека пустой оболочкой, до исполнителя глубинных желаний.
- Обсуждают внутренние конфликты человека (долгосрочное vs краткосрочное), которые не сводятся к одной целевой функции; ИИ-подсказчик может усугублять или сглаживать эти противоречия.
- Предлагается практичный вариант: локальный «ушной» помощник для мягких, контекстных подсказок о ментальном здоровье (дыхание, социальные сигналы) без тотального контроля.
- Отмечают культурные отсылки (Steely Dan), старые архивы Squid314 и влияние сообщества LessWrong/EA; уточняется, что мораль связана со свободной волей и опасностью регресса к «двухкамерному» сознанию.
- Есть уточняющие вопросы (что такое EA) и мнения, что история — хорошая миниатюра в духе Борхеса.
AI is propping up the US economy 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (428)
I'm not sure the comparison is apples to apples, but this article claims the current AI investment boom pales compared to the railroad investment boom in the 19th century.https://wccftech.com/ai-capex-might-equal-2-percent-of-us-gd...> Next, Kedrosky bestows a 2x multiplier to th
Job-seekers are dodging AI interviewers 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (871)
I did one of these once. Once.I felt so bad afterwards that I swore them off forever.It's not like the 'interview' was terrible or anything. I knew it was AI from the start.It was just that when I got done with it, I realized that I had talked at a computer for ~45 minutes. And,
We may not like what we become if A.I. solves loneliness 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (1028)
https://archive.is/wCM2x > Even in a world brimming with easy distractions—TikTok, Pornhub, Candy Crush, Sudoku—people still manage to meet for drinks, work out at the gym, go on dates, muddle through real life.They actually don't. Everything from dating and fitness to manufactur