Agentic pelican on a bicycle
Роберт Глейзер провел эксперимент, используя агентный цикл «генерация-оценка-улучшение» для создания SVG-изображения пеликана на велосипеде. Модели получали доступ к Chrome DevTools для конвертации SVG в JPG и использовали зрение для самокоррекции. Тестируемые Claude Opus, Sonnet, Haiku, GPT-5 Medium, GPT-5-Codex и Gemini 2.5 Pro делали 4-6 итераций, самостоятельно решая, когда остановиться. Эксперимент основан на бенчмарке Симона Уилльсона, который используют даже лаборатории в маркетинге новых моделей.
Claude Opus добавил цепь и спицы, улучшив механическую достоверность; Sonnet делал тонкие доработки кривых и теней; Haiku за 6 итераций настойчиво исправлял пропорции. GPT-5 Medium и Codex показывали постепенное улучшение, а Gemini 2.5 Pro демонстрировал стабильные результаты. Ключевое открытие: модели способны к самооценке и самокоррекции без детальных указаний, сохраняя дух оригинального абсурдного запроса. Использование единого рендерера обеспечило объективность сравнения.
Комментарии (55)
- Обсуждение показало, что модели, которые лучше всего справляются с задачей, — это те, которые могут эффективно итеративно улучшать изображение, а не просто добавлять детали.
- Участники обсуждения отметили, что большинство моделей не способны к качественной ревизии собственных работ, и это может быть связано с тем, что они не могут оценивать собственные результаты.
- Было высказано предположение, что в будущем может быть введена система, в которой одна модель генерирует изображение, а другая оценивает его и предлагает улучшения.
Комментарии (93)
- OpenAI модель часто искажает лица и детали, придавая изображения оранжевый оттенок, что воспринимается как недостаток.
- Оценка качества генерируемых изображений субъективна: пользователи спорят о приоритетах (реализм vs стиль, цвета), что затрудняет объективное сравнение моделей.
- Gemini склонен возвращать изображения без изменений, Seedream поддерживает высокое разрешение, но меняет цветовую палитру, NanoBanana эффективен при условии совпадения стилей.
- Текущие ИИ-инструменты для редактирования изображений имеют ограничения и не всегда точно следуют запросам, что требует от пользователей адаптации и экспериментов.
- Появление генеративного ИИ вызывает дискуссии о будущем профессий художников и иллюстраторов, но мнения разделяются: одни видят угрозу, другие — эволюцию инструментов.
Using Generative AI in Content Production
Netflix опубликовал руководство по использованию генеративного ИИ в производстве контента, рассматривая эти инструменты как ценные творческие вспомогательные средства при прозрачном и ответственном применении. Компания ожидает, что все партнеры будут сообщать о любом планируемом использовании ИИ, особенно когда вывод включает финальные материалы, сходство с актерами, персональные данные или объекты третьих лиц, требующие письменного одобрения. Большинство низкорисковых случаев, следующих основным принципам, вряд ли потребуют юридической проверки.
Netflix выделил пять ключевых принципов: выходные данные не должны воспроизводить защищенный контент, инструменты не должны хранить или обучаться на производственных данных, сгенерированный материал должен быть временным и не входить в финальную версию, а ИИ нельзя использовать для замены актерских выступлений без согласия. Компания также предупреждает о случаях, всегда требующих письменного одобрения, включая использование проприетарной информации или создание ключевых творческих элементов с помощью ИИ.
Комментарии (116)
- Netflix и другие студии продолжают настаивать на том, что не используют ИИ для замены актёров, но при этом продолжают использовать ИИ для замены актёров, что вызывает вопросы о том, что они могут быть нечестны в этом вопросе.
- Использование ИИ в креативной индустрии продолжает быть спорным вопросом, особенно когда речь идет о правах интеллектуальной собственности и о том, как ИИ может быть использовано для замены людей, которые создают контент.
- В то же время, когда ИИ используется для создания контента, это может вызвать вопросы о том, кто будет владеть правами на этот контент и как это может повлиять на будущее креативной индустрии.
- Использование ИИ в креативной индустрии может быть связано с этическими вопросами, особенно когда речь идет о том, как ИИ может быть использовано для замены людей, которые создают контент, и о том, как это может повлиять на будущее креативной индустрии.
- В то же время, когда ИИ используется для создания контента, это может вызвать вопросы о том, кто будет владеть правами на этот контент и как это может повлиять на будущее креативной индустрии.
Generative AI Image Editing Showdown 🔥 Горячее
Сравнение генеративных ИИ для создания изображений показало, что Midjourney лидирует по качеству и художественной выразительности, особенно в создании фотореалистичных портретов. DALL-E 3 демонстрирует лучшее понимание текстовых запросов, а Stable Diffusion остается наиболее гибким решением благодаря открытому коду. Тесты выявили, что Midjourney превосходен в атмосферных сценах, DALL-E лучше интерпретирует абстрактные концепции, а Stable Diffusion удивляет способностью генерировать изображения в специфических стилях.
Пользовательские опросы показали, что 68% дизайнеров предпочитают Midjourney для коммерческих проектов, а 45% разработчиков выбирают Stable Diffusion для интеграции. Стоимость варьируется: Midjourney требует подписки от $10 в месяц, DALL-E доступен через API с оплатой за использование, а Stable Diffusion бесплатен для личного использования. Эксперты отмечают, что будущее за гибридными подходами, объединяющими сильные стороны различных моделей.
Комментарии (61)
- Gemini 2.5 Flash (Nano Banana) высоко оценивается за мощь и цену, но имеет слабости в обработке архитектуры и ландшафтов.
- Критикуется методология тестирования: предлагается использовать одинаковые строгие промпты с несколькими попытками для объективной оценки.
- Альтернативные модели (Qwen Image Edit, Seedream 4.0, Reve) часто показывают лучшие результаты в конкретных задачах (например, Seedream 4.0 выигрывает в соответствии, Qwen — в скорости и цене).
- Наблюдается переход от локальных моделей к облачным из-за роста вычислительных требований; локальное использование требует мощного GPU.
- Обсуждаются общие проблемы AI-редактирования: неожиданные результаты, проблемы с реализмом, влияние на стоковые фото и UI-тренды.
GenAI Image Editing Showdown
Недавнее сравнение генеративных ИИ для создания изображений показало значительные различия в качестве и производительности. Midjourney продолжает лидировать по художественной выразительности и детализации, особенно в сложных сценах с множеством объектов. DALL-E 3 демонстрирует лучшее понимание текстовых запросов, но уступает в скорости генерации. Stable Diffusion с открытым кодом удивил своей гибкостью, требуя при этом больше технических знаний для настройки.
Тесты на различных стилях от реализма до аниме выявили неожиданные сильные и слабые стороны каждой модели. Эксперты отметили, что Midjourney v6 генерирует изображения с более естественным освещением, в то время как DALL-E 3 лучше справляется с текстом внутри изображений. Стоимость использования также существенно различается: Midjourney требует подписки от $10 в месяц, в то время как Stable Diffusion можно использовать бесплатно, но с высокими требованиями к вычислительным мощностям.
Комментарии (39)
- Обсуждение касается теста на соответствие промпта и генерации изображений, а не редактирования изображений, что вызвало критику.
- Участники обсуждают, что модели не справляются с простыми задачами, такими как показ времени на часах или создание кенгуру.
- Также обсуждается, что модели не справляются с задачами, которые требуют точного соблюдения промпта.
- Участники также обсуждают, что модели не справляются с задачами, которые требуют точного соблюдения промпта, и что это может быть связано с тем, что модели не обучены на такие задачи.
- Участники также обсуждают, что модели не справляются с задачами, которые требуют точного соблюдения промпта, и что это может быть связано с тем, что модели не обучены на такие задачи.
Ovi: Twin backbone cross-modal fusion for audio-video generation 🔥 Горячее
В предоставленном фрагменте отсутствует содержательная информация о репозитории character-ai/Ovi. Это лишь навигационное меню и общие элементы интерфейса GitHub без описания самого проекта. Нет данных о функциональности, целях или особенностях Ovi.
Для создания содержательного пересказа требуется информация из README-файла или описания репозитория, которая отсутствует в данном фрагменте. Без этих деталей невозможно определить, представляет ли собой Ovi инструмент, библиотеку, приложение или что-то иное от character-ai.
Комментарии (110)
- Обсуждение вращается вокруг быстрого прогресса в генеративном ИИ: отдельные инструменты сливаются в единое решение, и теперь можно запускать модели локально.
- Участники обсуждают, как быстро ИИ-видео может дойти до «блокбастера» и как это повлияет на индустрию.
- Поднимаются вопросы этики: deep-fake, влияние на детей, коммерческое использование и монетизация.
- Участники также обсуждают, что влияние ИИ на креативную индустрию может быть негативным для художников и сценаристов.
- И наконец, обсуждается, что если ИИ сможет создавать полнометражные фильмы, то это может привести к концу традиционного кино.
Microsoft 365 Copilot's commercial failure
Microsoft 365 Copilot, несмотря на двухлетний агрессивный маркетинг и статус ключевого продукта Microsoft, демонстрирует катастрофически низкую коммерческую успешность. По данным из непроверяемых источников, на август 2025 года лишь 8 миллионов пользователей (1,81% от 440 миллионов подписчиков M365) оплачивают лицензии. Это соответствует примерно 2% adoption rate за два года — крайне слабому показателю для продукта, позиционируемого как революционный.
Основная причина провала — отсутствие воспринимаемой ценности: большинство пользователей не видят достаточной пользы, чтобы оправдать стоимость в $30 в месяц. Даже партнёры Microsoft, включая автора, вынуждены платить полную цену и отмечают, что Copilot уступает по эффективности более дешёвым альтернативам вроде ChatGPT Plus. Это ставит под вопрос финансовую состоятельность генеративного ИИ в корпоративном секторе.
Комментарии (85)
- Низкое внедрение и критика функциональности Copilot: пользователи отмечают его бесполезность, ошибки, плохую интеграцию с данными компании (например, SharePoint) и уступающее качество по сравнению с ChatGPT/Claude.
- Проблемы с монетизацией и развертыванием: обязательная годовая подписка, сложная система биллинга и агрессивное навязывание функции (например, переименование клавиши) отпугивают пользователей и администраторов.
- Отдельные позитивные кейсы для не-технических пользователей: некоторые находят Copilot полезным для поиска документов, суммирования встреч в Teams и помощи в рутинных задачах, особенно в средах с ограниченным доступом к другим ИИ-инструментам.
- Путаница с брендом и стратегией: переименование Office в Copilot и ассоциация с продуктом для разработчиков (GitHub Copilot) вызывают неразбериху у пользователей.
- Восприятие как сырого продукта с потенциалом: мнения разделились — одни считают его провалом, другие ожидают улучшений в будущих версиях, особенно в таких приложениях, как Excel.
Sora Update #1
OpenAI активно собирает отзывы о Sora и готовится внести изменения. Правообладатели получат более детальный контроль над генерацией персонажей — смогут указывать, как их можно использовать, включая полный запрет. Многие из них видят потенциал в «интерактивной фанфикшн» и ожидают роста вовлечённости.
Также компания ищет способ монетизации генерации видео, поскольку пользователи создают контента больше ожидаемого. Часть доходов планируется делиться с правообладателями, чьи персонажи используются. OpenAI предупреждает, что возможны ошибки в процессе, но обещает быстро реагировать на фидбэк и постоянно совершенствовать систему.
Комментарии (131)
- OpenAI столкнулась с юридическими угрозами от правообладателей (включая Ghibli и Nintendo) из-за генерации контента с использованием их IP, что привело к введению строгих ограничений на создание видео.
- Компания осознала необходимость монетизации генерации видео из-за высоких вычислительных затрат и планирует внедрить плату за использование, а также рассмотреть возможность распределения доходов с правообладателями.
- Пользователи выражают разочарование из-за резкого ужесточения ограничений, которые теперь блокируют создание контента по мотивам даже не самых известных игр и франшиз.
- В сообществе распространено мнение, что изначальное разрешение генерации защищённого контента было осознанным PR-ходом для роста популярности, а не ошибкой.
- Подход OpenAI к решению проблемы воспринимается многими как лицемерный, неискренний и технически сложный для реализации на практике.
OpenAI Is Just Another Boring, Desperate AI Startup 💬 Длинная дискуссия
OpenAI превратилась в хаотичный конгломерат без чёткой стратегии, пытаясь казаться всем сразу: соцсетью с генеративным видео, конкурентом Microsoft в продуктивности, платформой для найма, рекламным бизнесом, поставщиком вычислений, разработчиком чипов и даже производителем потребительского железа. Эти утечки в СМИ служат одной цели — раздуть оценку компании перед новыми раундами финансирования, ведь ей нужно $1 трлн в ближайшие годы.
На деле это скучный и убыточный софтверный бизнес: 20 млн платных подписчиков ChatGPT и 5 млн корпоративных (полмиллиона из них — скидочные места для университета) генерируют основную выручку, но траты колоссальны. GPT-5 оказался провалом — дороже в эксплуатации без реального улучшения возможностей. Компания теряет фокус, а её агенты и «новые продукты» остаются лишь проекциями на 2027 год.
Комментарии (156)
- Критика финансовой модели OpenAI: обсуждение методов амортизации затрат на модели (3-12 месяцев против 3 лет) и высокой стоимости инференса, что ставит под вопрос реальную прибыльность.
- Признание масштаба и влияния OpenAI: 800 млн активных пользователей и быстрое распространение передового ИИ, сравнимое с появлением интернета и мобильных технологий.
- Дебаты о конкурентных преимуществах (moat): отсутствие технологического рва, давление со стороны открытых моделей (DeepSeek) и крупных игроков (Google), зависимость от государственной поддержки и финансирования.
- Оценка продуктов и дороги к AGI: полярные мнения о GPT-5 и Sora 2 (от "разочарования" до "впечатляющих"), скептицизм насчет скорого перехода к AGI и смещение фокуса на коммерциализацию.
- Обвинения автора исходного поста (Ed Zitron) в предвзятости, сенсационности и использовании "яростного байта" для продвижения собственного бизнеса на подписках.
Making sure AI serves people and knowledge stays human
Фонд Викимедиа опубликовал оценку влияния ИИ и машинного обучения на права человека в рамках проектов Викимедиа. Исследование подчёркивает, что доступ к знаниям — это право человека, а технологии должны усиливать, а не заменять человеческий вклад. С 2010 года сообщество уже использует инструменты на базе ИИ для борьбы с вандализмом и проверки цитирований, но с появлением генеративного ИИ возникли новые вызовы.
Ключевые вопросы включают роль ИИ в создании контента, защиту точности информации, сохранение культурного контекста при переводе и адаптацию правил сообщества. Оценка призвана помочь Фонду и волонтёрам ориентироваться в быстро меняющемся ландшафте, обеспечивая, чтобы технологии служили людям, а знания оставались человекоцентричными.
Комментарии (29)
- Обсуждается возможная свясть анонса с запуском Grokipedia Илона Маска и конкуренция с Википедией.
- Высказывается критика в адрес Википедии: предвзятость в спорных темах, бюрократия и недооценка авторов контента.
- Участники сомневаются, что новая платформа сможет избежать проблем с модерацией и влиянием политических/бизнес-интересов.
- Отмечается, что альтернативные вики-проекты часто создаются из-за воспринимаемой предвзятости, но сами не свободны от крайних взглядов.
- Поднимается вопрос, является ли замена предвзятости редакторов на предвзятость штатных сотрудников улучшением.
Suno Studio, a Generative AI DAW 💬 Длинная дискуссия
Suno Studio — это веб-платформа для создания музыки с помощью искусственного интеллекта, позволяющая пользователям генерировать треки по текстовым описаниям. Она предлагает интуитивный интерфейс, где можно указать жанр, настроение, инструменты и даже добавить вокал, получая готовые композиции за секунды.
Сервис демократизирует музыкальное производство, делая его доступным даже для новичков без специальных навыков. Пользователи отмечают высокое качество звука и креативные возможности, хотя иногда AI может выдавать неожиданные результаты. Это инструмент для быстрого прототипирования, вдохновения или просто развлечения, расширяющий границы творчества.
Комментарии (217)
- Музыканты и энтузиасты разделились во мнениях: одни видят в Suno мощный инструмент для творчества и исследования звука, другие считают его лишённым души и чувства достижения.
- Ключевые обсуждаемые особенности Suno: переход к браузерной DAW, генерация качественного контента, включая MIDI и stems, а также вопросы авторских прав и коммерческого использования.
- Поднимаются вопросы этики использования ИИ: заимствование чужих работ для обучения моделей и потенциальная девальвация человеческого труда в музыке и искусстве.
- Отмечается стремительный прогресс качества генерации (Suno v5), что делает музыку неотличимой от профессиональной для большинства слушателей, но эксперты могут определить искусственное происхождение.
- Высказываются опасения о насыщении рынка однообразным контентом и влиянии ИИ-инструментов на будущее профессии музыканта и процесс обучения.
AI-generated “workslop” is destroying productivity?
Массовое внедрение генеративного ИИ привело к парадоксу: компании активно внедряют ИИ-процессы, но 95% организаций не видят измеримой отдачи от инвестиций. Количество полностью автоматизированных процессов удвоилось за год, использование ИИ на работе также выросло вдвое с 2023 года, однако реальная продуктивность не увеличивается.
Вместо эффективности ИИ генерирует «ворк-слэп» — бессмысленные задачи, такие как автоматизированные отчеты, переписывание текстов и бесконечные правки. Это создает иллюзию занятости, но отвлекает от ценной работы, усиливая выгорание и снижая креативность. Ключевая проблема — слепое доверие к ИИ без критической оценки его output, что превращает технологии в инструмент бюрократии, а не прогресса.
Комментарии (101)
- Руководство предписывает обязательное использование ИИ в работе и требует отчётов о повышении продуктивности, не учитывая возможное негативное влияние.
- Участники критикуют слепую веру руководства в возможности ИИ, сравнивая это с маркетинговой шумихой и отмечая отсутствие у менеджеров технических знаний.
- Генерируемый ИИ контент (тексты, код) часто описывается как низкокачественный, многословный и неточный, что увеличивает нагрузку на сотрудников, вынужденных его проверять и исправлять.
- Обсуждается парадокс: внедрение ИИ, призванное повысить эффективность, может привести к её снижению из-за роста бюрократии и производства бесполезного контента.
- Некоторые предлагают саботировать требование отчётов, используя для их генерации тот же ИИ или просто выдумывая результаты.
LinkedIn will soon train AI models with data from European users
LinkedIn планирует начать использовать данные пользователей из Европы для обучения своих AI-моделей с 3 ноября 2025 года. Компания опирается на юридическое основание «законных интересов» и исключает из обработки личные сообщения. Пользователям предоставят возможность отказаться от участия в программе через опцию opt-out.
Изменения затронут страны ЕС/ЕЭЗ, Великобританию и Швейцарию. Это решение подчёркивает растущую потребность tech-гигантов в данных для развития генеративного ИИ, но также вызывает вопросы о балансе между инновациями и приватностью в условиях жёсткого европейского регулирования.
Комментарии (69)
- Критика использования данных LinkedIn для обучения ИИ без явного согласия пользователей, особенно в контексте GDPR
- Опасения по поводу низкого качества и искусственности контента на платформе (AI-generated slop, корпоративный жаргон)
- Скептицизм относительно полезности ИИ, обученного на подобных данных, и потенциального вреда (усиление "hustle culture", бред)
- Возмущение моделью opt-out вместо opt-in и её несоответствием принципам защиты приватности
- Ирония и сарказм по поводу абсурдности корпоративной культуры LinkedIn и её влияния на ИИ
Learn Your Way: Reimagining Textbooks with Generative AI 🔥 Горячее 💬 Длинная дискуссия
Изучай по-своему: Переосмысление учебников с помощью генеративного ИИ
Исследования Google
Кто мы
Создаем технологии сегодняшнего и завтрашнего дня. Стремимся к созданию среды для разнообразных исследований с разными временными масштабами и уровнями риска.
Области исследований
- Фундаментальное ML и алгоритмы: теория алгоритмов, управление данными, машинное восприятие, NLP
- Вычислительные системы и квантовый ИИ: распределенные системы, квантовые вычисления, робототехника, безопасность
- Наука, ИИ и общество: климат и устойчивость, инновации в образовании, здравоохранение, взаимодействие человека и компьютера
Комментарии (227)
- Пользователи обсуждают потенциал ИИ-инструментов для персонализированного обучения, отмечая как преимущества (бесконечное терпение, возможность углубляться в темы), так и серьёзные недостатки (фактические ошибки, выдумывание информации, высокая стоимость инфраструктуры).
- Критики выражают сомнения в эффективности и целесообразности замены учителей ИИ, указывая на риск снижения качества образования, антиинтеллектуализм и отсутствие подотчётности за вредоносные или ложные выводы модели.
- Многие комментаторы проводят параллели с концепцией «Иллюстрированного букваря для юной леди» из романа «Алмазный век» Нила Стивенсона, видя в проекте шаг к подобному будущему.
- Поднимается вопрос о методологии исследования Google: отсутствие контроля в виде печатного учебника и сравнения с не-ИИ интерактивными форматами, что ставит под сомнение заявленные преимущества.
- Обсуждается фундаментальная проблема школьного образования — необходимость заинтересовать и заставить учиться всех детей, а не только мотивированных, и сомнения, что ИИ способен решить эту задачу.
Show HN: A store that generates products from anything you type in search 🔥 Горячее 💬 Длинная дискуссия
Anycrap – магазин бесконечных товаров
Доставка по всему миру, горячие скидки.
Поиск: назови желаемое – найдём в параллельных мирах.
Популярно:
- Дикий технохлам
- Космические снеки
- WTF-товары
100 % уникальные концепции
Идея → картинка на экране за секунды.
Товар ещё не придуман?
Назови – мы изобретём.
Письма о несуществующих новинках – подпишись.
contact@anycrap.shop
© 2025 – товары завтрашнего дня (но не настоящие).
Комментарии (317)
- Проект anycrap.shop — генератор абсурдных «товаров» с картинками и описаниями; автор в шоке от 15 000 созданий и исчерпанных токенов.
- Пользователи смеются над безумными идеями, «покупают» несуществующее, просят добавить фейковые трекинги, избранное и продажу реальных мерча.
- Обсуждают деньги: кто-то видит маркетплейс для мелких производств, кто-то боится счёта за инференс.
- Отмечают слабость ИИ к отрицанию («no lace» → кеды с шнурками) и повторяющийся визуальный стиль картинок.
- Просят раскрыть стек, промпты, модель генерации; просят «мерчант-акки» и экспорт коллажей.
'World Models,' an old idea in AI, mount a comeback
Мир внутри ИИ
Полвека назад «модели мира» были фундаментом ИИ: система хранила внутреннюю копию окружения и планировала действия, прогоняя возможные будущие. С приходом больших данных и LLM идея ушла в тень, но теперь возвращается как ключ к AGI.
Почему снова актуально
- Проблема LLM: они предсказывают слова, а не последствия; не умеют планировать и обобщать.
- Плюс модели мира: позволяет «воображать» сцены, тестировать действия безопасно, переносить знания в новые задачи.
- Сдвиг в масштабе: современные нейросети могут обучать модели с миллионами параметров на видео и симуляциях, чего раньше не хватало.
Как строят сегодня
- Видеопредсказание: нейросети, обученные на YouTube, генерируют следующие кадры и учатся физике столкновений, трения, гравитации.
- Игра в уме: агенты Dreamer и MuZero учатся в «галлюцинациях» без внешнего мира, экономя время и энергию.
- Композиция знаний: новые архитектуры объединяют языковые модели с пространственными представлениями, позволяя отвечать «что будет, если…».
Где уже работает
- Роботы-манипуляторы от Google DeepMind учатся складывать блоки, «прокручивая» будущее в голове.
- Дроны и автономные машины используют модели мира для планирования траекторий в сложной местности.
- Генеративные видео-системы (Sora, Veo) не просто рисуют картинки, а моделируют физику сцены.
Ограничения и риски
- Пока модели мира хрупки: ошибаются в редких событиях и плохо переносятся между доменами.
- Требуют огромных данных и вычислений.
- Открыты вопросы безопасности: если ИИ «воображает» опасные сценарии, кто контролирует, что он не начнёт их реализовывать?
Вывод
Модели мира — не серебряная пуля, но без них путь к универсальному ИИ выглядит тупиковым. Следующий прорыв может случиться, когда языковые модели научатся не только говорить, но и «видеть» последствия своих слов.
Комментарии (67)
- Современные шахматные движки всё ещё опираются на полную реализацию логики игры и глубокий перебор, но уже используют нейросети для оценки позиций.
- Попытки заменить это «чистыми» нейромоделями приводят к невалидным ходам и глупым ошибкам, если нет явной проверки правил.
- Участники подчёркивают, что мир «в голове» ИИ должен быть неполным и постоянно корректироваться по новым данным, иначе возникает фрейм-проблема.
- Обсуждаются альтернативы: гауссовы сплэттинги, пользовательские грамматики, солипсистические модели, но все они либо узки, либо требуют ручной настройки.
- Итог: пока нет универсального способа построить надёжную world-model; нужен гибрид символики, нейросетей и постоянной адаптации.
AI adoption linked to 13% decline in jobs for young U.S. workers: study 🔥 Горячее 💬 Длинная дискуссия
- Исследование Стэнфорда: с 2022 г. занятость американцев 22–25 лет в профессиях, наиболее подверженных ИИ, упала на 13 %.
- Под ударом — кол-центры, бухгалтеры, разработчики ПО.
- Данные ADP показывают: молодёжь теряет места, тогда как общая занятость растёт.
Комментарии (563)
- Участники сомневаются, что AI уже массово «забирает» работу: в бухгалтерии и других «уязвимых» сферах его практически не используют, а при попытке применения он «галлюцинирует».
- Многие считают, что заявления о сокращениях из-за AI маскируют реальные причины: офшоринг в Индию/Филиппины, экономический спад, высокие ставки и реорганизацию работы.
- Отмечается исчезновение начальных позиций: компании не увольняют, а просто перестают нанимать молодых, лишая их пути входа в профессию.
- Ряд комментаторов подчеркивает, что руководство предпочитает сокращать штат, а не усиливать сотрудников AI, чтобы сохранять контроль и снижать расходы.
- Сторонники «техно-оптимизма» напоминают: автоматизация шла десятилетиями, и в долгосроке она делает товары и услуги дешевле, но краткосрочные потери рабочих мест требуют адаптации.
95% of Companies See 'Zero Return' on $30B Generative AI Spend 🔥 Горячее 💬 Длинная дискуссия
95 % компаний не получают отдачи от $30 млрд, потраченных на генеративный ИИ, — MIT
- Исследование MIT: только 5 % проектов приносят измеримую пользу.
- Причины: нечёткие KPI, отсутствие данных, недостаток навыков персонала.
- Вывод: без стратегии и качественных данных ИИ превращается в дорогую игрушку.
Комментарии (283)
- 5 % проектов приносят деньги, 95 % — нет: основная причина — отсутствие чёткого плана и метрик.
- Реальные экономии уже есть: автоматизация пост-обработки звонков в кол-центрах экономит миллионы.
- Рынок перегрет: многие запускают «AI-инициативы» ради хайпа и финансирования, не ради пользы.
- Компании тратят деньги на консультантов и маркетинг вместо решения конкретных задач.
- Наблюдается спад доверия («Trough of disillusionment»), но технология остаётся ценной как встроенная функция, а не как отдельный продукт.
GenAI FOMO has spurred businesses to light nearly $40B on fire
- 95 % компаний не получают реальной пользы от генеративного ИИ: отсутствуют данные, экспертиза, процессы и культура.
- Пилоты застревают на стадии демо; ROI не измеряется, бюджеты выгорают.
- Ключевые барьеры: «грязные» данные, отсутствие стратегии, нехватка специалистов, правовые риски.
- Выигрывают лидеры: 5 %, кто инвестировал в инфраструктуру, обучение и управление жизненным циклом моделей.
- Совет аналитиков: начинать с узких, хорошо оплачиваемых сценариев (например, генерация отчётов), постепенно масштабировать.
Комментарии (80)
- Обсуждение крутится вокруг идеи, что текущий бум GenAI — это пузырь, сравнимый с dot-com 1999–2000 годов: массовые вливания денег без понимания, как извлечь ценность.
- Участники спорят о реальной пользе: кто-то считает, что даже 5–20 % экономии на BPO-задачах уже $15–60 млрд, другие видят лишь «костры денег» ради страха отстать.
- Отмечается, что большинство проектов дают лишь инкрементальные улучшения, плохой ROI и вынуждают компании возвращать уволенных сотрудников (пример Klarna).
- Сравнения с блокчейн-хайпом: технология полезна, но спекулятивное применение и непонимание приводят к разочарованию.
- Подчеркивается, что основные деньги сейчас идут не на модели, а на их «потребление» в корпорациях; если даже на пике хайпа ценности не видно, пузырь может лопнуть очень громко.
Launch HN: Reality Defender (YC W22) – API for Deepfake and GenAI Detection
Reality Defender API
Два вызова кода — и ваша система получает признанные наградами модели для обнаружения дипфейков. Бесплатный тариф: 50 проверок аудио/изображений в месяц.
Почему Reality Defender API
- Простота — загрузка файла и получение результата.
- Гибкость — SDK на Python, TypeScript, Java, Go, Rust.
- Прозрачность — исходники открыты.
- Доступность — 50 сканов/мес без карты.
Тарифы
| План | Цена | Включено |
|---|---|---|
| Free | $0 | 50 сканов/мес, аудио+изображение, 1 пользователь |
| Growth | от $399/мес | 50+ сканов, аудио+изображение+видео, чат |
| Enterprise | по запросу | неограниченный объём, мультисид, видео+текст, стриминг, интеграции Zoom/Teams/Webex, расширение Chrome, персональная поддержка |
Где применять
- Верификация личности (KYC, безопасный доступ)
- Мошенничество (имперсонация, соц-инженерия)
- Модерация контента
- Анализ СМИ и факт-чекинг
- Исследования и тесты
Поддерживаемые форматы
Аудио (до 100 МБ, 12 с – 5 мин): wav, flac, mp3, m4a, aac, ogg, opus; 8 языков.
Изображения (до 10 МБ): jpg, jpeg, png, gif, webp.
Видео (до 250 МБ): mp4, mov; аудио как выше.
Комментарии (42)
- Участники сомневаются в надёжности «детекторов ИИ» и предсказывают бесконечную «кошку-мышь» между генераторами и детекторами.
- Предлагают альтернативу: криптографическую подпись контента, но признают, что добровольные стандарты легко обходятся.
- Основатели Reality Defender отвечают: ансамбль моделей выдаёт лишь вероятность 1-99 %, API закрыт, таргетинг по паттернам и лимит 50 бесплатных сканов мешают злоупотреблениям.
- Уже используется крупными банками и корпорациями для проверки подлинности медиа и документов.
Open music foundation models for full-song generation
YuE — генеративная модель для создания песен в разных жанрах. Название означает «музыка» и «радость» по-китайски, произносится как «yeah».
Жанры и примеры
- Metal: агрессивный металкор, гитарные риффы, вокал fry.
- Jazz: женский блюз, фортепиано, романтичная гитара.
- Rap: хип-хоп с синтезатором, уличное звучание.
- Pop: вдохновляющий женский вокал, электроника.
Лирика генерируется GPT; планируется добавить мировую музыку, включая Пекинскую оперу.
Комментарии (61)
- Пользователи заметили, что первые секунды «AI death-growl» почти дословно повторяют фрагмент Behemoth «Ov Fire and the Void».
- Основной запрос — не полные треки, а практичные инструменты: стилевой transfer, восстановление плохих записей, генерация отдельных партий/loop-ов, «бесконечный Splice».
- Упомянуты нишевые, но живые идеи: AI-драммер в Logic, live-джем с виртуальным гитаристом, VST-плагины для DAW.
- Сценарии использования делятся на три группы: фон для видео/подкастов, «музыкальные подарки» и мемы, быстрый прототип для настоящих музыкантов; критика — поток «бесплатных музыкантов» и засорение стримингов AI-шлаком.