Sora 2
—
Комментарии (120)
- Технология Sora 2 демонстрирует впечатляющий потенциал для создания визуальных эффектов, окружения и анимации, но качество ещё не идеально и заметны артефакты.
- Многие выражают обеспокоенность негативными социальными последствиями, включая распространение фейкового контента, "доскроллинг" и деградацию внимания.
- Запуск в формате социального приложения для Gen Z с региональными ограничениями вызвал вопросы о продуктивности и долгосрочной ценности такого контента.
- Отмечается разрыв между демонстрационными "вишнёвыми" примерами и реальными возможностями, а также отставание от конкурентов вроде Google Veo.
- Технология открывает новые возможности для кинопроизводства и креативных задач, но отсутствие контроля в закрытой платформе и высокая стоимость вычислений остаются барьерами.
Sora 2 🔥 Горячее 💬 Длинная дискуссия
YouTube — это глобальная платформа для размещения и просмотра видеоконтента, принадлежащая Google LLC. Она предлагает инструменты для создателей, рекламные возможности для бизнеса и открытые API для разработчиков. Пользователям доступны разнообразные функции, включая тестирование новых опций и доступ к эксклюзивному контенту, такому как NFL Sunday Ticket.
Платформа регулируется строгими правилами: авторские права, условия использования, политика конфиденциальности и меры безопасности чётко прописаны. YouTube также предоставляет информацию о своей работе и контакты для обратной связи, демонстрируя прозрачность и вовлечённость в сообщество.
Комментарии (803)
- OpenAI позиционирует Sora как социальную сеть с акцентом на потребление AI-генерированного видеоконтента, аналогичную TikTok, с функционалом ленты, лайков и профилей.
- Технология вызывает восхищение качеством и физикой видео, но критикуется за проблемы с непрерывностью сцен, артефактами и "долиной uncanny".
- Высказываются серьёзные опасения по поводу societal impact: распространение "AI-slop", проблемы с авторским правом, потенциальное misuse для создания deepfake, влияние на рынок труда и усиление doomscrolling.
- Отмечаются потенциальные применения: гиперперсонализированная реклама, инструмент для кинопроизводства (VFX, фоны), "исправление" фильмов фанатами и создание развлекательного контента.
- Многие пользователи сомневаются в долгосрочной ценности продукта, задаваясь вопросом, кто является целевой аудиторией кроме временного интереса к генерации забавных видео.
Earth was born dry until a cosmic collision made it a blue planet 💬 Длинная дискуссия
Земля сформировалась всего за 3 млн лет после рождения Солнечной системы, но изначально была сухой и безжизненной. Близость к Солнцу не позволила летучим элементам — воде, углероду, сере — войти в состав протоземли, сделав её химический состав непригодным для жизни.
Поворотным моментом стало столкновение с Тейей — планетой, сформировавшейся в более холодной зоне и богатой летучими веществами. Эта космическая катастрофа, вероятно, принесла на Землю воду и органические соединения, создав условия для жизни. Исследование подчёркивает, что обитаемость планет может зависеть от редких случайных событий.
Комментарии (230)
- Обсуждение гипотезы о происхождении земной воды в результате столкновения с планетой Тейя и её влияние на уравнение Дрейка
- Критика и сомнения в уникальности события: упоминания о воде на Марсе и Венере как свидетельствах других возможных путей доставки воды
- Вопросы к научной обоснованности: как летучие элементы сохранились при столкновении и почему вода не прибыла с кометами
- Спекуляции о связи события с возникновением жизни, включая панспермию и антропный принцип
- Общий скепсис к статье как к спекулятивной и противоречащей некоторым established фактам
Show HN: Sculptor – A UI for Claude Code
Sculptor — это интерфейс для параллельной работы нескольких экземпляров Claude Code в изолированных контейнерах, позволяющий мгновенно переключаться между их средами для тестирования изменений. Он предлагает предложения, которые выявляют критические проблемы по мере написания кода, сохраняя контроль за архитектором.
Инструмент поддерживает традиционный инженерный подход: вы формулируете идеи, а ИИ-агенты занимаются реализацией. Это ускоряет разработку без потери качества, сочетая креативность человека с эффективностью автоматизации.
Комментарии (68)
- Пользователи делятся положительным опытом использования Sculptor для разработки, отмечая удобство параллельной работы и локального выполнения кода в изолированных контейнерах.
- Обсуждаются технические детали работы инструмента: использование контейнеров, поддержка различных моделей ИИ (Claude Code, GPT, Gemini), интеграция с devcontainer и выполнение тестов.
- Высказываются пожелания по расширению функционала: поддержка других языковых моделей и агентов, веб-версия, тёмная тема, настройка переменных окружения.
- Команда разработчиков поясняет план развития: открытие исходного кода, бесплатность для личного использования и возможные платные тарифы для бизнеса в будущем.
- Участники проводят сравнение с аналогичными инструментами (Terragon, Conductor, VibeKit), отмечая различия в подходе к коллаборации и интеграции.
Extract-0: A specialized language model for document information extraction
Представлена модель Extract-0 с 7 миллиардами параметров, оптимизированная для извлечения информации из документов и превосходящая по эффективности более крупные модели, включая GPT-4.1. Она достигает среднего показателя вознаграждения 0.573 на тестовом наборе из 1000 задач, обходя конкурентов с результатами около 0.46.
Обучение включает генерацию синтетических данных, тонкую настройку с LoRA, затрагивающую лишь 0.53% весов, и reinforcement learning с новой функцией вознаграждения на основе семантического сходства. Это демонстрирует, что специализированные модели могут превзойти универсальные системы при значительно меньших вычислительных затратах.
Комментарии (40)
- Специализированная модель, дообученная на узком наборе данных (280k примеров), демонстрирует высокую производительность в конкретной задаче извлечения данных, но тестируется на схожих данных из того же распределения, что вызывает вопросы о переобучении и реальной обобщающей способности.
- Обсуждается тренд на создание небольших узкоспециализированных моделей (fine-tuning, LoRA) как более эффективной и дешевой альтернативы большим универсальным LLM для конкретных применений, хотя ROI такого подхода для бизнеса не всегда очевиден.
- Подчеркивается важность и эффективность методов дообучения и RLHF (GRPO) для небольших моделей, что позволяет с малыми затратами ($196) превзойти большие модели в нишевых задачах, но для широкого внедрения необходимо упрощение процесса для потребительского оборудования.
- Высказывается скептицизм относительно новизны исследования, так как способность дообученных моделей превосходить большие в узких задачах уже известна, а ключевой проблемой остается генерализация на реальных данных, а не на примерах из тренировочного сета.
- Намечается bifurcation в развитии AI: открытые небольшие модели решают конкретные практические задачи, в то время как крупные коммерческие модели развиваются в сторону чат-интерфейсов и инструментов общего назначения, что не всегда оптимально.
Launch HN: Airweave (YC X25) – Let agents search any app
Airweave позволяет ИИ-агентам искать информацию в любом приложении, автоматизируя взаимодействие с пользовательскими интерфейсами. Это устраняет необходимость в API или специальных интеграциях, поскольку система использует компьютерное зрение и ИИ для навигации и извлечения данных напрямую из визуальных элементов приложений.
Ключевая идея в том, что агенты могут выполнять задачи, имитируя человеческие действия — кликая, вводя текст и анализируя экраны. Это особенно полезно для автоматизации workflows в legacy-системах или приложениях без публичного API. Практический вывод: снижается зависимость от разработчиков для создания интеграций, ускоряется внедрение автоматизации в разнородных средах.
Комментарии (29)
- Обсуждение различий между Airweave и конкурентами (Onyx, Glean), где Airweave позиционируется как инфраструктура для разработчиков, а не готовое пользовательское приложение.
- Вопросы о безопасности и управлении доступом (RBAC): подход к синхронизации данных для каждого пользователя в отдельности для предотвращения утечек и планы по реализации единых списков ACL.
- Критика сложной модели ценообразования и предложения по её упрощению, а также ответ о наличии бесплатной версии для разработчиков.
- Обсуждение тенденции интеграции подобных технологий крупными игроками (OpenAI, Anthropic) и восприятие этого как подтверждения полезности продукта.
- Ответы на технические вопросы: предпочтение полного индексирования данных вместо вызова инструментов на лету, поддержка чистого ключевого поиска без использования LLM.
Leaked Apple M5 9 core Geekbench scores 🔥 Горячее 💬 Длинная дискуссия
Новый iPad с моделью iPad17,3 показал впечатляющие результаты в тесте Geekbench 6: 4133 балла в однопоточном режиме и 15437 в многопоточном. Устройство работает на iOS 26.0 и оснащено 9-ядерным процессором ARM с базовой частотой 4.42 ГГц, разделённым на два кластера — 3 и 6 ядер. Объём оперативной памяти составляет 11.2 ГБ.
В тестах выделяются высокая скорость обработки изображений: Object Remover показал 405.6 Мпикс/с в однопоточном и 1.23 Гпикс/с в многопоточном режиме, а Clang достиг 22.9 тыс. строк/с и 114.4 тыс. строк/с соответственно. Эти цифры демонстрируют значительный прирост производительности для мобильных задач, особенно в сфере ИИ и креативных приложений.
Комментарии (473)
- Пользователи обсуждают производительность нового процессора Apple M5, отмечая его превосходство над конкурентами (Intel, AMD, Qualcomm) в мобильном сегменте, особенно в энергоэффективности и одноядерных тестах.
- Высказывается разочарование ограничениями iPadOS, которые не позволяют раскрыть потенциал мощных чипов Apple, и звучат предположения о возможном появлении сенсорного Mac.
- Обсуждается отсутствие аналога Mac mini на ARM64 для Linux и желание видеть более открытые платформы от Apple с поддержкой Linux и общего назначения.
- Поднимается тема игр: пользователи хотели бы видеть более серьёзный подход Apple к геймингу, включая улучшенные инструменты для портирования игр с Windows (по аналогии с Proton).
- Отмечается, что основной прирост производительности M5 по сравнению с M4 (~10-15%) обусловлен новым техпроцессом и архитектурными улучшениями, а не увеличением частоты.
Cerebras systems raises $1.1B Series G
Cerebras Systems привлекла $1,1 млрд в рамках раунда финансирования серии G, оценив компанию в $8,1 млрд. Инвестиции возглавили Fidelity Management & Research Company и Atreides Management при участии Tiger Global, Valor Equity Partners и других фондов. Средства направят на расширение портфеля технологий в области проектирования AI-процессоров, систем и суперкомпьютеров, а также на увеличение производственных и дата-центровых мощностей в США.
Компания демонстрирует экстремальное превосходство в скорости инференса — её решения до 20 раз быстрее GPU NVIDIA, что привлекло таких клиентов, как AWS, Meta, IBM и US Department of Defense. Cerebras обрабатывает триллионы токенов ежемесячно и лидирует на Hugging Face с 5+ млн запросов. Рост спроса подогревают реальные use-cases вроде генерации кода и агентных систем, где задержки критически дороги.
Комментарии (36)
- Cerebras впечатляет скоростью инференса благодаря уникальной архитектуре с огромным объемом SRAM, но сталкивается с критикой за ненадежность и проблемы с качеством ответов в кодинге
- Пользователи отмечают неясную стратегию ценообразования и развертывания, высокую стоимость подписок и минимальные месячные обязательства
- Обсуждаются возможные причины, по которым компания до сих пор не приобретена: высокая стоимость чипов, сложности упаковки, инвестиции ОАЭ и возможные проблемы, выявленные в ходе due diligence
- Поднимается вопрос, почему компания не заменяет часть ядер на чипе на HBM-память, и обсуждаются технические сложности такой интеграции
- Высказываются предположения, что крупные игроки (Amazon, IBM) могут проявить интерес к приобретению, но отмечается, что у Amazon уже есть собственные чипы Trainium
Random Attractors – Found using Lyapunov Exponents (2001)
Двумерные квадратичные отображения с случайными параметрами могут порождать хаотические аттракторы — сложные структуры, возникающие при итерациях нелинейных уравнений. Ключевым индикатором хаоса служит положительный показатель Ляпунова, отражающий экспоненциальное расхождение близких траекторий и потерю информации о начальных условиях. Около 98% случайных комбинаций параметров приводят к расходимости, лишь 0.5% — к периодическим орбитам, и ещё меньше — к визуально богатым хаотическим режимам.
Метод включает отбрасывание начальных итераций для стабилизации системы, расчёт показателя Ляпунова и визуализацию траекторий. Интересно, что даже двумерные системы могут создавать иллюзию трёхмерности, а детектирование хаоса требует учёта численных погрешностей, например, при схождении к точке или уходе в бесконечность.
Комментарии (27)
- Упомянуты книги и ресурсы по теории хаоса и аттракторам, включая "Strange Attractors" Джулиана Спротта и работы Пола Бурка.
- Обсуждается применение теории хаоса за пределами визуализации: в нейросетях, анализе ЭКГ, системах управления и для повышения надежности ИИ.
- Участники делятся личными проектами, например, генератором аттракторов и аналоговой схемой, демонстрирующей хаотическое поведение.
- Высказано мнение, что LLM можно рассматривать как динамические системы и изучать на предмет хаотического поведения.
- Отмечена эстетическая ценность визуализаций хаоса и их сравнение с музыкой или "визуальным джазом".
Correctness and composability bugs in the Julia ecosystem (2022)
После многолетнего активного использования Julia для анализа данных и разработки пакетов автор перестал рекомендовать язык из-за серьёзных проблем с корректностью и композируемостью. В экосистеме Julia наблюдается высокая частота критических ошибок, которые проявляются даже в базовых операциях: например, функции sum! и prod! иногда молча возвращают неверные результаты, а выборка из распределений может давать смещённые или некорректные значения.
Особенно уязвимы комбинации пакетов или нестандартные типы данных — Euclidean Distance не работает с векторами Unitful, а макрос @distributed ломается при использовании OffsetArrays. Многие ошибки приводят к выходу за границы памяти или тихим неверным вычислениям, что ставит под сомнение надёжность любых сложных расчётов. Практический вывод: в проектах, где важна точность, Julia может представлять неприемлемый риск.
Комментарии (36)
- Участники обсуждают проблемы с корректностью и стабильностью экосистемы Julia, включая критические баги в базовых пакетах и проблемы совместимости.
- Высказываются опасения, что эти проблемы делают язык неподходящим для проектов, где важна точность, несмотря на его элегантность и производительность.
- В качестве альтернатив для научных вычислений упоминаются Python с библиотеками (PyTorch, Jax, TensorFlow), R (и tidyverse), а также Rust и Go.
- Некоторые пользователи делятся негативным опытом из-за невыполненных обещаний (например, быстрая компиляция) и переходят на другие языки.
- Обсуждается актуальность критики, поскольку некоторые примеры проблем датируются 2024 годом, несмотря на то, что исходный пост мог быть написан ранее.