What do we do if SETI is successful? 💬 Длинная дискуссия
Международная академия астронавтики обновляет протоколы действий при обнаружении внеземного разума — крупнейшие изменения за 36 лет. Новые рекомендации, принятые на конгрессе в Сиднее, отражают современную сложность ситуации, включая защиту исследователей от онлайн-травли. Ключевое изменение — запрет на ответное сообщение до обсуждения в ООН, что контрастирует с предыдущими версиями, допускавшими немедленный ответ.
Протокол включает методы верификации сигнала, требования к хранению данных в двух географически разделенных местах и анализ собранной информации. Для электромагнитных сигналов предлагается обратиться в Международный союз электросвязи для освобождения обнаруженной полосы частот. Эти меры остаются рекомендациями, а не обязательными правилами, и не касаются активного послания внеземным цивилизациям (METI), которое остается спорным вопросом без формальных протоколов.
Комментарии (265)
- В обсуждении поднимаются вопросы о последствиях обнаружения сигнала SETI и о том, что делать в таком случае, включая вопросы безопасности, международного сотрудничества и этических аспектов.
- Участники обсуждения высказывают мнение, что обнаружение сигнала может привести к панике, и что необходимо тщательно продумать, как и когда об этом сообщать.
- Обсуждается вопрос о том, что делать, если обнаружение подтвердится, включая вопросы о том, как ответить, кто будет отвечать и что делать, если ответа не будет.
- Также обсуждается вопрос о том, что делать, если обнаружение окажется ложным или если мы никогда не получим ответа.
- Участники обсуждения также обсуждают вопрос о том, что делать, если обнаружение будет подтверждено, и какие последствия это может иметь для человечества.
Production RAG: what I learned from processing 5M+ documents 🔥 Горячее
За 8 месяцев работы над RAG-системами для обработки 13+ миллионов документов автор выявил ключевые факторы успеха. Начав с типового стека Langchain + Llamaindex по туториалам, команда столкнулась с тем, что прототип на 100 документах показывал отличные результаты, а на полном наборе данных - провальные. Основные улучшения, давшие наибольший эффект: генерация множества семантических и ключевых запросов параллельно с исходным, реранкинг (оптимальное соотношение 50:15 чанков), тщательная настройка чанкинга с сохранением логических единиц, добавление метаданных в контекст LLM и маршрутизация запросов, не требующих поиска по базе.
Технологический эволюция включала переход от Azure к Pinecone, а затем Turbopuffer для векторного хранилища, от Cohere к Zerank для реранкинга, и от GPT-4.1 к GPT-5 и обратно. Автор подчеркивает, что реранкинг - "самые ценные 5 строк кода", а на чанкинг уходит большая часть времени. Весь опыт был упакован в open-source проект agentset под лицензией MIT.
Комментарии (104)
- Обсуждение охватывает широкий спектр тем: от генерации синтетических запросов и проблем с их качеством до самостоятельного хостинга, отсутствия настоящего самостоятельного хостинга и до влияния выбора модели эмбеддинга на качество и стоимость.
- Участники обмениваются практическими советами по оптимизации чанкинга, реранкинга и использованию различных моделей эмбеддинга и ранжирования.
- Обсуждаются сложности с интеграцией и стоимостью при использовании сторонних сервисов, а также вопросы безопасности и контроля при использовании облачных сервисов.
- Рассматриваются вопросы о том, какие факторы действительно важны при выборе инструментов и подходов, и какие из них являются просто маркетинговыми фишками.
Postman which I thought worked locally on my computer, is down 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (198)
- Пользователи жалуются, что Postman и другие инструменты стали требовать онлайн-авторизацию и не работают оффлайн, что стало причиной перехода на альтернативы.
- Популярные альтернативы включают Insomnia, Bruno, Yaak и httpie, которые предлагают оффлайн-функциональность и не требуют входа в систему.
- Некоторые разработчики предпочитают использовать встроенные инструменты IDE, такие как VS Code REST Client или JetBrains HTTP Client, или просто curl.
- Обсуждение также коснулось того, что некоторые инструменты могут быть слишком сложными для простых задач, в то время как другие могут не хватать функциональности для более сложных сценариев.
- Некоторые участники упомянули, что выбор инструмента может зависеть от размера команды, сложности API и необходимости коллаборативной работы.
Show HN: I created a cross-platform GUI for the JJ VCS (Git compatible)
Judo — полнофункциональный графический интерфейс для системы контроля версий JJ VCS (также работает с Git-репозиториями). Приложение предлагает визуальные инструменты для управления коммитами, включая журнал операций для возврата репозитория в любую точку времени с возможностью отмены и повтора изменений. Пользователи могут просматривать объединенные диффы нескольких коммитов, применять или откатывать части изменений (ханки) для файлов или коммитов, а также использовать кастомные revsets для фильтрации коммитов по описаниям, авторам и другим параметрам.
Особые возможности включают drag-and-drop перебазирование, продвинутые операции вроде дублирования, разделения, отмены, поглощения и сжатия коммитов, а также управление закладками. Приложение доступно для macOS, Windows и Linux (Ubuntu/Debian), что делает его универсальным инструментом для разработчиков, предпочитающих визуальный подход к работе с системой контроля версий.
Комментарии (32)
- Пользователи обсуждают проект, который, похоже, закрытого исходного кода и не предоставляет информации о себе, что вызывает вопросы доверия.
- Несколько человек выразили желание, чтобы проект стал open-source, даже если бы это ограничило бы только чтение кода.
- Пользователи также обсуждают трудности поиска информации о проекте из-за пересечения названий "jujutsu", "judo" и "git", а также упоминают существующие альтернативы вроде
jjuiиjudo. - Некоторые пользователи упоминают проблемы с запуском на Ubuntu 24.04 и отсутствие AppImage или других универсальных форматов для Linux.
- Также поднят вопрос о том, что проект использует Compose Multiplatform и, следовательно, не может быть собран из исходников.
Комментарии (55)
through September, Anthropic has spent more than 100% of its estimated revenue (based on reporting in the last year) on Amazon Web Services, spending $2.66 billion on compute on an estimated $2.55 billion in revenue.Well I don't have to scratch my head any longer and wonder why
Комментарии (50)
"Your childhood just leveled up" as a tagline is pretty revealing. I'm not sure where the company goes after they have mined all the nostalgia. I like the statement "[t]his isn’t tech that controls you. It invites you to play, learn, and create" but I'm struggling to think of how
BERT is just a single text diffusion step 🔥 Горячее
Недавно автор обнаружил, что дискретная языковая диффузия — это просто обобщение masked language modeling (MLM), которое используется в BERT с 2018 года. Gemini Diffusion от Google DeepMind генерирует текст, постепенно уточняя случайный шум, в отличие от традиционных GPT-стиль моделей, создающих текст слово за словом. Автор задался вопросом, можно ли дообучить BERT-подобную модель для генерации текста, и провел эксперимент для проверки этой концепции.
Архитектура Transformer изначально была encoder-decoder моделью, но в 2018 году разделилась на две ветви: encoder-only (BERT-style, двунаправленные) и decoder-only (GPT-style, авторегрессивные). Диффузионные модели для текста применяют принципы, аналогичные обработке изображений, но вместо добавления шума используют маскирование токенов. На прямом процессе постепенно увеличивается количество замаскированных токенов, а на обратном — модель учится восстанавливать исходный текст, предсказывая токены на различных этапах маскирования.
Комментарии (102)
- В 2021 году в статье arXiv:2107.03006 впервые отметили, что маскирование и диффузия текста фактически реализуют один и тот же процесс, и с тех пор моделирующие стороны ведут дискуссию о том, какой из них «настоящий» диффузионный процесс.
- Сторонники диффузии текста утверждают, что она более биологически правдоподобна, потому что человек, формулируя мысль, одновременно формулирует и слова, в то время как автопрегрессивные модели оперируют токенами последовательно, что якобы не соответствует тому, как работает мозг.
- Сторонники же автопрегрессивных моделей отвечают, что в действительности и люди, и модели делают одно и то же, и что внутреннее представление мысли не является дискретным, и потому нет никакой разницы между последовательным и диффузионным подходами.
- Сторонники диффузии текста также утверждают, что если мы хотим, чтобы модель могла бы редактировать или дополнять текст, то она должна уметь удалять и вставлять токены, что невозможно в рамках автопрегрессивного подхода.
- Сторонники автопрегрессивных моделей отвечают, что в действительности диффузионные модели не могут обучаться стабильно без помощи автопрегрессивного механизма, и что в конце концов, оба подхода требуют одни и те же вычислительные и временные затраты, и что поэтому вопрос остается открытым, какой подход лучше подходит для генерации текста.
Servo v0.0.1 🔥 Горячее 💬 Длинная дискуссия
Servo - это проект с открытым исходным кодом, нацеленный на предоставление разработчикам легковесной и высокопроизводительной альтернативы для встраивания веб-технологий в приложения. Проект разрабатывается сообществом и размещен на платформе GitHub, что позволяет открытому сотрудничеству и прозрачности разработки.
Основная цель Servo - создание современного веб-движка, который может быть легко интегрирован в различные приложения, обеспечивая при этом высокую производительность и безопасность. Проект использует современные подходы к разработке и стремится стать стандартом де-факто для встраивания веб-технологий в программное обеспечение.
Комментарии (164)
- Servo выпустил первый релиз 0.0.1 после 50 000 коммитов, но это всё ещё экспериментальный движок, а не полноценный браузер.
- Сообщество обсуждает, что единственный релиз не делает проект готовым к продакшн-использованию, но модульная архитектура Servo позволяет использовать его компоненты в других проектах.
- Несколько участников высказали надежду, что Servo может стать альтернативой Electron-ноде в будущем, но пока что это не более чем надежда.
- Участники также обсуждали, что разработка ведется в рамках Linux Foundation, и что Mozilla, начавший проект, не имеет к нему отношения.
Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system 🔥 Горячее 💬 Длинная дискуссия
Alibaba Cloud представила систему объединения вычислительных ресурсов Aegaeon, которая, по их утверждению, позволяет сократить использование графических процессоров Nvidia на 82%. Новая технология способна обслуживать десятки больших языковых моделей, требуя лишь доли GPU, необходимых ранее.
Во время бета-тестирования на платформе Alibaba Cloud Marketplace в течение более трех месяцев количество необходимых Nvidia H20 GPU для работы с моделями до 72 миллиардов параметров сократилось с 1,192 до 213. Исследователи обнаружили, что 17,7% GPU выделялись для обслуживания всего 1,35% запросов, что свидетельствует о значительной неэффективности в работе с одновременными AI-нагрузками.
Работа была представлена на 31-й Симпозиуме по принципам операционных систем (SOSP) в Сеуле. Один из соавторов исследования - главный технолог Alibaba Cloud Чжоу Цзжэньрен. Aegaeon позиционируется как первая работа, раскрывающая чрезмерные затраты на обслуживание одновременных рабочих нагрузок LLM на рынке.
Комментарии (286)
- Эффективность использования GPU в облаке Alibaba — 17,7 % GPU обрабатывает всего 1,35 % запросов, и вместо 1192 GPU теперь используется 213, что на 82 % меньше.
- US-ограничения на экспорт чипов в Китай — вынуждают китайские компании к инновациям, что может привести к созданию более эффективных решений, которые в будущем могут быть использованы в других странах.
- Сравнение моделей — DeepSeek и Qwen от Alibaba Cloud являются наиболее популярными моделями для инференса, в то время как большинство других моделей используются очень редко, что приводит к неэффективному использованию ресурсов.
- Проблема с лицензиями и открытым исходным кодом — Китайские компании, такие как DeepSeek, начинают отказываться от открытого кода, что может повлиять на развитие AI-сообщества.
- Стоимость и доступность GPU — NVIDIA стоит дороже, чем в Китае, но в то же время, китайские компании могут разрабатывать более дешевые и эффективные решения, что может привести к снижению цен на GPU в будущем.
Комментарии (86)
I was thinking about it, because wife was telling me story from work, where a woman was scammed with AI generated stuff and her colleague was a little too nonchalant about it ( 'it is on her to do her due diligence' ). And it made me annoyed.How can you possibly make due diligenc