Hacker News Digest

Обновлено: 21 ноября 2025 г. в 23:38

Постов: 4408 • Страница 123/441

What do we do if SETI is successful? (universetoday.com) 💬 Длинная дискуссия

Международная академия астронавтики обновляет протоколы действий при обнаружении внеземного разума — крупнейшие изменения за 36 лет. Новые рекомендации, принятые на конгрессе в Сиднее, отражают современную сложность ситуации, включая защиту исследователей от онлайн-травли. Ключевое изменение — запрет на ответное сообщение до обсуждения в ООН, что контрастирует с предыдущими версиями, допускавшими немедленный ответ.

Протокол включает методы верификации сигнала, требования к хранению данных в двух географически разделенных местах и анализ собранной информации. Для электромагнитных сигналов предлагается обратиться в Международный союз электросвязи для освобождения обнаруженной полосы частот. Эти меры остаются рекомендациями, а не обязательными правилами, и не касаются активного послания внеземным цивилизациям (METI), которое остается спорным вопросом без формальных протоколов.

by leephillips • 20 октября 2025 г. в 17:13 • 154 points

ОригиналHN

#seti#international-cooperation#communication-protocols#data-storage#international-telecommunication-union#space-exploration#ethics

Комментарии (265)

  • В обсуждении поднимаются вопросы о последствиях обнаружения сигнала SETI и о том, что делать в таком случае, включая вопросы безопасности, международного сотрудничества и этических аспектов.
  • Участники обсуждения высказывают мнение, что обнаружение сигнала может привести к панике, и что необходимо тщательно продумать, как и когда об этом сообщать.
  • Обсуждается вопрос о том, что делать, если обнаружение подтвердится, включая вопросы о том, как ответить, кто будет отвечать и что делать, если ответа не будет.
  • Также обсуждается вопрос о том, что делать, если обнаружение окажется ложным или если мы никогда не получим ответа.
  • Участники обсуждения также обсуждают вопрос о том, что делать, если обнаружение будет подтверждено, и какие последствия это может иметь для человечества.

Production RAG: what I learned from processing 5M+ documents (blog.abdellatif.io) 🔥 Горячее

За 8 месяцев работы над RAG-системами для обработки 13+ миллионов документов автор выявил ключевые факторы успеха. Начав с типового стека Langchain + Llamaindex по туториалам, команда столкнулась с тем, что прототип на 100 документах показывал отличные результаты, а на полном наборе данных - провальные. Основные улучшения, давшие наибольший эффект: генерация множества семантических и ключевых запросов параллельно с исходным, реранкинг (оптимальное соотношение 50:15 чанков), тщательная настройка чанкинга с сохранением логических единиц, добавление метаданных в контекст LLM и маршрутизация запросов, не требующих поиска по базе.

Технологический эволюция включала переход от Azure к Pinecone, а затем Turbopuffer для векторного хранилища, от Cohere к Zerank для реранкинга, и от GPT-4.1 к GPT-5 и обратно. Автор подчеркивает, что реранкинг - "самые ценные 5 строк кода", а на чанкинг уходит большая часть времени. Весь опыт был упакован в open-source проект agentset под лицензией MIT.

by tifa2up • 20 октября 2025 г. в 15:55 • 492 points

ОригиналHN

#langchain#llamaindex#azure#pinecone#turbopuffer#cohere#zerank#gpt-4#gpt-5#rag

Комментарии (104)

  • Обсуждение охватывает широкий спектр тем: от генерации синтетических запросов и проблем с их качеством до самостоятельного хостинга, отсутствия настоящего самостоятельного хостинга и до влияния выбора модели эмбеддинга на качество и стоимость.
  • Участники обмениваются практическими советами по оптимизации чанкинга, реранкинга и использованию различных моделей эмбеддинга и ранжирования.
  • Обсуждаются сложности с интеграцией и стоимостью при использовании сторонних сервисов, а также вопросы безопасности и контроля при использовании облачных сервисов.
  • Рассматриваются вопросы о том, какие факторы действительно важны при выборе инструментов и подходов, и какие из них являются просто маркетинговыми фишками.

Postman which I thought worked locally on my computer, is down (status.postman.com) 🔥 Горячее 💬 Длинная дискуссия

by helloguillecl • 20 октября 2025 г. в 15:40 • 421 points

ОригиналHN

#postman#insomnia#curl#rest#api#http#vscode#jetbrains

Комментарии (198)

  • Пользователи жалуются, что Postman и другие инструменты стали требовать онлайн-авторизацию и не работают оффлайн, что стало причиной перехода на альтернативы.
  • Популярные альтернативы включают Insomnia, Bruno, Yaak и httpie, которые предлагают оффлайн-функциональность и не требуют входа в систему.
  • Некоторые разработчики предпочитают использовать встроенные инструменты IDE, такие как VS Code REST Client или JetBrains HTTP Client, или просто curl.
  • Обсуждение также коснулось того, что некоторые инструменты могут быть слишком сложными для простых задач, в то время как другие могут не хватать функциональности для более сложных сценариев.
  • Некоторые участники упомянули, что выбор инструмента может зависеть от размера команды, сложности API и необходимости коллаборативной работы.

Show HN: I created a cross-platform GUI for the JJ VCS (Git compatible) (judojj.com)

Judo — полнофункциональный графический интерфейс для системы контроля версий JJ VCS (также работает с Git-репозиториями). Приложение предлагает визуальные инструменты для управления коммитами, включая журнал операций для возврата репозитория в любую точку времени с возможностью отмены и повтора изменений. Пользователи могут просматривать объединенные диффы нескольких коммитов, применять или откатывать части изменений (ханки) для файлов или коммитов, а также использовать кастомные revsets для фильтрации коммитов по описаниям, авторам и другим параметрам.

Особые возможности включают drag-and-drop перебазирование, продвинутые операции вроде дублирования, разделения, отмены, поглощения и сжатия коммитов, а также управление закладками. Приложение доступно для macOS, Windows и Linux (Ubuntu/Debian), что делает его универсальным инструментом для разработчиков, предпочитающих визуальный подход к работе с системой контроля версий.

by bitpatch • 20 октября 2025 г. в 15:35 • 129 points

ОригиналHN

#git#jj-vcs#compose-multiplatform#macos#windows#linux

Комментарии (32)

  • Пользователи обсуждают проект, который, похоже, закрытого исходного кода и не предоставляет информации о себе, что вызывает вопросы доверия.
  • Несколько человек выразили желание, чтобы проект стал open-source, даже если бы это ограничило бы только чтение кода.
  • Пользователи также обсуждают трудности поиска информации о проекте из-за пересечения названий "jujutsu", "judo" и "git", а также упоминают существующие альтернативы вроде jjui и judo.
  • Некоторые пользователи упоминают проблемы с запуском на Ubuntu 24.04 и отсутствие AppImage или других универсальных форматов для Linux.
  • Также поднят вопрос о том, что проект использует Compose Multiplatform и, следовательно, не может быть собран из исходников.

Anthropic and Cursor Spend This Much on Amazon Web Services (wheresyoured.at)

by isoprophlex • 20 октября 2025 г. в 15:05 • 87 points

ОригиналHN

Комментарии (55)

through September, Anthropic has spent more than 100% of its estimated revenue (based on reporting in the last year) on Amazon Web Services, spending $2.66 billion on compute on an estimated $2.55 billion in revenue.Well I don't have to scratch my head any longer and wonder why

Commodore 64 Ultimate (commodore.net)

by guerrilla • 20 октября 2025 г. в 14:55 • 108 points

ОригиналHN

Комментарии (50)

"Your childhood just leveled up" as a tagline is pretty revealing. I'm not sure where the company goes after they have mined all the nostalgia. I like the statement "[t]his isn’t tech that controls you. It invites you to play, learn, and create" but I'm struggling to think of how

BERT is just a single text diffusion step (nathan.rs) 🔥 Горячее

Недавно автор обнаружил, что дискретная языковая диффузия — это просто обобщение masked language modeling (MLM), которое используется в BERT с 2018 года. Gemini Diffusion от Google DeepMind генерирует текст, постепенно уточняя случайный шум, в отличие от традиционных GPT-стиль моделей, создающих текст слово за словом. Автор задался вопросом, можно ли дообучить BERT-подобную модель для генерации текста, и провел эксперимент для проверки этой концепции.

Архитектура Transformer изначально была encoder-decoder моделью, но в 2018 году разделилась на две ветви: encoder-only (BERT-style, двунаправленные) и decoder-only (GPT-style, авторегрессивные). Диффузионные модели для текста применяют принципы, аналогичные обработке изображений, но вместо добавления шума используют маскирование токенов. На прямом процессе постепенно увеличивается количество замаскированных токенов, а на обратном — модель учится восстанавливать исходный текст, предсказывая токены на различных этапах маскирования.

by nathan-barry • 20 октября 2025 г. в 14:31 • 432 points

ОригиналHN

#bert#mlm#diffusion#transformer#gemini-diffusion#llm#nlp#arxiv

Комментарии (102)

  • В 2021 году в статье arXiv:2107.03006 впервые отметили, что маскирование и диффузия текста фактически реализуют один и тот же процесс, и с тех пор моделирующие стороны ведут дискуссию о том, какой из них «настоящий» диффузионный процесс.
  • Сторонники диффузии текста утверждают, что она более биологически правдоподобна, потому что человек, формулируя мысль, одновременно формулирует и слова, в то время как автопрегрессивные модели оперируют токенами последовательно, что якобы не соответствует тому, как работает мозг.
  • Сторонники же автопрегрессивных моделей отвечают, что в действительности и люди, и модели делают одно и то же, и что внутреннее представление мысли не является дискретным, и потому нет никакой разницы между последовательным и диффузионным подходами.
  • Сторонники диффузии текста также утверждают, что если мы хотим, чтобы модель могла бы редактировать или дополнять текст, то она должна уметь удалять и вставлять токены, что невозможно в рамках автопрегрессивного подхода.
  • Сторонники автопрегрессивных моделей отвечают, что в действительности диффузионные модели не могут обучаться стабильно без помощи автопрегрессивного механизма, и что в конце концов, оба подхода требуют одни и те же вычислительные и временные затраты, и что поэтому вопрос остается открытым, какой подход лучше подходит для генерации текста.

Servo v0.0.1 (github.com) 🔥 Горячее 💬 Длинная дискуссия

Servo - это проект с открытым исходным кодом, нацеленный на предоставление разработчикам легковесной и высокопроизводительной альтернативы для встраивания веб-технологий в приложения. Проект разрабатывается сообществом и размещен на платформе GitHub, что позволяет открытому сотрудничеству и прозрачности разработки.

Основная цель Servo - создание современного веб-движка, который может быть легко интегрирован в различные приложения, обеспечивая при этом высокую производительность и безопасность. Проект использует современные подходы к разработке и стремится стать стандартом де-факто для встраивания веб-технологий в программное обеспечение.

by undeveloper • 20 октября 2025 г. в 12:55 • 519 points

ОригиналHN

#servo#web-engine#open-source#rust#linux-foundation#electron#github

Комментарии (164)

  • Servo выпустил первый релиз 0.0.1 после 50 000 коммитов, но это всё ещё экспериментальный движок, а не полноценный браузер.
  • Сообщество обсуждает, что единственный релиз не делает проект готовым к продакшн-использованию, но модульная архитектура Servo позволяет использовать его компоненты в других проектах.
  • Несколько участников высказали надежду, что Servo может стать альтернативой Electron-ноде в будущем, но пока что это не более чем надежда.
  • Участники также обсуждали, что разработка ведется в рамках Linux Foundation, и что Mozilla, начавший проект, не имеет к нему отношения.

Alibaba Cloud says it cut Nvidia AI GPU use by 82% with new pooling system (tomshardware.com) 🔥 Горячее 💬 Длинная дискуссия

Alibaba Cloud представила систему объединения вычислительных ресурсов Aegaeon, которая, по их утверждению, позволяет сократить использование графических процессоров Nvidia на 82%. Новая технология способна обслуживать десятки больших языковых моделей, требуя лишь доли GPU, необходимых ранее.

Во время бета-тестирования на платформе Alibaba Cloud Marketplace в течение более трех месяцев количество необходимых Nvidia H20 GPU для работы с моделями до 72 миллиардов параметров сократилось с 1,192 до 213. Исследователи обнаружили, что 17,7% GPU выделялись для обслуживания всего 1,35% запросов, что свидетельствует о значительной неэффективности в работе с одновременными AI-нагрузками.

Работа была представлена на 31-й Симпозиуме по принципам операционных систем (SOSP) в Сеуле. Один из соавторов исследования - главный технолог Alibaba Cloud Чжоу Цзжэньрен. Aegaeon позиционируется как первая работа, раскрывающая чрезмерные затраты на обслуживание одновременных рабочих нагрузок LLM на рынке.

by hd4 • 20 октября 2025 г. в 12:31 • 501 points

ОригиналHN

#alibaba-cloud#nvidia#gpu#llm#cloud-computing#deepseek#qwen

Комментарии (286)

  • Эффективность использования GPU в облаке Alibaba — 17,7 % GPU обрабатывает всего 1,35 % запросов, и вместо 1192 GPU теперь используется 213, что на 82 % меньше.
  • US-ограничения на экспорт чипов в Китай — вынуждают китайские компании к инновациям, что может привести к созданию более эффективных решений, которые в будущем могут быть использованы в других странах.
  • Сравнение моделей — DeepSeek и Qwen от Alibaba Cloud являются наиболее популярными моделями для инференса, в то время как большинство других моделей используются очень редко, что приводит к неэффективному использованию ресурсов.
  • Проблема с лицензиями и открытым исходным кодом — Китайские компании, такие как DeepSeek, начинают отказываться от открытого кода, что может повлиять на развитие AI-сообщества.
  • Стоимость и доступность GPU — NVIDIA стоит дороже, чем в Китае, но в то же время, китайские компании могут разрабатывать более дешевые и эффективные решения, что может привести к снижению цен на GPU в будущем.

AI-generated 'poverty porn' fake images being used by aid agencies (theguardian.com)

by KolmogorovComp • 20 октября 2025 г. в 12:17 • 111 points

ОригиналHN

Комментарии (86)

I was thinking about it, because wife was telling me story from work, where a woman was scammed with AI generated stuff and her colleague was a little too nonchalant about it ( 'it is on her to do her due diligence' ). And it made me annoyed.How can you possibly make due diligenc