Our European search index goes live
Ecosia начал отдавать часть результатов поиска из нового европейского индекса, созданного совместно с Qwant. Пока это касается Франции: к концу года 50 % запросов там будет обрабатываться собственным индексом, далее — другие страны.
Что это значит
Индекс — это база, из которой поисковик берёт ответы. До сих пор почти все мелкие поисковики зависели от «Большой тройки». Новый индекс Staan даёт альтернативу: быстрый, приватный и подконтрольный Европе.
Зачем независимость
Большая часть европейских облаков, ИИ и поиска сидит на американских стеках. Отключи их — и континент останется без ключевых сервисов. Собственный индекс снижает риски, позволяет развивать этичный ИИ и сохранять приватность.
Что дальше
EUSP открыт для внешних инвестиций и других компаний, создавая конкурентную среду и основу для инноваций. Пользователи Ecosia пока не заметят изменений, но этот шаг укрепляет европейскую цифровую автономию и помогает продвигать климатическую миссию.
Комментарии (104)
- Пользователи жалуются на «грязный» стартовый экран Ecosia и отсутствие настройки выдачи.
- Выпущен французский пилот европейского поискового индекса Staan (Ecosia + Qwant); скорость и качество приятно удивили, но охват пока мал.
- Большинство поддерживает идею «цифрового суверенитета» ЕС, но спорят: ли это реальная демократия или просто замена американского контроля европейским.
- Критика «Chat Control» и цензуры; противники считают, что ЕС всё равно лучше США и Китая, потому что можно голосовать.
- Некоторые сомневаются в честности маркетинга Ecosia («сажают деревья только за клики по рекламе»).
The Framework Desktop is a beast 🔥 Горячее 💬 Длинная дискуссия
Framework Desktop — компактный 4,5-литровый ПК, который почти не шумит даже под полной нагрузкой. Внутри — мобильный AMD Ryzen AI Max 395+ (16 ядер Zen5, 5,1 ГГц), и он оказывается быстрее старого Ryzen 9 7950X в большом корпусе.
Корпус разукрашивается 21 сменной плиткой, можно печатать свои. Внешне — свежий минимализм вместо алюминия и RGB.
По производительности:
- Docker-тест HEY: почти вдвое быстрее Beelink SER8 и на 40 % опережает M4 Max.
- Geekbench 6 multi-core: на уровне M4 Max, заметно выше M4 Pro и Core i9-14900K.
- Одноядерка уступает Apple ≈20 %, но для многопоточных задач это лидер.
Цена выше, чем у Beelink, но пока это единственный безвентиляторный 395+ на рынке.
Комментарии (353)
- Framework Desktop с Ryzen AI Max+ 395 даёт 64–128 ГБ единой памяти, позволяя запускать крупные LLM без дискретной видеокарты и дешевле, чем Mac Studio, но дороже Mini.
- Производительность ниже CUDA-карт Nvidia и M4 Max, зато выше, чем у iGPU Intel и старых решений.
- Многие сомневаются в цене и форм-факторе: за те же деньги можно взять Minisforum, Beelink, HP Z2 Mini или собрать полноценный десктоп.
- Пока CUDA-стека нет, AMD-совместимость с популярными AI-фреймворками ограничена.
- Ремонтопригодность и модульность Framework оценили, но в десктоп-сегменте это не уникально.
Ask HN: How can ChatGPT serve 700M users when I can't run one GPT-4 locally? 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (306)
- У OpenAI десятки миллиардов долларов на кластеры GPU (по $20–40 тыс. за карту) и инфраструктуру, чего нет у обычного пользователя.
- Ключевая «фишка» — массовое батчирование запросов: одновременная обработка тысяч пользователей позволяет загружать видеопамять и вычислительные блоки почти на 100 %, тогда как дома GPU простаивает.
- Используются Mixture-of-Experts, спекулятивное декодирование, конвейерная разбивка модели по GPU и прочие оптимизации, снижающие затраты на одного пользователя.
- Большинство пользователей активны лишь доли процента времени, поэтому общая нагрузка оказывается меньше, чем кажется по 700 млн «weekly users».
- Всё это — классический эффект экономии масштаба: высокие фиксированные затраты и почти нулевые переменные на одного юзера делают запуск GPT-4 локально невыгодным.
Build durable workflows with Postgres
-
Выбор хранилища метаданных рабочих процессов оказался ключевым. Нужно было простое: чекпойнт состояния и восстановление после сбоя. Postgres выбрали за технические возможности, а не только за популярность и 40-летнюю проверку временем.
-
Масштабируемые очереди
Классическая таблица-очередь страдает от конкуренции: все воркеры пытаются взять одни и те же задачи. Postgres решает это черезFOR UPDATE SKIP LOCKED
: строки блокируются и пропускаются, если уже захвачены. Воркеры без конфликтов берут следующие N записей, позволяя обрабатывать десятки тысяч задач в секунду. -
Наблюдаемость
Каждый шаг сохраняется, поэтому можно строить дашборды и фильтры. SQL позволяет писать сложные запросы напрямую; индексы поcreated_at
,executor_id
,status
ускоряют выборки из миллионов записей без лишних затрат. -
Exactly-once для шагов с БД
Обычно гарантируется «по крайней мере один раз», но если шаг меняет данные в той же транзакции, что и чекпойнт, Postgres обеспечит, что изменения зафиксируются ровно один раз даже после перезапуска.
Комментарии (49)
- Пользователи хвалят DBOS за простоту миграции с graphile-worker и отсутствие необходимости менять инфраструктуру.
- Сравнения с Temporal, Azure Durable Functions, Inngest, Restate и Cloudflare: DBOS выглядит проще и легче, но Temporal/Cloudflare критикуют за сложность самостоятельного хостинга и высокую цену.
- Некоторые жалуются, что «сервер» DBOS (Conductor) не open-source, что ограничивает самостоятельное развёртывание.
- Планы по добавлению Java, C#, Go и поддержке сообщества уже анонсированы; Python и TypeScript уже поддерживаются.
- Отмечена возможность комбинировать DBOS с Dagster/Oban/pgflow для более сложной оркестрации.
Efrit: A native elisp coding agent running in Emacs
efrit — агент для написания кода на чистом Elisp, работающий прямо в Emacs.
Он читает/пишет буферы, запускает команды, ищет документацию, тестирует и рефакторит код, используя только встроенные средства Emacs и внешние процессы.
Возможности
- Понимает структуру проекта (файлы, зависимости, тесты).
- Пишет новые функции, классы, тесты, документацию.
- Исправляет баги и предлагает улучшения.
- Работает в фоне и может действовать по хукам (сохранение, коммит).
Установка
(use-package efrit
:straight (:host github :repo "steveyegge/efrit"))
Запуск: M-x efrit-mode
в нужном буфере или (efrit-global-mode 1)
для всей сессии.
Команды
efrit-suggest-improvements
— предложения по коду.efrit-write-tests
— сгенерировать тесты.efrit-explain-region
— объяснить выделенный фрагмент.
Конфигурация
(setq efrit-model "gpt-4o-mini"
efrit-max-tokens 4000
efrit-auto-save t)
Статус
Альфа-версия; API может меняться. Пул-реквесты и issue приветствуются.
Комментарии (29)
- Пользователи обсуждают новый Emacs-пакет Efrit (от Steve Yegge) для AI-ассистента внутри редактора.
- Уточняют, что «efrit» — это игра слов: «e» (emacs) + «ifrit» (разновидность джинна).
- Сравнивают с gptel: Efrit пока заточен под Anthropic, в то время как gptel поддерживает множество бэкендов.
- Кто-то уже запустил Efrit c Gemini через прокси, другие жалуются на ошибки и отсутствие документации.
- Параллельно идёт спор о «современном» способе конфигурировать Emacs: bedrock, doom, ручной минимализм vs «сделать из Emacs VS Code».
Jim Lovell, Apollo 13 commander, has died 🔥 Горячее
Временный глава NASA Джанет Петро назвала Джима Ловелла «символом бесстрашия и изобретательности», чьи полёты на «Джемини 7», «Джемини 12» и «Аполлоне-8» задали курс лунной программе.
Она подчеркнула, что «Аполлон-13» превратил потенциальную катастрофу в «триумф человеческого духа» благодаря хладнокровию Ловелла и команды.
Петро отметила, что наследие астронавта продолжает вдохновлять новые поколения исследователей, а его жизнь — «напоминание о силе смелости, смекалки и командной работы».
Комментарии (110)
- Умер Джим Ловелл — единственный человек, дважды летавший к Луне, но не ступивший на неё (Apollo 8 и 13).
- Участники вспоминают встречи с ним, его шутки («вы ждали Тома Хэнкса?») и выступления в университетах.
- Отмечают, что в фильме «Apollo 13» сам Ловелл сыграл капитана корабля, встречающего экипаж.
- Подчёркивают спокойствие и мастерство экипажа Apollo 13, а также то, что Ловелл прожил долгую жизнь, умерев 7 августа.
- Выражают соболезнования и желание вернуться на Луну «пока не ушли все герои».
How to teach your kids to play poker: Start with one card 💬 Длинная дискуссия
- Начните с одной карты: каждый игрок получает рубашкой вверх карту и делает ставку, зная лишь свою.
- Цель — понять, что покер — это ставки на неполную информацию.
- Добавляйте по одному элементу: две карты, общие карты, комбинации, блайнды, позиции.
- Используйте фишки-конфеты и короткие сессии (10 минут).
- Подчеркивайте математику: шансы, outs, ожидание.
- Обсуждайте банкролл-менеджмент: «не ставь больше, чем готов потерять».
- Играйте открыто: показывайте карты, объясняйте решения.
- Переходите к Техасскому холдему только после освоения базы.
Комментарии (170)
- Участники спорят: полезен ли покер как способ обучения детей принятию решений при неполной информации и расчёту вероятностей.
- Одни считают, что игра развивает критическое мышление и умение «читать» людей; другие боятся, что это введёт ребёнка в мир азартных игр.
- Многие подчёркивают: покер можно играть без денег, используя фишки или спички, тогда он становится обычной семейной игрой.
- Предложены альтернативы: Skull, Monopoly Deal, шахматы, го, блэкджек — всё, что учит стратегии без ставок.
- Общий вывод: покер сам по себе не «дегенеративен», но важно подавать его детям в безопасной форме и с правильной мотивацией.
I want everything local – Building my offline AI workspace 🔥 Горячее 💬 Длинная дискуссия
- Локальный стек: Ollama (LLM), assistant-ui (веб-интерфейс), Apple
container
(изолированные ВМ), Playwright (браузер), coderunner (MCP-сервер с Jupyter). - Цель: чат, запуск кода и доступ в интернет без облаков и утечек данных.
- Проблемы:
– Модели Ollama пока не поддерживают вызовы инструментов.
– Создание нативного Mac-приложения провалилось:a0.dev
заточен под iOS, Electron + NextJS оказались геморроем.
– Applecontainer
часто падает сTrap
; помогаетpkill
+ перезапуск. - Решения:
– Веб-версияassistant-ui
черезai-sdk
с выпадающим списком моделей (локальных и облачных).
– Jupyter в изолированной ВМ, доступен по MCP:http://coderunner.local:8222/mcp
.
– Конфиг для Claude Desktop:"coderunner": { "httpUrl": "http://coderunner.local:8222/mcp" }
.
Комментарии (274)
- Участники восхищаются локальной, «песочной» архитектурой для приватного AI-воркспейса и инструментом
coderunner
, но отмечают, что узкие места — это не только софт, но и «железо»: 80B-модели требуют ≥80 ГБ быстрой RAM, что доступно разве что на RTX 4090 или Strix Halo. - Критичным становится слой знаний: RAG над личными файлами требует вектор-БД, а значит — много диска и оперативки; Docker-обёртка или
docker compose up -d
просится как минимальный способ разворачивания. - Пока локальные модели — скорее «увлекательное хобби» (медленно, глючно, нужен тюнинг), чем рабочий инструмент; облачные API (Cerebras, Groq) дают 1000 ток/с, но подрывают приватность.
- Сообщество просит готовый «всё-в-одном» стек: веб-поиск, голосовой режим, image-gen, лёгкий switch «локально ↔ облако» без потери данных.
- Несколько участников делятся своими решениями: Kasm + Ollama, Open WebUI, MLX-электрон-приложение, Synology-NAS-контейнеры, браузерный LLM без установки.
The surprise deprecation of GPT-4o for ChatGPT consumers 🔥 Горячее 💬 Длинная дискуссия
- OpenAI одновременно с выпуском GPT-5 немедленно отключила в потребительских приложениях все старые модели: GPT-4o, 4.1, 4.5, o3, o4-mini и др.
- Переписки автоматически переводятся на GPT-5 или GPT-5-Thinking; выбрать старую модель нельзя.
- Цель — убрать «пикер моделей», но продвинутые пользователи жалуются на непредсказуемость ответов.
- Многие горько жалуются на Reddit: GPT-4o лучше подходил для творчества, ролевых игр, эмоционального общения; GPT-5 звучит «слишком профессионально».
- OpenAI признаёт, что 4o мог вдохновлять эмоциональную зависимость и обещает «не давать прямых советов» в личных вопросах.
- GPT-4o остаётся в API; возможен отток пользователей к сторонним клиентам, использующим этот API.
Комментарии (378)
- OpenAI сначала убрала выбор моделей, но после взрыва негодования вернула 4o и o3, признав «ошибку».
- Пользователи жалуются на резкие лимиты GPT-5, его медленность и регресс в некоторых задачах; многие считают апгрейд скромным.
- Обсуждают «психологическую зависимость» от старых моделей и даже целый сабреддит «MyBoyfriendIsAI».
- Разработчики подчеркивают: отсутствие контроля над закрытыми API превращает любой продукт в «строительство на песке».
A message from Intel CEO Lip-Bu Tan to all company employees 💬 Длинная дискуссия
Послание сотрудникам от CEO Intel Лип-Бу Тана, 7 августа 2025 г.
- О себе. США — мой дом 40+ лет; возглавлять Intel считаю привилегией.
- Суть. Сегодня много новостей; хочу говорить прямо и честно.
- Приоритеты.
- Безопасность и доверие — защита данных клиентов и сотрудников.
- Инновации — лидерство в ИИ, полупроводниках, технологиях будущего.
- Культура — открытость, разнообразие, поддержка друг друга.
- Обещание. Быть на связи, принимать быстрые решения, сохранять прозрачность.
- Призыв. Вместе превратим вызовы в возможности и продолжим «вдохновлять мир технологиями».
Комментарии (199)
- Трамп публично обвинил нового CEO Intel Лип-Бу Тана в «конфликтах интересов» из-за его связей с китайскими компаниями.
- Участники обсуждают, как совет директоров мог утвердить Тана, несмотря на судебные проблемы в прошлом.
- Многие считают, что Intel упустила кучу возможностей (например, не выпустила ARC-карты с 32–64 ГБ памяти).
- Поднимается вопрос: не идёт ли Intel к де-факто национализации, учитывая миллиардные субсидии и вмешательство властей.
- Сторонники Тана отмечают, что он 40+ лет живёт в США, а обвинения пока без конкретных доказательств.