Hacker News Digest

Тег: #pci-express

Постов: 4

Prefix sum: 20 GB/s (2.6x baseline) (github.com)

Гитхаб обновил свою систему поиска кода, сделав её более интуитивной и эффективной. Теперь пользователи могут использовать естественный язык для запросов, например, "find all Go repositories where the number of stars is greater than 1000". Это стало возможным благодаря интеграции искусственного интеллекта, который понимает контекст и синтаксис. В качестве примера, разработчики теперь могут искать код с учётом семантики, а не только по ключевым словам. Это улучшение — часть более масштабного обновления экосистемы GitHub, направленного на улучшение discoverability кода.

by ashtonsix • 14 октября 2025 г. в 16:53 • 82 points

ОригиналHN

#github#go#artificial-intelligence#prefix-sum#gpu#pci-express

Комментарии (31)

  • Достигнута пропускная способность 19.8 ГБ/с для префиксной суммы — в 1.8 раз быстрее, чем наивная реализация, и в 2.6 раза быстрее, чем FastPFoR.
  • Обсуждение выявило, что при использовании GPU-реализации приходится копировать данные через PCIe, что снижает выгоду от использования GPU.
  • Появился вопрос о том, не лучше ли было бы хранить абсолютное значение каждые N дельта вместо потока дельта, что позволило бы распараллелить декодирование.
  • Участники обсуждения отметили, что влияние на производительность имеют не только выбор алгоритма, но и такие факторы, как размер кэша L3, частота памяти и архитектура памяти.

Intel's E2200 "Mount Morgan" IPU at Hot Chips 2025 (chipsandcheese.com)

  • Назначение: IPU E2200 «Mount Morgan» выгружает из хост-сервера инфраструктурные задачи (SDN, оркестрация, сбор метрик), освобождая ядра для аренды и повышая изоляцию.
  • Ядра: 24× Arm Neoverse N2 (было 16× N1), 2 МБ L2 на ядро, 2,5 ГГц; производительности хватает для полноценных серверных нагрузок.
  • Память: 4× LPDDR5-6400, 64 ГБ, 51 ГБ/с (vs 25 ГБ/с у предшественника); 32 МБ общего кэша уменьшает нагрузку на контроллеры.
  • Гибкость: может выглядеть как сетевой адаптер для 4 хостов или работать автономно как мини-сервер.

by ingve • 10 сентября 2025 г. в 22:21 • 81 points

ОригиналHN

#arm-neoverse-n2#tsmc#aws-nitro#pci-express#mrio

Комментарии (29)

  • Intel выпустил PCIe-карту «Mount Morgan» с 24-ядерным ARM Neoverse N2 от TSMC — не своим процессом, не своей архитектурой, не своим ISA.
  • Устройство позиционируется как «Nitro на палке»: сетевой контроллер с ARM-ядрами для оффлоада управления, а не полноценный сервер.
  • 4-хостовый MR-IOV-режим повторяет идею AWS Nitro, но вызывает вопросы о необходимости писать под это ПО и боязни, что Intel рано или поздно свернёт проект.
  • Гиперскейлеры вроде Google уже используют предыдущее поколение, поэтому новинка может жить за счёт одного-двух крупных заказчиков или даже продажи IP.
  • Участники сомневаются в долгосрочной стратегии Intel: все производятся на TSMC, собственные 10 nm только разошлись, а гос-структуры США вряд ли позволят компании обанкротиться — «слишком важна для нацбезопасности».

GigaByte CXL memory expansion card with up to 512GB DRAM (gigabyte.com)

by tanelpoder • 06 сентября 2025 г. в 18:17 • 93 points

ОригиналHN

#cxl#pci-express#dram#linux#windows#numa

Комментарии (59)

  • CXL — это стандарт расширения памяти по PCIe: позволяет добавлять сотни гигабайт/терабайт ОЗУ вне материнки, сохраняя когерентность кэшей.
  • Задержка ~200 нс, в ~100 раз выше обычной ОЗУ, но в ~100 раз ниже NVMe; пропускная способность PCIe 5.0 всё ещё высока.
  • Первые «доступные» карты (Gigabyte 512 ГБ) уже продаются, но цена и совместимость пока неясны; требуются CPU и материнка с CXL-поддержкой.
  • Linux/Windows видит память без специальных драйверов, но для эффективного использования нужно перепроектировать алгоритмы (NUMA, tiering).
  • Основные плюсы: дешёвое расширение старой DDR4, shared-memory кластеры, быстрый обмен GPU↔CXL без копирования в основную ОЗУ.

PCIe 8.0 announced by the PCI-Sig will double throughput again (servethehome.com) 💬 Длинная дискуссия

PCI-SIG анонсировала PCIe 8.0

  • Пропускная способность вдвое выше PCIe 7.0: до 256 ГТ/с на линию.
  • Технология: PAM4, 32 ГТ/с, 0,5 В амплитуда, < 1 Вт/лейн энергопотребление.
  • Обратная совместимость с предыдущими поколениями.
  • Спецификация выйдет в 2027 г., первые продукты — 2028–2029 гг.
  • Цели: ИИ-акселераторы, HPC, NVMe-накопители, 800 Гбит/с сети.

by rbanffy • 09 августа 2025 г. в 22:41 • 160 points

ОригиналHN

#pci-express#pam4#llm#hpc#nvme#datacenters#gpu#cpu#ram#pci-sig

Комментарии (188)

  • Кто-то предлагает «перевернуть» архитектуру: пусть GPU-PCB станет материнской платой, а CPU с памятью встаёт в PCIe-слот.
  • Обсуждают, что PCIe-спецификация всегда на три поколения впереди реальных продуктов: сейчас в работе уже Gen 8.
  • Пользователи жалуются на нехватку линий PCIe в десктопах и мечтают о GPU-сокете с собственными слотами RAM.
  • EE и другие специалисты считают это скорее проблемой экосистемы и совместимости, чем чисто инженерной.
  • Упоминают, что в дата-центрах (DGX, DPU, NVMe-«без-сервера») похожая идея уже реализована.