Hacker News Digest

Тег: #hbm

Постов: 3

Cerebras systems raises $1.1B Series G (cerebras.ai)

Cerebras Systems привлекла $1,1 млрд в рамках раунда финансирования серии G, оценив компанию в $8,1 млрд. Инвестиции возглавили Fidelity Management & Research Company и Atreides Management при участии Tiger Global, Valor Equity Partners и других фондов. Средства направят на расширение портфеля технологий в области проектирования AI-процессоров, систем и суперкомпьютеров, а также на увеличение производственных и дата-центровых мощностей в США.

Компания демонстрирует экстремальное превосходство в скорости инференса — её решения до 20 раз быстрее GPU NVIDIA, что привлекло таких клиентов, как AWS, Meta, IBM и US Department of Defense. Cerebras обрабатывает триллионы токенов ежемесячно и лидирует на Hugging Face с 5+ млн запросов. Рост спроса подогревают реальные use-cases вроде генерации кода и агентных систем, где задержки критически дороги.

by fcpguru • 30 сентября 2025 г. в 15:54 • 75 points

ОригиналHN

#llm#ai-processors#supercomputers#aws#meta#ibm#huggingface#gpu#sram#hbm

Комментарии (36)

  • Cerebras впечатляет скоростью инференса благодаря уникальной архитектуре с огромным объемом SRAM, но сталкивается с критикой за ненадежность и проблемы с качеством ответов в кодинге
  • Пользователи отмечают неясную стратегию ценообразования и развертывания, высокую стоимость подписок и минимальные месячные обязательства
  • Обсуждаются возможные причины, по которым компания до сих пор не приобретена: высокая стоимость чипов, сложности упаковки, инвестиции ОАЭ и возможные проблемы, выявленные в ходе due diligence
  • Поднимается вопрос, почему компания не заменяет часть ядер на чипе на HBM-память, и обсуждаются технические сложности такой интеграции
  • Высказываются предположения, что крупные игроки (Amazon, IBM) могут проявить интерес к приобретению, но отмечается, что у Amazon уже есть собственные чипы Trainium

We bought the whole GPU, so we're damn well going to use the whole GPU (hazyresearch.stanford.edu) 🔥 Горячее

Исследователи из Hazy Research разработали высокопроизводительный мегаядро для тензорно-параллельного вывода Llama-70B на H100, которое агрессивно перекрывает вычисления, работу с памятью и коммуникацию между GPU. Это позволяет одновременно задействовать различные аппаратные ресурсы: тензорные ядра, модули для нетензорных операций, пропускную способность HBM и NVLink. В интеграции с движком Tokasaurus их решение превосходит SGLang на >22% по общей пропускной способности при обработке 65 536 промптов из ShareGPT.

Ключевая идея — использование интерпретатора инструкций, работающего на каждом SM, который позволяет гибко планировать выполнение разнородных операций. Это обеспечивает перекрытие на нескольких уровнях: внутри SM (память и вычисления), между SM (матричные умножения и нормирование) и между GPU (скрытие задержек связи за счёт специальных потоков). Особенно отмечается простота реализации сложных трансформаций данных между GPU прямо после attention-слоя, что трудно выразить стандартными средствами коммуникации.

by sydriax • 28 сентября 2025 г. в 21:00 • 470 points

ОригиналHN

#gpu#tensor-cores#nvlink#llama#parallel-computing#computational-optimization#nvidia#deep-learning#hbm#gpu-virtualization

Комментарии (94)

  • Обсуждение эффективности использования GPU: использование всех блоков (NVDEC, NVJPG, RT и тензорные ядра) для декомпрессии весов и вычислений, аналогии с оптимизацией под консоли.
  • Проблемы инструментов и драйверов: отставание языков, библиотек и драйверов от возможностей современного железа, сложности компиляторов для гетерогенных систем.
  • Виртуализация и разделение ресурсов GPU: обсуждение MIG, MPS для многопользовательского использования, риски утечки данных и ограничения этих технологий.
  • Сравнение с другими платформами: упоминание Apple Metal и открытости драйверов, потенциал использования GPU для аудиообработки и сигналов.
  • Критика и ирония: сравнение стиля статьи с "Трансгрессия границ", комментарии о "коде, который не предназначен для поддержки" и неожиданно доступных оптимизациях в крупных лабораториях.

SK hynix dethrones Samsung as world’s top DRAM maker (koreajoongangdaily.joins.com)

SK hynix обошла Samsung и впервые с 1992 года стала крупнейшим производителем DRAM.

Причина — бум на HBM для ИИ.

  • SK hynix контролирует ~50 % рынка HBM3/3E, поставляет чипы для NVIDIA.
  • Samsung отстала в HBM, теряет долю в общем DRAM.
  • Объём DRAM: SK hynix — 35 %, Samsung — 34 %.

Выручка SK hynix выросла на 125 % кв/кв, Samsung — на 28 %.

by ksec • 17 августа 2025 г. в 17:31 • 159 points

ОригиналHN

#sk-hynix#samsung#nvidia#drams#hbm#ddr5

Комментарии (67)

  • Пользователи обсуждают, как американцу купить акции SK Hynix: Interactive Brokers предлагает вторичные листинги HY9H (Германия) и HXSCL (США).
  • DRAM-производители: Samsung, SK Hynix и Micron — лидеры; SK Hynix сейчас делает самые быстрые модули DDR5.
  • SK Group — типичный корейский чеболь, крупный, семейный, публичные дочки (SK Hynix торгуется на KRX), но холдинг частично частный.
  • Успех SK связывают с фокусом на «жёсткие» науки, лучшими выпускниками и долгосрочным капиталом.
  • Побочно: 64 ГБ ОЗУ хотят сделать новым минимумом для локального запуска LLM.