Hacker News Digest

26 сентября 2025 г. в 01:43 • arxiv.org • ⭐ 85 • 💬 35

OriginalHN

#neural-networks#binary-neural-networks#machine-learning#binary-weight-representation#activation-normalization#edge-computing#model-compression#quantization#deep-learning#arxiv

Bit is all we need: binary normalized neural networks

Новая архитектура бинарных нормализованных нейросетей (BNNN) показывает, что для эффективного представления весов достаточно всего одного бита. Вместо традиционных 32-битных значений BNNN использует бинарные веса (±1), что резко сокращает требования к памяти и вычислительной сложности. Это особенно важно для развёртывания моделей на устройствах с ограниченными ресурсами, таких как микроконтроллеры или мобильные телефоны.

Эксперименты подтверждают, что BNNN сохраняет конкурентную точность на задачах классификации изображений, несмотря на экстремальное сжатие. Метод включает нормализацию активаций, что компенсирует потерю информации от бинаризации. Практический вывод: бинарные представления могут быть достаточны для многих приложений, открывая путь к более энергоэффективному ИИ.