Hacker News Digest

Тег: #arc-agi

Постов: 2

Less is more: Recursive reasoning with tiny networks (alexiajm.github.io) 🔥 Горячее

Предложена новая архитектура Tiny Recursive Model (TRM), которая использует рекурсивные вызовы одной маленькой сети всего с двумя слоями и 7 миллионами параметров для решения сложных логических задач. Она превосходит большие языковые модели, достигая 45% точности на тестах ARC-AGI-1 и 8% на ARC-AGI-2, что выше результатов многих LLM, включая Deepseek R1 и Gemini 2.5 Pro.

Метод демонстрирует, что рекурсивное мышление с минимальными вычислительными ресурсами может эффективно справляться с задачами, требующими абстрактного рассуждения, такими как судоку и лабиринты. Это открывает перспективы для создания более эффективных ИИ-систем, способных обобщать знания на основе небольшого количества примеров.

by guybedo • 07 октября 2025 г. в 17:42 • 260 points

ОригиналHN

#recursive-neural-networks#deep-learning#artificial-intelligence#arc-agi#large-language-models#deepseek-r1#gemini-2.5-pro#sudoku#maze-solving#arxiv

Комментарии (54)

  • Предложена новая архитектура HRM, использующая две рекуррентные нейросети с разной частотой
  • Модель вдохновлена биологическими принципами иерархического мышления
  • Превосходит большие языковые модели (LLM) в решении сложных головоломок (Судоку, Лабиринты, ARC-AGI)
  • Обучена на небольших моделях (27M параметров) и малом количестве данных (~1000 примеров)
  • Перспективна для решения сложных задач с малыми вычислительными ресурсами

Комментарии (71)

  • LLMs демонстрируют сильные способности в математике и науке, но проваливаются на простых визуальных и пространственных головоломках, таких как Sokoban или ARC-AGI.
  • Основная проблема LLM — отсутствие подлинного понимания и рассуждений; они работают через распознавание паттернов, а не через логическое мышление.
  • LLMs особенно слабы в пространственных рассуждениях, так как обучались в основном на текстовых данных, а не на визуальной информации.
  • Некоторые участники связывают неудачи LLM с форматом представления данных (например, визуальные головоломки в текстовом виде) и отсутствием мощных препроцессинговых блоков для изображений.
  • Предлагаются методы улучшения, включая эволюционные алгоритмы, поиск с подкреплением (RL) и создание каркасов (scaffolding) для решения задач.
  • Есть скептицизм относительно того, что улучшение производительности на узких тестах (как ARC-AGI) свидетельствует о прогрессе к AGI.
  • Обсуждается, является ли решение головоломок LLM результатом доступа к публичным обсуждениям этих задач, а не новыми возможностями рассуждений.