Hacker News Digest

24 августа 2025 г. в 00:18 • vincirufus.com • ⭐ 130 • 💬 260

OriginalHN

#agi#llm#artificial-intelligence#machine-learning#knowledge-graphs#neural-networks

AGI is an engineering problem, not a model training problem

AGI — задача инженерии, а не обучения моделей

Масштабирование LLM стало давать убывающий прирост. GPT-5, Claude, Gemini — вершина кривой, но не путь к AGI. Нужно строить системы, где модели, память, контекст и детерминированные процессы объединяются в нечто большее.

Почему рост остановился

Современные LLM — мощные генераторы текста, но:

  • не сохраняют контекст между сессиями,
  • не имеют постоянной памяти,
  • стохастичны и ненадёжны в сложных цепочках рассуждений.

Как и полупроводники в 2000-х, AI пришёл к пределу. Выход — не «ещё больше параметров», а новая архитектура.

Что строить

  1. Управление контекстом как инфраструктура

    • Динамический поиск и фильтрация релевантных данных.
    • Живые знания-графы, обновляемые в реальном времени.
    • Обработка противоречий и неопределённости.
  2. Память как сервис

    • Обновление убеждений при новых фактах.
    • Консолидация опыта в принципы, забывание мусора.
    • Метазнания о надёжности источников.
  3. Детерминированные процессы со стохастическими узлами

    • Жёсткие workflow, где нужно, и вероятностные оптимизации, где можно.
    • Откат и проверка результатов перед фиксацией.
    • Неопределённость — объект первого класса.
  4. Модульные специализированные модели

    • Языковые — для текста, символьные — для логики, пространственные — для визуальных задач.
    • Оркестрация через маршрутизацию запросов и слияние результатов.

Итог

AGI появится не из одной супер-модели, а из экосистемы взаимодействующих компонентов, спроектированных как надёжная инженерная система.