AGI is an engineering problem, not a model training problem
AGI — задача инженерии, а не обучения моделей
Масштабирование LLM стало давать убывающий прирост. GPT-5, Claude, Gemini — вершина кривой, но не путь к AGI. Нужно строить системы, где модели, память, контекст и детерминированные процессы объединяются в нечто большее.
Почему рост остановился
Современные LLM — мощные генераторы текста, но:
- не сохраняют контекст между сессиями,
- не имеют постоянной памяти,
- стохастичны и ненадёжны в сложных цепочках рассуждений.
Как и полупроводники в 2000-х, AI пришёл к пределу. Выход — не «ещё больше параметров», а новая архитектура.
Что строить
-
Управление контекстом как инфраструктура
- Динамический поиск и фильтрация релевантных данных.
- Живые знания-графы, обновляемые в реальном времени.
- Обработка противоречий и неопределённости.
-
Память как сервис
- Обновление убеждений при новых фактах.
- Консолидация опыта в принципы, забывание мусора.
- Метазнания о надёжности источников.
-
Детерминированные процессы со стохастическими узлами
- Жёсткие workflow, где нужно, и вероятностные оптимизации, где можно.
- Откат и проверка результатов перед фиксацией.
- Неопределённость — объект первого класса.
-
Модульные специализированные модели
- Языковые — для текста, символьные — для логики, пространственные — для визуальных задач.
- Оркестрация через маршрутизацию запросов и слияние результатов.
Итог
AGI появится не из одной супер-модели, а из экосистемы взаимодействующих компонентов, спроектированных как надёжная инженерная система.