Hacker News Digest

30 августа 2025 г. в 13:25 • blog.sigplan.org • ⭐ 215 • 💬 108

OriginalHN

#artificial-intelligence#virtual-machines#security#privacy#containers#webassembly#docker#permissions#llm

AI models need a virtual machine

AI-модели нуждаются в виртуальной машине

Современные приложения с ИИ включают модель в «обвязку», которая обеспечивает вызов инструментов, поиск контекста, безопасность и прочие сервисы. Первые чат-боты были простым REPL-циклом: запрос → модель → ответ. С появлением протоколов вроде MCP логика управления стала сложнее и требует свойств ОС: изоляции, расширяемости, переносимости, контроля доступа к файлам и инструментам.
Мы предлагаем рассматривать этот слой как виртуальную машину для ИИ-моделей (MVM), где одна из «инструкций» — вызов LLM. Это развязывает разработку моделей от кода интеграции и даёт «write once, run anywhere» аналогично JVM.

Зачем MVM

  • Безопасность и приватность «из коробки», а не как дополнение.
  • Повторное использование: любая модель подключается к экосистеме инструментов и политик безопасности.
  • Переносимость: модель и политики можно поставлять и запускать в разных средах.

Пример работы

  1. Пользователь: «Забронируй рейс».
  2. MVM передаёт запрос модели.
  3. Модель: «вызови booking-tool».
  4. MVM проверяет, разрешён ли этот инструмент, и только потом вызывает его.
    Такой контроль есть в любом коммерческом ИИ-продукте; MVM выносит его в стандартизированную платформу.

Инструкции MVM

  • загрузка/выгрузка модели и инструментов;
  • вызов модели с контекстом;
  • парсинг её ответа;
  • вызов разрешённых инструментов;
  • работа с памятью, историей, вводом пользователя;
  • стандартные управляющие конструкции (if, seq, loop).