I want everything local – Building my offline AI workspace
Локальный стек: Ollama (LLM), assistant-ui (веб-интерфейс), Apple container (изолированные ВМ), Playwright (браузер), coderunner (MCP-сервер с Jupyter).
Цель: чат, запуск кода и доступ в интернет без облаков и утечек данных.
Проблемы:
– Модели Ollama пока не поддерживают вызовы инструментов.
– Создание нативного Mac-приложения провалилось: a0.dev заточен под iOS, Electron + NextJS оказались геморроем.
– Apple container часто падает с Trap; помогает pkill + перезапуск.
Решения:
– Веб-версия assistant-ui через ai-sdk с выпадающим списком моделей (локальных и облачных).
– Jupyter в изолированной ВМ, доступен по MCP: http://coderunner.local:8222/mcp.
– Конфиг для Claude Desktop: "coderunner": { "httpUrl": "http://coderunner.local:8222/mcp" }.