- Локальный стек: Ollama (LLM), assistant-ui (веб-интерфейс), Apple
container
(изолированные ВМ), Playwright (браузер), coderunner (MCP-сервер с Jupyter).
- Цель: чат, запуск кода и доступ в интернет без облаков и утечек данных.
- Проблемы:
– Модели Ollama пока не поддерживают вызовы инструментов.
– Создание нативного Mac-приложения провалилось: a0.dev
заточен под iOS, Electron + NextJS оказались геморроем.
– Apple container
часто падает с Trap
; помогает pkill
+ перезапуск.
- Решения:
– Веб-версия assistant-ui
через ai-sdk
с выпадающим списком моделей (локальных и облачных).
– Jupyter в изолированной ВМ, доступен по MCP: http://coderunner.local:8222/mcp
.
– Конфиг для Claude Desktop: "coderunner": { "httpUrl": "http://coderunner.local:8222/mcp" }
.
by mkagenius • 08 августа 2025 г. в 18:19 • 1026 points
Оригинал • HN
#ollama#assistant-ui#apple-container#playwright#coderunner#jupyter#mcp#docker#rag#vector-databases