Nexus: An Open-Source AI Router for Governance, Control and Observability
Nexus — открытый AI-роутер, который объединяет MCP-серверы и маршрутизирует запросы между LLM, добавляя безопасность и управление.
Что делает
- Агрегация MCP: один вызов вместо множества подключений к разным MCP-серверам.
- Умный роутинг LLM: выбирает модель по типу задачи, цене, задержке и доступности.
- Безопасность и наблюдаемость: единые политики, логирование, отказоустойчивость.
Плюсы
- Простота: одна точка интеграции вместо сети подключений.
- Масштабируемость: новые MCP или LLM добавляются без изменения кода.
- Надёжность: автоматический fallback при сбоях.
- Прозрачность: мониторинг и аналитика в реальном времени.
Дальше
- Продвинутые алгоритмы роутинга, дашборды, кастомные правила, rate-limiting и расширенная безопасность.
Попробуйте Nexus уже сейчас и упростите архитектуру своих AI-приложений.
Комментарии (21)
- Grafbase выпустил Nexus — open-source «AI Router», объединяющий MCP-серверы и LLM через один endpoint.
- Основной фокус: enterprise-уровень governance, контроль и observability.
- Участники сравнивают с коммерческим nexos.ai и open-source OpenRouter/LiteLLM.
- Ключевое отличие — агрегация MCP-серверов и возможность self-host.
- Название вызвало шутки про «Torment Nexus» и старый телефон Nexus.
I want everything local – Building my offline AI workspace 🔥 Горячее 💬 Длинная дискуссия
- Локальный стек: Ollama (LLM), assistant-ui (веб-интерфейс), Apple
container
(изолированные ВМ), Playwright (браузер), coderunner (MCP-сервер с Jupyter). - Цель: чат, запуск кода и доступ в интернет без облаков и утечек данных.
- Проблемы:
– Модели Ollama пока не поддерживают вызовы инструментов.
– Создание нативного Mac-приложения провалилось:a0.dev
заточен под iOS, Electron + NextJS оказались геморроем.
– Applecontainer
часто падает сTrap
; помогаетpkill
+ перезапуск. - Решения:
– Веб-версияassistant-ui
черезai-sdk
с выпадающим списком моделей (локальных и облачных).
– Jupyter в изолированной ВМ, доступен по MCP:http://coderunner.local:8222/mcp
.
– Конфиг для Claude Desktop:"coderunner": { "httpUrl": "http://coderunner.local:8222/mcp" }
.
Комментарии (274)
- Участники восхищаются локальной, «песочной» архитектурой для приватного AI-воркспейса и инструментом
coderunner
, но отмечают, что узкие места — это не только софт, но и «железо»: 80B-модели требуют ≥80 ГБ быстрой RAM, что доступно разве что на RTX 4090 или Strix Halo. - Критичным становится слой знаний: RAG над личными файлами требует вектор-БД, а значит — много диска и оперативки; Docker-обёртка или
docker compose up -d
просится как минимальный способ разворачивания. - Пока локальные модели — скорее «увлекательное хобби» (медленно, глючно, нужен тюнинг), чем рабочий инструмент; облачные API (Cerebras, Groq) дают 1000 ток/с, но подрывают приватность.
- Сообщество просит готовый «всё-в-одном» стек: веб-поиск, голосовой режим, image-gen, лёгкий switch «локально ↔ облако» без потери данных.
- Несколько участников делятся своими решениями: Kasm + Ollama, Open WebUI, MLX-электрон-приложение, Synology-NAS-контейнеры, браузерный LLM без установки.
Комментарии (73)
The prod-readiness concerns are fair, but mcp-use fills a real gap in the MCP stack: orchestration across many servers with far less boilerplate than the official SDK. Even if the agent is as another commenter fairly pointed out, just a LangChain wrapper, the six-line setup and s