Hacker News Digest

Тег: #mcp

Постов: 3

Nexus: An Open-Source AI Router for Governance, Control and Observability (nexusrouter.com)

Nexus — открытый AI-роутер, который объединяет MCP-серверы и маршрутизирует запросы между LLM, добавляя безопасность и управление.

Что делает

  • Агрегация MCP: один вызов вместо множества подключений к разным MCP-серверам.
  • Умный роутинг LLM: выбирает модель по типу задачи, цене, задержке и доступности.
  • Безопасность и наблюдаемость: единые политики, логирование, отказоустойчивость.

Плюсы

  • Простота: одна точка интеграции вместо сети подключений.
  • Масштабируемость: новые MCP или LLM добавляются без изменения кода.
  • Надёжность: автоматический fallback при сбоях.
  • Прозрачность: мониторинг и аналитика в реальном времени.

Дальше

  • Продвинутые алгоритмы роутинга, дашборды, кастомные правила, rate-limiting и расширенная безопасность.

Попробуйте Nexus уже сейчас и упростите архитектуру своих AI-приложений.

by mitchwainer • 12 августа 2025 г. в 14:41 • 81 points

ОригиналHN

#llm#routing#open-source#mcp#governance#observability#scalability#grafbase

Комментарии (21)

  • Grafbase выпустил Nexus — open-source «AI Router», объединяющий MCP-серверы и LLM через один endpoint.
  • Основной фокус: enterprise-уровень governance, контроль и observability.
  • Участники сравнивают с коммерческим nexos.ai и open-source OpenRouter/LiteLLM.
  • Ключевое отличие — агрегация MCP-серверов и возможность self-host.
  • Название вызвало шутки про «Torment Nexus» и старый телефон Nexus.

I want everything local – Building my offline AI workspace (instavm.io) 🔥 Горячее 💬 Длинная дискуссия

  • Локальный стек: Ollama (LLM), assistant-ui (веб-интерфейс), Apple container (изолированные ВМ), Playwright (браузер), coderunner (MCP-сервер с Jupyter).
  • Цель: чат, запуск кода и доступ в интернет без облаков и утечек данных.
  • Проблемы:
    – Модели Ollama пока не поддерживают вызовы инструментов.
    – Создание нативного Mac-приложения провалилось: a0.dev заточен под iOS, Electron + NextJS оказались геморроем.
    – Apple container часто падает с Trap; помогает pkill + перезапуск.
  • Решения:
    – Веб-версия assistant-ui через ai-sdk с выпадающим списком моделей (локальных и облачных).
    – Jupyter в изолированной ВМ, доступен по MCP: http://coderunner.local:8222/mcp.
    – Конфиг для Claude Desktop: "coderunner": { "httpUrl": "http://coderunner.local:8222/mcp" }.

by mkagenius • 08 августа 2025 г. в 18:19 • 1026 points

ОригиналHN

#ollama#assistant-ui#apple-container#playwright#coderunner#jupyter#mcp#docker#rag#vector-databases

Комментарии (274)

  • Участники восхищаются локальной, «песочной» архитектурой для приватного AI-воркспейса и инструментом coderunner, но отмечают, что узкие места — это не только софт, но и «железо»: 80B-модели требуют ≥80 ГБ быстрой RAM, что доступно разве что на RTX 4090 или Strix Halo.
  • Критичным становится слой знаний: RAG над личными файлами требует вектор-БД, а значит — много диска и оперативки; Docker-обёртка или docker compose up -d просится как минимальный способ разворачивания.
  • Пока локальные модели — скорее «увлекательное хобби» (медленно, глючно, нужен тюнинг), чем рабочий инструмент; облачные API (Cerebras, Groq) дают 1000 ток/с, но подрывают приватность.
  • Сообщество просит готовый «всё-в-одном» стек: веб-поиск, голосовой режим, image-gen, лёгкий switch «локально ↔ облако» без потери данных.
  • Несколько участников делятся своими решениями: Kasm + Ollama, Open WebUI, MLX-электрон-приложение, Synology-NAS-контейнеры, браузерный LLM без установки.

Show HN: Mcp-use – Connect any LLM to any MCP (github.com)

by pzullo • 31 июля 2025 г. в 16:25 • 155 points

ОригиналHN

#llm#mcp#github

Комментарии (73)

The prod-readiness concerns are fair, but mcp-use fills a real gap in the MCP stack: orchestration across many servers with far less boilerplate than the official SDK. Even if the agent is as another commenter fairly pointed out, just a LangChain wrapper, the six-line setup and s