Комментарии (69)
- Пользователи жалуются: Jan не умеет параллельно общаться с несколькими моделями, требует слишком много RAM/VRAM и «тяжело» работает на Linux.
- Запуск локальных моделей часто ломается: llama-server не стартует, Ollama-совместимость требует ручной настройки
OLLAMA_HOST
иOLLAMA_ORIGINS
. - UI раньше был багованным; сейчас, по отзывам, стал лучше, но проект всё ещё выглядит как «черновик архитектуры», а не готовое решение.
- Jan позиционируется как десктоп-альтернатива LM Studio (и частично OpenWebUI), но с открытым кодом и поддержкой удалённых провайдеров.
- Некоторые участники сомневаются в «принципах» команды: обещанные встречи не состоялись, связь прервалась.