Finding thousands of exposed Ollama instances using Shodan
Ключевые выводы исследования Cisco по обнаружению открытых серверов Ollama
- Цель: выявить уязвимые LLM-серверы, запущенные через фреймворк Ollama.
- Метод: Python-скрипт, сканирующий Shodan на признаки открытых API
/api/tags,/api/ps,/api/chat. - Результаты: найдено >1 100 публичных инстансов; ~20 % допускают анонимный чат и загрузку моделей.
- Риски: утечка данных, DoS, финансовые потери (GPU-трафик), инъекция вредоносных моделей.
- Рекомендации:
- включить авторизацию и TLS;
- фильтровать IP-адреса;
- отключить
--network host; - использовать reverse-proxy (nginx, traefik) и WAF;
- регулярно сканировать инфраструктуру.