Finding thousands of exposed Ollama instances using Shodan
Ключевые выводы исследования Cisco по обнаружению открытых серверов Ollama
- Цель: выявить уязвимые LLM-серверы, запущенные через фреймворк Ollama.
- Метод: Python-скрипт, сканирующий Shodan на признаки открытых API
/api/tags
,/api/ps
,/api/chat
. - Результаты: найдено >1 100 публичных инстансов; ~20 % допускают анонимный чат и загрузку моделей.
- Риски: утечка данных, DoS, финансовые потери (GPU-трафик), инъекция вредоносных моделей.
- Рекомендации:
- включить авторизацию и TLS;
- фильтровать IP-адреса;
- отключить
--network host
; - использовать reverse-proxy (nginx, traefik) и WAF;
- регулярно сканировать инфраструктуру.