Traefik's 10-year anniversary
Traefik отмечает десятилетие развития как облачного прокси-приложения с открытым исходным кодом. За эти годы проект вырос из простого инструмента маршрутизации в полноценную платформу, включающую Traefik Proxy, Traefik Hub API Gateway и решения для управления API. Сообщество сыграло ключевую роль в его эволюции, способствуя появлению функций для Kubernetes, Docker Swarm, веб-приложений и даже шлюзов для ИИ.
Платформа теперь предлагает решения для безопасности, такие как WAF, управление политиками API и интеграции с экосистемами вроде HashiCorp, Microsoft и Oracle. Traefik продолжает адаптироваться к современным потребностям, включая поддержку GitOps и мокирование API, демонстрируя гибкость и устойчивость в быстро меняющейся ИТ-среде.
Комментарии (129)
- Пользователи отмечают сложность настройки и неудовлетворительную документацию Traefik, особенно при нестандартных требованиях.
- Многие предпочитают альтернативы, такие как Caddy, за его простоту и автоматизацию TLS, или Envoy как CNCF-стандарт.
- Traefik хвалят за интеграцию с Docker и автоматическое управление сертификатами, но критикуют за закрытие базовых функций в enterprise-версии.
- Поддержка динамической конфигурации через Docker-лейблы считается сильной стороной, но сам формат конфигурации часто называют запутанным.
- Проект признают зрелым и полезным для конкретных сценариев, но выбор инструмента часто зависит от личных предпочтений и задач.
Native ACME support comes to Nginx
NGINX теперь с ACME
12 авг. NGINX официально добавил встроенный модуль ngx_http_acme (на Rust), который сам получает и продлевает сертификаты Let’s Encrypt.
Зачем
- никаких внешних клиентов;
- работает из коробки: от домашнего лаба до кластеров Kubernetes;
- меньше рутины, больше шифрования.
Кто ещё
Traefik, Caddy, Apache уже умеют; теперь к ним присоединился самый популярный веб-сервер и прокси.
Разработчикам
Протокол ACME, библиотеки и обсуждение — на форуме Let’s Encrypt.
Комментарии (44)
- Кто-то рад встроенному ACME в nginx, кто-то считает, что «сертификат должен получать отдельный клиент», а не каждый сервис в отдельности.
- Спор о безопасности: модуль на Rust, но в нём много unsafe-блоков для взаимодействия с Си-ядром nginx.
- Вопрос «зачем ждать столько лет?» — ответ: корпоративные заказчики F5/medленный релиз-цикл.
- Практика: можно отключить встроенный ACME и продолжать использовать certbot/cert-manager.
Finding thousands of exposed Ollama instances using Shodan
Ключевые выводы исследования Cisco по обнаружению открытых серверов Ollama
- Цель: выявить уязвимые LLM-серверы, запущенные через фреймворк Ollama.
- Метод: Python-скрипт, сканирующий Shodan на признаки открытых API
/api/tags,/api/ps,/api/chat. - Результаты: найдено >1 100 публичных инстансов; ~20 % допускают анонимный чат и загрузку моделей.
- Риски: утечка данных, DoS, финансовые потери (GPU-трафик), инъекция вредоносных моделей.
- Рекомендации:
- включить авторизацию и TLS;
- фильтровать IP-адреса;
- отключить
--network host; - использовать reverse-proxy (nginx, traefik) и WAF;
- регулярно сканировать инфраструктуру.
Комментарии (59)
- Cisco сообщила об открытых в интернете >1 100 серверов Ollama без аутентификации.
- Ollama по умолчанию не требует пароля и не планирует встроенной защиты API.
- Пользователи решают проблему через firewall, nginx/caddy с токеном или VPN.
- Сообщество спорит: виноваты ли разработчики, админы или «вайб-кодеры».
- Многие считают риск низким, пока LLM не подключены к инструментам и чувствительным данным.