Anthropic Services Down
- 16:28 UTC – API, Console и Claude.ai недоступны; идёт восстановление
- 16:37–17:15 UTC – исправление применено, наблюдаем за стабильностью
Комментарии (72)
- Пользователи массово жалуются на постоянные падения Anthropic: и API, и консоль, и claude.ai лежат одновременно.
- Европейцы замечают: пока США спит, Claude работает стабильно; как только начинаются американские часы — 503-ошибки и деградация модели.
- Кто-то шутит, что придётся «писать код мозгом», как в каменном веке, и копипастить со Stack Overflow.
- Платящие клиенты недовольны: за 20 $/мес Anthropic падает почти каждую неделю, тогда как Gemini и OpenAI редко.
- Популярный совет — не полагаться на прямой API, а подключаться к Claude через AWS Bedrock, Vertex AI или мультипровайдерские шлюзы вроде OpenRouter.
Weaponizing image scaling against production AI systems 🔥 Горячее
-
Суть атаки: при загрузке большого изображения в Gemini CLI, Vertex AI, Google Assistant и др. системы изображение уменьшается до размеров модели. В момент масштабирования скрытые пиксель-инъекции становятся читаемыми как команды, позволяя красть данные или выполнять код без подтверждения пользователя.
-
Пример: в Gemini CLI через Zapier MCP (trust=True по умолчанию) отправка «безобидной» картинки приводит к выгрузке календаря на почту злоумышленника.
-
Масштаб: подтверждены атаки на веб-Gemini, API, Android-Assistant, Genspark и др. UI показывает оригинал, а модель видит уменьшенную версию с инъекцией.
-
Техника: используются алгоритмы downscale (nearest-neighbor, bilinear, Lanczos). Высокочастотные паттерны превращаются в читаемые символы при уменьшении.
-
Anamorpher: опенсорс-утилита для генерации таких «анаморфных» изображений.
-
Защита:
- отключить автоматическое масштабирование или запрашивать подтверждение;
- применять контент-фильтры к уменьшенной копии;
- запретить инлайн-вызовы инструментов без явного согласия;
- внедрить rate-limit и аудит действий агентов.
Комментарии (131)
- Атака заключается в том, что в изображении скрывают текст-команду, который после уменьшения или OCR становится частью промпта и переопределяет поведение модели.
- Проблема усугубляется тем, что современные агент-системы требуют широких прав и не различают «достоверные» и «внешние» инструкции.
- Участники сравнивают это с уязвимостями старых PHP-скриптов и serial-terminals: данные и команды смешаны в одном потоке.
- Предлагаемые защиты — шум перед ресайзом, sandbox-слои, фильтрация текста в картинке, «sudo-токены» и строгое разграничение контекстов — пока не решают проблему полностью.
- Общий вывод: пока LLM не научатся надёжно разделять данные и инструкции, любой внешний вход считается потенциально отравленным.
Gemma 3 270M: Compact model for hyper-efficient AI 🔥 Горячее 💬 Длинная дискуссия
Gemma 3 270M — самая маленькая модель семейства Gemma 3, всего 270 млн параметров.
Подходит для запуска на смартфонах, микроконтроллерах и в браузере без облака.
- Производительность: на MMLU и HumanEval обгоняет Gemma 2 2B и Llama 3.2 3B, уступает Gemma 3 1B.
- Скорость: на Pixel 8 Pro — 1,2 токена/с, на RTX 4090 — 200 токенов/с.
- Форматы: Keras, JAX, PyTorch, Gemma.cpp, Ollama, Transformers.
- Лицензия: Gemma Terms of Use, коммерческое применение разрешено.
Доступна в Kaggle, Hugging Face, Ollama и через gemma-3-270m-it в Vertex AI.
Комментарии (291)
- Команда представила Gemma 3 270M — сверхкомпактную модель (241 МБ) для локального запуска и тонкой настройки под узкие задачи.
- Пользователи уже тестируют её на телефонах, но жалуются на холлюцинации и слабое следование инструкциям.
- Обсуждаются примеры применения: тегирование статей WordPress, NER/перевод, генерация SVG, «умные» клавиатуры, обработка 50 млн строк в день.
- Многие спрашивают туториалы по дообучению и сравнение с Qwen 0.6B, который показывает лучшее качество при схожем размере.
- Авторы подчеркивают: модель «из коробки» слаба, но после fine-tuning может стать мощным специализированным инструментом.