Le Chat: Custom MCP Connectors, Memories 🔥 Горячее
Le Chat: 20+ MCP-коннекторов и Memories
-
Каталог коннекторов (beta)
20+ безопасных интеграций: Databricks, Snowflake, GitHub, Jira, Notion, Asana, Outlook, Box, Stripe, Zapier и др.- Поиск, анализ, действия в одном чате.
- Добавьте собственные MCP-коннекторы.
- Запуск в браузере, мобильном, on-prem или вашем облаке.
-
Memories (beta)
Персонализированные ответы на основе сохранённых фактов и предпочтений.- Контроль: хранить, править, удалять.
- Импорт из ChatGPT.
-
Бесплатно для всех пользователей.
Категории коннекторов
- Данные: Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki.
- Продуктивность: Box, Notion, Asana, Monday, Jira, Confluence.
- Разработка: GitHub, Linear, Sentry, Cloudflare.
- Автоматизация: Zapier, Brevo.
- Коммерция: PayPal, Plaid, Square, Stripe.
- Custom: любые MCP-серверы.
Примеры
- Анализ отзывов в Databricks → задача в Asana.
- PR в GitHub → задача в Jira + документация в Notion.
- Сравнение контрактов в Box → краткий отчёт обратно в Box.
- Jira → спринт-обзор в Confluence.
- Stripe → аномалии → задача в Linear.
Управление и безопасность
Админы определяют доступ, аутентификация от имени пользователя.
Развёртывание: self-hosted, ваше облако или Mistral Cloud.
Комментарии (150)
- Пользователи жалуются на провал gpt-5-mini и переходят на mistral-medium-0525: дешевле, быстрее, но при ошибке «падает жёстче».
- Mistral анонсировала 20+ «безопасных» MCP-коннекторов (S3, FTP, SharePoint и др.) и поддержку кастомных удалённых коннекторов.
- Валютация в $14 млрд выглядит низкой против OpenAI/Anthropic; для европейцев главный плюс — «сделано в ЕС».
- Качество моделей: в чате и простых задачах сравнимо с OpenAI, но уступает топ-версиям; скорость реакции высокая.
- Бесплатный тариф и быстрый релиз новых фич отмечают как плюсы, однако многие так и не пробовали Mistral всерьёз.
Weaponizing image scaling against production AI systems 🔥 Горячее
-
Суть атаки: при загрузке большого изображения в Gemini CLI, Vertex AI, Google Assistant и др. системы изображение уменьшается до размеров модели. В момент масштабирования скрытые пиксель-инъекции становятся читаемыми как команды, позволяя красть данные или выполнять код без подтверждения пользователя.
-
Пример: в Gemini CLI через Zapier MCP (trust=True по умолчанию) отправка «безобидной» картинки приводит к выгрузке календаря на почту злоумышленника.
-
Масштаб: подтверждены атаки на веб-Gemini, API, Android-Assistant, Genspark и др. UI показывает оригинал, а модель видит уменьшенную версию с инъекцией.
-
Техника: используются алгоритмы downscale (nearest-neighbor, bilinear, Lanczos). Высокочастотные паттерны превращаются в читаемые символы при уменьшении.
-
Anamorpher: опенсорс-утилита для генерации таких «анаморфных» изображений.
-
Защита:
- отключить автоматическое масштабирование или запрашивать подтверждение;
- применять контент-фильтры к уменьшенной копии;
- запретить инлайн-вызовы инструментов без явного согласия;
- внедрить rate-limit и аудит действий агентов.
Комментарии (131)
- Атака заключается в том, что в изображении скрывают текст-команду, который после уменьшения или OCR становится частью промпта и переопределяет поведение модели.
- Проблема усугубляется тем, что современные агент-системы требуют широких прав и не различают «достоверные» и «внешние» инструкции.
- Участники сравнивают это с уязвимостями старых PHP-скриптов и serial-terminals: данные и команды смешаны в одном потоке.
- Предлагаемые защиты — шум перед ресайзом, sandbox-слои, фильтрация текста в картинке, «sudo-токены» и строгое разграничение контекстов — пока не решают проблему полностью.
- Общий вывод: пока LLM не научатся надёжно разделять данные и инструкции, любой внешний вход считается потенциально отравленным.