Hacker News Digest

Тег: #zapier

Постов: 2

Le Chat: Custom MCP Connectors, Memories (mistral.ai) 🔥 Горячее

Le Chat: 20+ MCP-коннекторов и Memories

  • Каталог коннекторов (beta)
    20+ безопасных интеграций: Databricks, Snowflake, GitHub, Jira, Notion, Asana, Outlook, Box, Stripe, Zapier и др.

    • Поиск, анализ, действия в одном чате.
    • Добавьте собственные MCP-коннекторы.
    • Запуск в браузере, мобильном, on-prem или вашем облаке.
  • Memories (beta)
    Персонализированные ответы на основе сохранённых фактов и предпочтений.

    • Контроль: хранить, править, удалять.
    • Импорт из ChatGPT.
  • Бесплатно для всех пользователей.

Категории коннекторов

  • Данные: Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki.
  • Продуктивность: Box, Notion, Asana, Monday, Jira, Confluence.
  • Разработка: GitHub, Linear, Sentry, Cloudflare.
  • Автоматизация: Zapier, Brevo.
  • Коммерция: PayPal, Plaid, Square, Stripe.
  • Custom: любые MCP-серверы.

Примеры

  • Анализ отзывов в Databricks → задача в Asana.
  • PR в GitHub → задача в Jira + документация в Notion.
  • Сравнение контрактов в Box → краткий отчёт обратно в Box.
  • Jira → спринт-обзор в Confluence.
  • Stripe → аномалии → задача в Linear.

Управление и безопасность
Админы определяют доступ, аутентификация от имени пользователя.
Развёртывание: self-hosted, ваше облако или Mistral Cloud.

by Anon84 • 04 сентября 2025 г. в 11:04 • 367 points

ОригиналHN

#databricks#snowflake#github#jira#notion#asana#box#stripe#zapier#cloudflare

Комментарии (150)

  • Пользователи жалуются на провал gpt-5-mini и переходят на mistral-medium-0525: дешевле, быстрее, но при ошибке «падает жёстче».
  • Mistral анонсировала 20+ «безопасных» MCP-коннекторов (S3, FTP, SharePoint и др.) и поддержку кастомных удалённых коннекторов.
  • Валютация в $14 млрд выглядит низкой против OpenAI/Anthropic; для европейцев главный плюс — «сделано в ЕС».
  • Качество моделей: в чате и простых задачах сравнимо с OpenAI, но уступает топ-версиям; скорость реакции высокая.
  • Бесплатный тариф и быстрый релиз новых фич отмечают как плюсы, однако многие так и не пробовали Mistral всерьёз.

Weaponizing image scaling against production AI systems (blog.trailofbits.com) 🔥 Горячее

  • Суть атаки: при загрузке большого изображения в Gemini CLI, Vertex AI, Google Assistant и др. системы изображение уменьшается до размеров модели. В момент масштабирования скрытые пиксель-инъекции становятся читаемыми как команды, позволяя красть данные или выполнять код без подтверждения пользователя.

  • Пример: в Gemini CLI через Zapier MCP (trust=True по умолчанию) отправка «безобидной» картинки приводит к выгрузке календаря на почту злоумышленника.

  • Масштаб: подтверждены атаки на веб-Gemini, API, Android-Assistant, Genspark и др. UI показывает оригинал, а модель видит уменьшенную версию с инъекцией.

  • Техника: используются алгоритмы downscale (nearest-neighbor, bilinear, Lanczos). Высокочастотные паттерны превращаются в читаемые символы при уменьшении.

  • Anamorpher: опенсорс-утилита для генерации таких «анаморфных» изображений.

  • Защита:

    • отключить автоматическое масштабирование или запрашивать подтверждение;
    • применять контент-фильтры к уменьшенной копии;
    • запретить инлайн-вызовы инструментов без явного согласия;
    • внедрить rate-limit и аудит действий агентов.

by tatersolid • 21 августа 2025 г. в 12:20 • 468 points

ОригиналHN

#llm#security#cybersecurity#image-processing#google#gemini#vertex-ai#zapier

Комментарии (131)

  • Атака заключается в том, что в изображении скрывают текст-команду, который после уменьшения или OCR становится частью промпта и переопределяет поведение модели.
  • Проблема усугубляется тем, что современные агент-системы требуют широких прав и не различают «достоверные» и «внешние» инструкции.
  • Участники сравнивают это с уязвимостями старых PHP-скриптов и serial-terminals: данные и команды смешаны в одном потоке.
  • Предлагаемые защиты — шум перед ресайзом, sandbox-слои, фильтрация текста в картинке, «sudo-токены» и строгое разграничение контекстов — пока не решают проблему полностью.
  • Общий вывод: пока LLM не научатся надёжно разделять данные и инструкции, любой внешний вход считается потенциально отравленным.