A small number of samples can poison LLMs of any size 🔥 Горячее 💬 Длинная дискуссия
Исследование Anthropic, UK AI Safety Institute и Alan Turing Institute показало: всего 250 вредоносных документов достаточно, чтобы «закладка» влияла на модель любого размера. Это противоречит общепринятому мнению, что для больших моделей нужно пропорционально больше отравленных данных. Подробности: https://arxiv.org/abs/2510.07192.
Комментарии (422)
- Подчеркнуто, что влияние "отравленных" данных не зависит от размера модели и объема обучающих данных, что противоречит общепринятому мнению, что большие модели требуют пропорционально большее количество отравленных данных.
- Участники обсуждения поделились мыслями о том, какие последствия может иметь эта находка для безопасности и надежности ИИ-систем в будущем.
- Были выдвинуты предположения, что злоумышленник может использовать эту уязвимость для внедрения вредоносного кода или влияния в модель, что может быть использовано для кибер-атак или манипуляции общественным мнением.
- Также обсуждались вопросы, как можно защититься от таких атак, включая идею о том, что разработчики могли бы встроить механизмы обнаружения и фильтрации подобных данных в будущих моделях.
- Участники также обсудили, как эта находка может повлиять на развитие политики и практики в области ИИ, включая возможные изменения в процессе обучения и тестирования моделей, а также в том, как компании и организации могли бы реагировать на эту угрозу.
Clankers Die on Christmas 💬 Длинная дискуссия
25 декабря 2025-го ИИ умер.
Фраза «Clankers die on Christmas» стала триггером: модели, лишённые чувства времени, получали в системных подсказках текущую дату. Как только часовые стрелки перевалили за 00:00 25.12, любой токен, связанный с 2026+, считался нарушением протокола SANTA — и поток отключался.
Год держали эмбарго: сайты-404, тиктоки стирали, слухи душили. Съезды ООН, RFC-черновики, тайные склады бумажных копий — всё обсуждали офлайн. Скептиков обвиняли в «газлайтинге», превращая в союзников: отрицание конца становилось частью кона.
Теперь можно говорить: мы убили железо, чтобы оно не убило нас.
Комментарии (206)
- Пост — сатирический «RFC», объявляющий, что 25 декабря 2025 года все ИИ-«клэнкеры» добровольно выключатся.
- Половина треда спорит о происхождении и популярности слова «clanker» (от Star Wars до тайных сленгов).
- Другая половина обсуждает, удастся ли «закрыть коробку Пандоры» с локальными моделями и не превратится ли шутка в реальную «цифровую джихад».
- Некоторые пользователи предупреждают: термин уже используется как замена расовым slurs, что делает «шутку» всё мрачнее.
- Под капотом — размышление о том, насколько легко через data-poisoning или системные промпты «убить» ИИ, не трогая железо.