Hacker News Digest

Тег: #arc

Постов: 4

Anonymous credentials: rate-limit bots and agents without compromising privacy (blog.cloudflare.com)

Cloudflare анонсировал технологию анонимных учетных данных (anonymous credentials) для управления AI-агентами без компрометации приватности. С ростом популярности AI-агентов, которые будут выполнять задачи от заказа пиццы до написания кода, традиционные методы защиты становятся неэффективными. Существующие инструменты слишком грубые - блокировка одного агента может затронуть всех пользователей платформы. Анонимные учетные данные позволяют применять политики безопасности, такие как rate-limiting, без идентификации или отслеживания пользователей.

Технология находится в разработке в IETF как стандарт для работы across websites, browsers и platforms. Cloudflare планирует внести вклад в этот процесс, считая его критически важным для сохранения безопасности и приватности в эпоху AI. Это решение поможет справиться с растущим трафиком от AI-платформ, который, по прогнозам, скоро превысит трафик от традиционных источников, таких как мобильные устройства.

by eleye • 02 ноября 2025 г. в 00:45 • 86 points

ОригиналHN

#anonymous-credentials#rate-limiting#ietf#llm#cloudflare#security#privacy#api#arc#protocols

Комментарии (46)

  • Cloudflare продвигает протокол ARC (Anonymous Rate-Limited Credentials) как «решение» для проблемы, которую, по сути, создаёт сама же Cloudflare, вызывая вопросы о том, действительно ли это решение проблемы, или просто способ монетизации доступа к API.
  • Представленный подход требует, чтобы пользователю пришлось бы получать токены через кредитную карту, что вызывает вопросы о том, не является ли это просто способом взимать плату за доступ к открытым API.
  • В то же время, Cloudflare продолжает обслуживать очевидно вредоносные сайты, что вызывает критику со стороны общественности и ставит под сомнение их мотивы.
  • В обсуждении также поднимается вопрос о том, что если бы компании действительно хотела бы решить проблему злоупотребления API, они могли бы просто предоставить токены напрямую, вместо того чтобы требовать, чтобы пользователи проходили через их платформу.
  • В конце концов, обсуждение приходит к выводу, что вместо того, чтобы решать проблему, Cloudflare просто создаёт еще одну проблему, которую они же и решают с помощью своего же продукта.

Intel Arc Celestial dGPU seems to be first casualty of Nvidia partnership (notebookcheck.net)

Intel, похоже, отменяет разработку высокоуровневого десктопного GPU Arc Celestial — первой жертвы партнёрства с Nvidia. В то же время модель Arc B770, относящаяся к архитектуре Battlemage, всё ещё ожидается в текущем квартале, хотя и с ограниченным выпуском и проблемами в производительности, включая неровный фреймрейт.

По данным инсайдеров, B770 сохранит 32 Xe-ядра и 256-битную шину памяти, достигая уровня GeForce RTX 4070, но без поддержки PCIe 5.0. Если Celestial действительно закрыт, это может означать конец самостоятельным десктопным GPU от Intel, что станет ударом по конкуренции на рынке, несмотря на ранее успешный запуск более доступной модели B580.

by LorenDB • 19 сентября 2025 г. в 13:51 • 101 points

ОригиналHN

#intel#nvidia#gpu#arc#battlemage

Комментарии (72)

  • Участники обсуждают заявление CEO Intel о необходимости 50% маржи для новых продуктов и опоздании компании в сфере AI, выражая скептицизм и опасения о будущем Intel.
  • Основная критика направлена на ненадежность источника новости (канал Moore's Law Is Dead), который ранее неоднократно ошибался в прогнозах о судьбе видеокарт Intel Arc.
  • Обсуждается стратегическая ценность подразделения графики (GPU) для Intel как точки входа на рынок и источника внутренних компетенций, несмотря на небольшую долю игрового рынка в сравнении с датацентрами.
  • Высказываются мнения, что отказ от продуктов с низкой маржой может быть ошибкой, так как это мешает загрузке собственных мощностей и долгосрочному росту.
  • Уточняется, что заявление CEO, вероятно, относилось только к опозданию в сфере тренировки AI-моделей (training), оставляя возможность для участия в выводе (inference).

Atlassian is acquiring The Browser Company (cnbc.com) 🔥 Горячее 💬 Длинная дискуссия

Atlassian приобретает The Browser Company
Сегодня мы объявили о покупке The Browser Company — создателей браузеров Dia и Arc.

Цель
Создать первый AI-браузер для командной работы, объединив любовь TBC к инновациям и опыт Atlassian в управлении командами.

Проблема
Современные браузеры заточены под потребление, а не работу: куча вкладок, потерянные вкладки, отсутствие контекста задач.

Решение
Arc уже умеет группировать вкладки, а Dia добавляет AI-агента, который:

  • собирает контекст из Jira, Confluence, Slack;
  • автоматически открывает нужные страницы;
  • помогает быстрее принимать решения.

Что дальше

  • Arc и Dia продолжат работать как сейчас.
  • Постепенно появится глубокая интеграция с Atlassian-продуктами.
  • Команды объединятся, чтобы масштабировать идею «браузера для работы».

Мы верим, что совместно сделаем работу более продуктивной и приятной.

by kevinyew • 04 сентября 2025 г. в 12:12 • 475 points

ОригиналHN

#atlassian#the-browser-company#arc#dia#llm#jira#confluence#slack

Комментарии (459)

  • Arc был признан инновационным браузером для продвинутых пользователей, но рост остановился и команда переключилась на новый проект Dia с ИИ, вызвав шквал критики.
  • Пользователи считают отказ от Arc ошибкой: продукт нравился, но монетизировать его оказалось сложно.
  • Покупка Atlassian за $610 млн наличными выглядит странно: стратегического перекрытия продуктов нет, выручки у TBC не было.
  • Многие опасаются, что Arc «умрёт» под крылом Atlassian, и уже переходят на Zen или Firefox.
  • Общий вывод: это похоже на дорогой acqui-hire или ставку на «AI-агентов» в корпоративной экосистеме Atlassian.

Hacking Diffusion into Qwen3 for the Arc Challenge (matthewnewton.com)

Краткий обзор
Повторяя подход победителей ARC-2024, я заметил: чем меньше модель уверена в пикселе, тем выше шанс ошибки. Авторегрессия заставляет «писать» решение слева-направо, как печатать на машинке без возврата.

Я переделал Qwen3-8B в диффузионный режим: сначала заполняем «лёгкие» токены, потом сложные. На 10 шагах модель быстрее и точнее по пикселям, но решает не больше задач. На 30 шагах точность совпадает с базовой, а время выше — из-за отсутствия кеширования.

Как работает генерация

  1. Кодируем вход как обычный LLM.
  2. Случайно маскируем 80 % выходных токенов.
  3. На каждом шаге модель предсказывает маскированные токены; выбираем наиболее вероятные и «размаскиваем».
  4. Повторяем, пока не останется масков.

Почему +1 % к пикселям ≠ +1 % к задачам
ARC требует абсолютного совпадения всей сетки. Даже 1 ошибка = 0 баллов. Диффузия чаще «почти» правильна, но «почти» не считается.

Технические детали

  • Архитектура: обычный декодер → полносвязный «энкодер» без кэша.
  • Обучение: 1 эпоха, lr 5e-5, batch 64, маскирование 80 %, аугментации поворот/отражение.
  • Данные: 400 задач ARC + 800 синтетических, длина фиксирована 4096 токенов.

Результаты на eval-2025

Метод Время Точн. токенов Решено задач
Авторегрессия 94 % 21 %
Диффузия 10 шагов 0.6× 95 % 19 %
Диффузия 30 шагов 1.3× 94 % 21 %

Следующие шаги

  • Вернуть кеш входных токенов, ограничив пересчёт скрытых состояний.
  • Увеличить шаги до 50–100 при сохранении скорости.
  • Попробовать «гибрид»: диффузия для грубой раскладки, авторегрессия для деталей.

by mattnewton • 05 августа 2025 г. в 14:43 • 115 points

ОригиналHN

#qwen3#arc#llm#diffusion#autoregressive#machine-learning#tokens#backspace#retraction#in-context-learning

Комментарии (15)

  • @radarsat1 предложил добавить в генерацию LLM «токен backspace» для отмены уже выданных токенов, но @imtringued и @_diyar отметили, что при обычной однонаправленной архитектуре это сводится к возврату к прежнему состоянию и не решает проблему.
  • @dev_hugepages указал на исследование (2306.05426), где такой механизм уже реализован в рамках IL-обучения.
  • @mNovak отметил, что диффузионная модель решает головоломки итеративно, но «раскрывает» слишком мало токенов за ход, тратя лишние раунды.
  • @namibj подчеркнул необходимость механизма «retraction», чтобы избежать застревания на ошибочных решениях.
  • @twotwotwo заметил парадокс: люди чаще редактируют код, а LLM генерируют его целиком, что делает правку затратной.