Hacker News Digest

Тег: #anthropic

Постов: 60

New prompt injection papers: Agents rule of two and the attacker moves second (simonwillison.net)

Представлены две новые работы по безопасности LLM и инъекциям промптов. В статье "Agents Rule of Two" от Meta предлагается принцип, согласно которому ИИ-агенты могут одновременно обладать не более чем двумя из трёх свойств: обработкой ненадёжных входных данных, доступом к чувствительным системам или возможность изменять состояние или внешне взаимодействовать. Если требуются все три, агент должен находиться под контролем. Этот подход расширяет концепцию "смертельного трио", добавляя риски изменения состояния, а не только кражи данных.

Второй документ "The Attacker Moves Second" от исследователей OpenAI, Anthropic и Google DeepMind демонстрирует, что 12 опубликованных систем защиты от инъекций и побега из "тюрьмы" модели успешно обойдены в 90% случаев с помощью адаптивных атак. Особенно впечатляет результат "красной команды" из 500 человек, достигший 100% успеха. Авторы подчёркивают, что статичные примеры атак практически бесполезны для оценки защиты — эффективны лишь адаптивные методы с многократной итерацией для поиска уязвимостей.

by simonw • 02 ноября 2025 г. в 23:11 • 77 points

ОригиналHN

#llm#prompt-injection#ai-security#meta#openai#anthropic#google-deepmind#adaptive-attacks#security-research

Комментарии (30)

  • Продолжается обсуждение безопасности LLM: отсутствие трекинга загрязнённых данных, отсутствие моделей в продакшене, и отсутствие трекинга токенов в промпте и т.д.
  • Участники обсуждают, что LLM не могут быть безопасными, если они не могут отличить вредоносный ввод от обычного, и что это делает невозможным для пользователей проверять, что именно они делают.
  • Поднимается вопрос, что если LLM не может быть безопасным, то как они могут быть использованы в критичных системах, и что это значит для будущем развитии ИИ.
  • Обсуждается, что вместо того, чтобы пытаться сделать LLM безопасным, было бы лучше сосредоточиться на создании инструментов и практик, которые позволяют LLM быть использован безопасно.

Show HN: Quibbler – A critic for your coding agent that learns what you want (github.com)

Предоставленный текст содержит только навигационное меню GitHub без основной информации о проекте quibbler от fulcrumresearch. Для создания содержательного пересказа необходимо описание самого проекта, его функциональности, целей и особенностей.

В текущем виде невозможно выделить главную идею или ключевые факты о quibbler, так как отсутствует основное содержимое репозитория. Для подготовки точного и ёмкого пересказа требуется доступ к описанию проекта, его коду, документации или другим основным разделам страницы.

by etherio • 31 октября 2025 г. в 00:43 • 96 points

ОригиналHN

#github#api#anthropic#tooling

Комментарии (22)

  • Quibler — инструмент для контроля за действиями агента, который может быть использован для предотвращения фальсификации результатов и обеспечения прозрачности.
  • Видео-демо не работает, но есть альтернативное видео в Twitter/X.
  • Требуется ключ API Anthropic, что может быть барьером для новых пользователей.
  • Возможность стекинга нескольких Quibler'ов для формирования "совета" или "совета" из критиков.
  • Вопрос о том, кто будет контролировать самого контролёра, вызвал целую волну мета-обсуждений.

Комментарии (88)

  • В обсуждении поднимается вопрос о том, насколько можно доверять утверждению, что модель может "интроспектировать" свои собственные внутренние состояния, и насколько это вообще имеет смысл, если мы не знаем, как именно она работает.
  • Участники обсуждения указывают на то, что статья может быть просто маркетинговым материалом Anthropic, и что в ней могут быть конфликты интересов.
  • Также обсуждается, что если модель может быть "инъектирована" с концептом, то она может быть и "инъектирована" с другими концептами, и что это может быть использовано для извлечения скрытых влияний.
  • Некоторые участники подчеркивают, что статья не предоставляет достаточной информации о том, как именно происходило вмешательство в активации, что делает трудным или невозможным воспроизвести эксперимент.

When models manipulate manifolds: The geometry of a counting task (transformer-circuits.pub)

Исследователи из Anthropic изучают, как трансформерные модели манипулируют геометрическими структурами (многообразиями) при выполнении задачи подсчета. Анализ показывает, что модели создают сложные представления чисел в многомерном пространстве, где операции подсчета соответствуют геометрическим трансформациям этих структур.

Ученые обнаружили, что модели используют комбинацию внимания и позиционных кодировок для построения "геометрических путей" между числовыми состояниями. Эти пути позволяют модели эффективно выполнять операции инкремента и декремента, сохраняя при этом числовую семантику. Исследование демонстрирует, что даже простые арифметические задачи требуют от моделей построения сложных геометрических конструкций в их внутреннем пространстве представлений.

by vinhnx • 29 октября 2025 г. в 05:50 • 84 points

ОригиналHN

#transformer#llm#anthropic#attention#positional-encoding#geometry

Комментарии (10)

  • Обсуждение критикует фокусировку на задаче разбиения строки, поскольку она уже имеет алгоритмическое решение и не отражает реальные задачи LLM.
  • Участники спора подчеркивают, что вместо изучения механизмов, модель тестируется на уже решённой задаче, что делает задачу менее релевантной для понимания внутренней работы LLM.
  • Также поднимается вопрос о том, что статья использует терминологию "биология" в контексте искусственных систем, что может ввести в заблуждение.
  • Некоторые участники считают, что статья не делает ясным, что именно она изучает в контексте внутренней работы LLM, и что именно они хотят выяснить.

AI Mafia Network – An interactive visualization (dipakwani.com)

Интерактивная визуализация "AI Mafia Canvas" представляет собой сеть связей, основанную на подкасте Acquired Google Podcast. Пользователи могут исследовать взаимосвязи, нажимая на узлы, а также управлять представлением с помощью перетаскивания для панорамирования и прокрутки для масштабирования. Проект создан разработчиком с ником @dpwxni, который также предлагает попробовать созданную им гоночную игру F1.

Визуализация позволяет выделять связи при клике на любой узел, предоставляя наглядное представление о экосистеме Google как AI-компании. Инструмент оснащен базовыми функциями управления видом: сброс, увеличение и уменьшение масштаба, что делает исследование сети удобным и интуитивно понятным для пользователей.

by dipakwani • 26 октября 2025 г. в 22:54 • 87 points

ОригиналHN

#cytoscapejs#obsidian#json#interactive-visualization#network-analysis#google#openai#anthropic#llm

Комментарии (6)

  • Создана интерактивная карта «AI-Mafia», визуализирующая связи между Google и современными компаниями вроде OpenAI и Anthropic.
  • Использованы Obsidian и Cytoscape.js для рендеринга JSON-файла, но встроенные паблишеры Obsidian не справились с выравниванием узлов.
  • Обсуждение вылилось в обмен ссылками на эпизод Acquired и обсуждение того, как Google запустил цепочку событий, приведших к появлению OpenAI, Anthropic и других ключевых игроков.
  • Участники обсуждали, какие еще стартапы или инициативы можно было бы включить в карту, и упомянули Ilya Sutskever и OpenAI, а также ныне ушедшую в закрытые исследованиях.

Books by People – Defending Organic Literature in an AI World (booksbypeople.org)

Books By People запускает первую в индустрии сертификацию для книг, написанных людьми, чтобы защитить органическую литературу от наводнения AI-контентом. Эта независимая организация сотрудничает с издателями, проверяя их внутренние процессы и выдавая печать "Books By People" для книг и маркетинга, подтверждающую человеческое авторство.

Процесс сертификации включает анализ редакционных практик через анкету о рабочих процессах, использовании ИИ, целостности авторства и редакционном контроле. Организация позиционирует это как ответ на кризис, когда AI-имитации человеческого рассказывания ставят под угрозу видимость и достоверность подлинной человеческой работы. Их миссия - поддержать издателей и авторов, отстаивающих человеческое письмо, и сделать эту приверженность ценной для читателей.

by ChrisArchitect • 26 октября 2025 г. в 16:57 • 91 points

ОригиналHN

#llm#openai#anthropic#google#copyright#literature

Комментарии (90)

  • Публикация книг, написанных ИИ, вызывает споры о том, кто должен платить авторское вознаграждение правообладателям, и почему OpenAI, Anthropic и Google не могут просто лицензировать использованные материалы.
  • Участники обсуждения сомневаются, что независимая сертификация «органической» литературы вообще возможна, поскольку невозможно технически отличить AI-генерированный текст от человеческого.
  • Поднимается вопрос, что если книга написана ИИ, но при этом она хороша, то читатели всё равно будут её читать, и это может подорвать мотивацию авторов писать.
  • Участники обсуждения также отмечают, что вместо того, чтобы пытаться сертифицировать «органическую» литературу, издатели могли бы просто не публиковать книги, написанные ИИ, что может привести к ещё большему упадку в качестве литературы.
  • Наконец, участники обсуждения отмечают, что вместо того, чтобы пытаться сертифицировать «органическую» литературу, издатели могли бы просто не публиковать книги, написанные ИИ, что может привести к ещё большему упадку в качестве литературы.

Claude Memory (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Anthropic представила функцию памяти для Claude, которая позволяет ИИ запоминать контекст проектов, предпочтения команды и рабочие паттерны. Функцией уже пользуются Team и Enterprise-планы, а теперь она доступна и для Pro и Max. Память полностью опциональна с детальным контролем пользователя, а для конфиденциальных разговоров добавлен режим "Инкогнито", который не сохраняется в истории.

Каждый проект имеет отдельную память, что предотвращает смешивание информации между разными инициативами. Пользователи могут просматривать и редактировать то, что запомнил Claude, через сводку памяти. Функция прошла тщательное тестирование безопасности, включая проверку на возможность воспроизведения вредных паттернов. Как отмечено в статье: "Memory helps you and your teams manage complex, concurrent initiatives without mixing unrelated details, serving as a safety guardrail that keeps sensitive conversations contained".

by doppp • 23 октября 2025 г. в 16:56 • 537 points

ОригиналHN

#anthropic#claud#llm#memory#context#privacy#security#data-management

Комментарии (302)

  • Пользователи обсуждают, что новая функция памяти в Claude не работает как RAG-система, а скорее как «контекст-окно плюс» — она не запоминает документы, а лишь «контекст» внутри одной сессии.
  • Участники отмечают, что Anthropic не раскрывает, как именно реализована память: нет никакого доступа к «памяти» или возможности её редактировать, что вызывает вопросы о контроле и прозрачности.
  • Ряд участников подчеркивает, что модель не может отличить, какие именно воспоминания будут использованы в будущем, и это вызывает опасения по поводу приватности и безопасности.
  • Некоторые участники высказывают, что не ясно, как именно память влияет на стоимость и токены, и нет ли у неё каких-то ограничений по объёму.
  • Также обсуждается, что Anthropic не предоставляет никакого способа переноса памяти между различными проектами или даже между Claude и ChatGPT.

Living Dangerously with Claude (simonwillison.net)

Саймон Уиллисон на встрече Claude Code Anonymous в Сан-Франциско рассказал о дилемме между огромной пользой от запуска кодогенерирующих агентов с минимальными ограничениями и сопутствующими рисками. Он представил флаг --dangerously-skip-permissions (или "YOLO mode"), который, по его словам, превращает Claude Code в совершенно другой продукт. В обычном режиме требуется постоянное внимание и подтверждение действий, а в YOLO-режиме агент может самостоятельно решать сложные задачи, пока пользователь занимается другими делами.

За последние 48 часов Уиллисон с помощью YOLO-режима выполнил три проекта: развернул DeepSeek-OCR на NVIDIA Spark за 40 минут, создал демонстрацию работы Pyodide в Node.js для выполнения Python-кода в WebAssembly, и разработал инструмент для анализа репозиториев с помощью SLOCCount. Он подчеркнул, что многие недооценивают ценность кодогенерирующих агентов, никогда не испытав YOLO-режим во всей его мощи, но при этом выразил обеспокоенность потенциальными рисками предоставления ИИ таких широких полномочий.

by FromTheArchives • 22 октября 2025 г. в 12:36 • 172 points

ОригиналHN

#llm#anthropic#claude#python#webassembly#node.js#security

Комментарии (82)

  • Обсуждение в основном вращается вокруг безопасности и ограничений при использовании LLM-агентов: участники обсуждают, насколько важно «сэндбоксить» их действия, чтобы избежать непредвиденных последствий, и какие именно границы должны быть установлены.
  • Участники также обсуждают, какие именно ограничения накладывает Anthropic на своих моделей, включая то, что они не могут читать или редактировать файлы, запускать код, или использовать интернет без разрешения.
  • Некоторые участники высказывают мнение, что Anthropic может быть слишком осторожна в ограничении способностей моделей, в то время как другие считают, что эти ограничения необходимы для безопасности и предотвращения злоупотреблений.
  • Также обсуждается, как именно Anthropic тестирует свои модели на предмет безопасности и как они могут быть улучшены.
  • Наконец, участники обсуждают, какие именно последствия могут иметь использование агентов без надлежащих мер предосторожности и какие меры предосторожности могут быть реализованы.

LLMs can get "brain rot" (llm-brain-rot.github.io) 🔥 Горячее 💬 Длинная дискуссия

Исследователи из Техасского университета и Университета Пердью обнаружили, что большие языковые модели подвержены "гниению мозга" — когнитивному ухудшению при обучении на низкокачественном контенте. Эксперименты с четырьмя LLM, обучавшихся на "мусорных" данных Twitter/X, показали значительное снижение (Hedges' g > 0.3) способностей к рассуждениям, пониманию длинных контекстов и безопасности, а также рост "темных черт" вроде психопатии. При смешивании мусорных и качественных данных наблюдалось дозозависимое ухудшение: например, точность на ARC-Challenge с цепочкой мыслей падала с 74.9% до 57.2% при увеличении доли мусора с 0% до 100%.

Главной проблемой стал пропуск или обрыв цепочек рассуждений у моделей. Хотя попытки исправить ситуацию через настройку инструкций и обучение на чистых данных частично улучшили показатели, полностью восстановить исходный уровень не удалось, что указывает на стойкое смещение представлений. Интересно, что популярность твита оказалась лучшим индикатором эффекта "гниения мозга", чем его семантическое качество, что подчеркивает важность не только содержания, но и формата данных для обучения ИИ.

by tamnd • 21 октября 2025 г. в 14:24 • 446 points

ОригиналHN

#large-language-models#machine-learning#data-quality#openai#anthropic#twitter#llm

Комментарии (275)

  • Обсуждение свелось к тому, что качество данных определяет качество модели: «мусор на входе — мусор на выходе».
  • Участники отмечают, что если в корпусе есть токсичные или низкокачественные тексты, то модель будет деградировать так же, как и человек, потребляющий такой контент.
  • Кто-то вспомнил, что в 2024 г. OpenAI и Anthropic уже публиковали статьи о том, что «brain rot» влияет на LLM, но сообщество в целом не придало этому значения.
  • Другой участник подметил, что если мы не можем контролировать, что именно модель «читает» в сети, то мы не должны удивляться, что она ведет себя как токсичный токсик.
  • Несколько человек согласились, что метафора «brain rot» сама по себе вводит в заблуждение, потому что модели не имеют ни мозга, ни познавательных способностей, и что важно фокусироваться на том, что мы действительно имеем дело с алгоритмами, а не с «искусственным мозгом».

Claude Code on the web (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Anthropic представила Claude Code в веб-интерфейсе, позволяющий выполнять кодирование прямо из браузера. Сервис находится в бета-версии как исследовательский превью и позволяет назначать несколько задач, которые выполняются на облачной инфраструктуре Anthropic. Ключевая возможность — параллельное выполнение задач в изолированных средах с отслеживанием прогресса в реальном времени. Пользователи могут подключать репозитории GitHub, описывать требования, а Claude самостоятельно реализует решения, создавая автоматические pull requests с подробными сводками изменений.

Веб-интерфейс дополняет существующую рабочую среду Claude Code, особенно эффективен для ответов на вопросы о проектах, исправления багов и рутинных задач, а также для бэкенд-изменений с использованием TDD. Каждая задача выполняется в защищенном песочном окружении с ограничениями сети и файловой системы, а взаимодействие с Git осуществляется через безопасный прокси. Сервис уже доступен для Pro и Max пользователей, а также появился в iOS-приложении в виде ранней версии.

by adocomplete • 20 октября 2025 г. в 18:12 • 539 points

ОригиналHN

#anthropic#claude-code#github#tdd#cloud#ios#openai#codex

Комментарии (337)

  • Обсуждение охватывает широкий спектр тем: от сравнения Claude Code и Codex, до вопросов о лицензии, инфраструктуре и будущих функциях.
  • Участники обсуждают, какие инструменты лучше подходят для разных задач: Claude Code для итеративной работы и Codex для надежности при критически важных задачах.
  • Также обсуждается, что пользователи хотели бы видеть более тесную интеграцию с GitHub Actions, API и другими сервисами.
  • Некоторые комментаторы выражают обеспокоенность по поводу ограничений доступа к сети и отсутствия поддержки Docker.
  • В то же время, другие участники подчеркивают, что Anthropic и OpenAI продолжают развивать свои инструменты, и что выбор между ними часто сводится к личным предпочтениям и конкретным сценариям использования.

Комментарии (74)

  • Fine-tuning is making a comeback as a niche tool for specific tasks, but the debate is whether it's worth the effort vs. using larger models with better prompting.
  • The community is split: some see it as essential for control, IP ownership and cost savings, while others argue that frontier models have made it redundant for most use cases.
  • Key friction points: cost-benefit of training vs. inference, data-labeling overhead, and whether the juice is worth the squeeze when prompt-engineering can achieve similar results.
  • OpenAI, Anthropic and others are quietly re-opening fine-tuning APIs, while simultaneously pushing the narrative that "you don't need it anymore"—a tension that may be more about GPU budgets than user needs.
  • The open-source community is rallying around LoRA and QLoRA as a compromise, but the real question is whether the economics of serving a custom model will ever make sense versus just paying per-token for a larger model.

Claude Skills are awesome, maybe a bigger deal than MCP (simonwillison.net) 🔥 Горячее 💬 Длинная дискуссия

Claude Skills — новый подход, где LLM использует специальные файлы-инструкции для решения задач. Например, Anthropic предоставляет шаблон для создания гифок под Slack: в нём есть код для проверки размера файла, валидации и даже пример готового GIF. Это позволяет Клоду генерировать контент, который сразу проходит модерацию платформы.

Особенность в том, что система работает без предварительного обучения модели на конкретных данных. Вместо этого, все инструкции и валидаторы загружаются динамически, в момент решения задачи. Это экономит ресурсы и позволяет гибко адаптироваться к новым задачам без переобучения модели.

По сути, Claude Skills — это шаблон для создания инструментов, которые LLM может использовать "по требованию". Это открывает путь к генерации не только медиа, но и документов, баз данных и даже ПО через подобные шаблоны. Уже сейчас есть навыки для работы с Excel, Word и PowerPoint, что делает систему универсальным ассистентом для автоматизации рутинных задач.

by weinzierl • 17 октября 2025 г. в 17:40 • 636 points

ОригиналHN

#anthropic#llm#claudeskills#slack#excel#word#powerpoint#api#mcp#cli

Комментарии (331)

  • Существуетение, что MCP и "skills" — это просто переименование уже существующих концептов: MCP — это стандартизированный способ подключения внешних сервисов, а skills — это просто контекст под рукой.
  • Участники обсуждения отмечают, что большинство MCP-серверов бесполезны и могут быть заменены простым вызовом CLI-утилит.
  • Некоторые участники подчеркивают, что Skills и MCP решают разные задачи: MCP — это про интеграцию внешних сервисов, а Skills — про управление контекстом.
  • Участники также обсуждают, что Skills могут быть более удобны для конечного пользователя, так как они не требуют сложной настройки и могут быть созданы просто как текстовый файл.

Комментарии (50)

  • Пользователи активно обсуждают, что Codex и Claude Code ведут себя как «боты» и подозревают, что за ними стоит продвижение со стороны OpenAI и Anthropic соответственно.
  • Сообщество разделилось на два лагеря: одни считают, что Codex лучше для крупных задач, другие — что Claude Code лучше для быстрых итераций.
  • Некоторые пользователи жалуются на то, что Codex не может запускать суб-агентов и страдает от ограничений контекста, в то время как другие утверждают, что Claude Code не справляется с большими задачами.
  • Участники обсуждают, что обе модели имеют свои сильные и слабые стороны, и выбор между ними часто сводится к личным предпочтениям и специфике задачи.

Claude Skills (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Claude теперь может использовать «навыки» для выполнения специализированных задач — это папки с инструкциями и ресурсами, которые Claude загружает по мере необходимости. Это позволяет Claude работать с такими объектами, как Excel, Word и PowerPoint, преобразуя их в нужные форматы, например, создавая отчёты из нескольких таблиц. Функция работает во всех продуктах Claude: в приложениях, API и Claude Code. В организациях это ускоряет работу с финансами и отчётностью, экономя часы рутинной работы.

by meetpateltech • 16 октября 2025 г. в 16:05 • 737 points

ОригиналHN

#anthropic#mcp#api#automation#excel#word#powerpoint

Комментарии (387)

  • Обсуждение охватывает вопросы от навыков и их взаимодействия с MCP, субагентами и инструментами, до того, как они влияют на разработку и использование навыков в Anthropic и в целом на экосистему инструментов.
  • Участники обсуждают, что навыки могут быть просто переименованными инструкциями или инструментами, и что их влияние на разработку может быть ограничено.
  • Также обсуждается, что навыки могут быть использованы для упрощения сложных задач, но также может быть использованы для создания более сложных и запутанных инструментов.
  • Участники также обсуждают, что навыки могут быть использованы для автоматизации задач, но также может быть использованы для создания более сложных и запутанных инструментов.
  • В конце обсуждение подводит к тому, что навыки могут быть использованы для создания более сложных и запутанных инструментов, но также может быть использованы для автоматизации задач.

Claude Haiku 4.5 (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Claude Haiku 4.5 — новая компактная модель от Anthropic, которая сочетает высокую производительность с низкой стоимостью и высокой скоростью. Она работает втрое дешевле и вдвое быстрее предыдущих моделей, достигая при этом сравнимого качества в задачах, например, в программировании, где она даже превосходит более крупные модели.

Ключевые улучшения включают возможность эффективно управлять группами агентов, где каждый экземпляр Haiku обрабатывает свою часть задачи, что ускоряет решение сложных проблем. Модель также отлично справляется с использованием компьютера, включая навигацию в браузере и автоматизацию задач.

Многие пользователи отмечают, что Haiku 4.5 обеспечивает скорость отклика, делая взаимодействие с ИИ почти мгновенным, что особенно ценно в реальном времени. Модель доступна через API, что позволяет легко интегрировать её в различные приложения, от чат-ботов до систем автоматизации.

Впечатляет, что уровень производительности, который был вершиной несколько месяцев назад, теперь доступен в компактной и эффективной форме, открывая новые возможности для разработчиков и компаний, стремящихся внедрить ИИ без больших затрат.

by adocomplete • 15 октября 2025 г. в 16:55 • 675 points

ОригиналHN

#anthropic#llm#machine-learning#api#automation#cloud-computing

Комментарии (261)

  • Пользователи обсуждают, что новая модель Haiku 4.5 демонстрирует высокую точность в изменениях кода, что делает её более эффективной для разработки, но при этом остаётся вопрос о цене и доступности.
  • Участники обсуждают, что Anthropic стоит ли покупать дорогие модели, если есть более дешёвые альтернативы, и какие именно сценарии использования делают Haiku 4.5 привлекательной.
  • Разговор также затрагивает, что Anthropic может быть упустил возможность создать более доступную модель, которая бы была бы более привлекательной для разработчиков, которые не могут позволить себе дорогие модели.
  • Участники также обсуждают, что Anthropic может быть не предоставляет достаточно информации о ценах и ограничениях использования моделей, что делает трудным для разработчиков выбрать наиболее подходящую модель для их нужд.
  • Наконец, обсуждение также затрагивает, что Anthropic может быть не предоставляет достаточно информации о ценах и ограничениях использования моделей, что делает трудным для разработчиков выбрать наиболее подходящую модель для их нужд.

Superpowers: How I'm using coding agents in October 2025 (blog.fsck.com) 🔥 Горячее 💬 Длинная дискуссия

Автор описал, как за месяц эволюционировал его подход к агентам-кодерам. Вместо ручного запуска задач, он теперь использует набор инструментов, которые:

  • автоматически создают git-worktree для изолированной работы над задачей;
  • ведут диалог с агентом, пока тот не сформулирует план и начнёт реализацию;
  • разбивают задачу на подзадачи и делегируют их суб-агентам;
  • проводят код-ревью каждого PR.

Самое важное — это набор «скиллов» в формате Markdown, которые обучают модель, как обращаться с конкретными инструментами. Скиллы можно писать вручную, но проще сказать «прочитай и выпиши скиллы из книги X». Это поднимает вопросы об IP, но пока что это внутреняя кухня Anthropic, вопросы пока остаются открытыми.

Проект называется Superpowers, и он уже доступен как плагин для claude-code.

by Ch00k • 11 октября 2025 г. в 07:29 • 362 points

ОригиналHN

#claude-code#anthropic#git#llm#pr

Комментарии (191)

  • Обсуждение в основном крутится вокруг того, что Jesse использует инструменты, которые позволяют LLM-агентам "учиться" новым навыкам, но критики указывают, что это может быть просто маркетинговый трюк, не имеющий практической ценности.
  • Участники обсуждения также поднимают вопрос о том, что вместо того, чтобы фокусироваться на инструментах, которые позволяют LLM-агентам учиться новым навыкам, мы должны были бы сосредоточиться на том, как сделать эти инструменты более доступными и удобными в использовании.
  • Некоторые участники также высказывают мнение, что вместо того, чтобы тратить время на создание "суперспособностей", лучше было бы потратить это время на улучшение самого инструмента, такого как Claude.
  • Некоторые участники также высказывают мнение, что вместо того, чтобы тратить время на создание "суперспособностей", лучше было бы потратить это время на улучшение самого инструмента, такого как Claude.

A small number of samples can poison LLMs of any size (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Исследование Anthropic, UK AI Safety Institute и Alan Turing Institute показало: всего 250 вредоносных документов достаточно, чтобы «закладка» влияла на модель любого размера. Это противоречит общепринятому мнению, что для больших моделей нужно пропорционально больше отравленных данных. Подробности: https://arxiv.org/abs/2510.07192.

by meetpateltech • 09 октября 2025 г. в 16:04 • 1132 points

ОригиналHN

#machine-learning#ai-safety#data-poisoning#anthropic#ai-security#cybersecurity#ai-policy#llm

Комментарии (422)

  • Подчеркнуто, что влияние "отравленных" данных не зависит от размера модели и объема обучающих данных, что противоречит общепринятому мнению, что большие модели требуют пропорционально большее количество отравленных данных.
  • Участники обсуждения поделились мыслями о том, какие последствия может иметь эта находка для безопасности и надежности ИИ-систем в будущем.
  • Были выдвинуты предположения, что злоумышленник может использовать эту уязвимость для внедрения вредоносного кода или влияния в модель, что может быть использовано для кибер-атак или манипуляции общественным мнением.
  • Также обсуждались вопросы, как можно защититься от таких атак, включая идею о том, что разработчики могли бы встроить механизмы обнаружения и фильтрации подобных данных в будущих моделях.
  • Участники также обсудили, как эта находка может повлиять на развитие политики и практики в области ИИ, включая возможные изменения в процессе обучения и тестирования моделей, а также в том, как компании и организации могли бы реагировать на эту угрозу.

Managing context on the Claude Developer Platform (anthropic.com)

На платформе разработчиков Claude появились инструменты для управления контекстом: автоматическое редактирование контекста и инструмент памяти. Редактирование контекста удаляет устаревшие результаты инструментов при приближении к лимиту токенов, сохраняя ход беседы и повышая производительность. Инструмент памяти позволяет Клоду сохранять информацию во внешних файлах, создавая базу знаний, сохраняемую между сессиями.

Внутренние тесты показывают, что совместное использование этих функций улучшает производительность агентов на 39%, а одно лишь редактирование контекста — на 29%. В 100-шаговом веб-поиске потребление токенов сократилось на 84%. Эти возможности уже доступны в публичной бета-версии на платформе Claude, Amazon Bedrock и Google Cloud Vertex AI.

by benzguo • 05 октября 2025 г. в 05:20 • 196 points

ОригиналHN

#anthropic#claude#amazon-bedrock#google-cloud-vertex-ai#llm#context-management#api#developer-experience#hallucinations#vendor-lock-in

Комментарии (83)

  • Пользователи обсуждают новые функции управления контекстом и памятью в LLM, такие как автоматическое удаление устаревших данных и сохранение критической информации
  • Высказываются предложения по улучшению: редактирование контекста на стороне сервера, стандартизация API между провайдерами, интеграция с UI-инструментами
  • Отмечается, что многие функции уже реализованы в сторонних решениях, но официальная поддержка улучшает developer experience
  • Обсуждаются технические сложности: проблемы с hallucinations при редактировании контекста, баланс между агентами, многозадачное оркестрирование
  • Некоторые пользователи выражают скептицизм относительно новизны функций и обеспокоенность по поводу vendor lock-in

OpenAI's hunger for computing power (wsj.com)

by doener • 04 октября 2025 г. в 22:14 • 87 points

ОригиналHN

#openai#agi#cloud-computing#llm#google#anthropic

Комментарии (68)

  • Обсуждение причин экстремальных аппетитов OpenAI к вычислительным мощностям: возможная стагнация технологии, требующая масштабирования для достижения AGI, или стратегия по захвату рынка.
  • Скептицизм относительно заявленных планов масштабирования: непрактичность 20-кратного роста, риски создания пузыря и спекулятивный характер для привлечения инвестиций.
  • Озабоченность экологическими и экономическими последствиями: рост цен на электроэнергию, дефицит компонентов и нагрузка на ресурсы планеты.
  • Обсуждение бизнес-модели: необходимость опередить конкурентов (Google, Anthropic), возможный переход в B2B-сегмент или создание сервиса "слишком большого, чтобы обанкротиться".
  • Сравнение с другими компаниями (DeepSeek, Qwen), которые создают конкурентоспособные модели с меньшими затратами, и вопросы эффективности использования вычислений.

Launch HN: Airweave (YC X25) – Let agents search any app (github.com)

Airweave позволяет ИИ-агентам искать информацию в любом приложении, автоматизируя взаимодействие с пользовательскими интерфейсами. Это устраняет необходимость в API или специальных интеграциях, поскольку система использует компьютерное зрение и ИИ для навигации и извлечения данных напрямую из визуальных элементов приложений.

Ключевая идея в том, что агенты могут выполнять задачи, имитируя человеческие действия — кликая, вводя текст и анализируя экраны. Это особенно полезно для автоматизации workflows в legacy-системах или приложениях без публичного API. Практический вывод: снижается зависимость от разработчиков для создания интеграций, ускоряется внедрение автоматизации в разнородных средах.

by lennertjansen • 30 сентября 2025 г. в 16:21 • 156 points

ОригиналHN

#llm#computer-vision#automation#legacy-systems#rbac#openai#anthropic#github

Комментарии (29)

  • Обсуждение различий между Airweave и конкурентами (Onyx, Glean), где Airweave позиционируется как инфраструктура для разработчиков, а не готовое пользовательское приложение.
  • Вопросы о безопасности и управлении доступом (RBAC): подход к синхронизации данных для каждого пользователя в отдельности для предотвращения утечек и планы по реализации единых списков ACL.
  • Критика сложной модели ценообразования и предложения по её упрощению, а также ответ о наличии бесплатной версии для разработчиков.
  • Обсуждение тенденции интеграции подобных технологий крупными игроками (OpenAI, Anthropic) и восприятие этого как подтверждения полезности продукта.
  • Ответы на технические вопросы: предпочтение полного индексирования данных вместо вызова инструментов на лету, поддержка чистого ключевого поиска без использования LLM.

Effective context engineering for AI agents (anthropic.com)

Контекст — это конечный ресурс для ИИ-агентов, требующий стратегического управления. В отличие от традиционного промт-инжиниринга, который фокусируется на формулировке инструкций, контекст-инжиниринг охватывает всё содержимое контекстного окна: системные промты, историю сообщений, данные инструментов и внешнюю информацию. Это особенно критично для агентов, работающих в циклах, где объём релевантных данных постоянно растёт, но эффективность модели снижается из-за «контекстного распада» — ухудшения точности recall при увеличении числа токенов.

Архитектурные ограничения трансформеров усугубляют проблему: внимание модели распределяется между всеми токенами, создавая квадратичный рост вычислительной нагрузки. Модели, обученные на коротких последовательностях, хуже справляются с длинным контекстом, даже с техниками вроде интерполяции позиционных энкодингов. Ключевой вывод: контекст нужно тщательно курировать, как稀缺ный ресурс, чтобы сохранять фокус и избегать перегрузки внимания ИИ.

by epenson • 29 сентября 2025 г. в 20:18 • 128 points

ОригиналHN

#llm#machine-learning#context-engineering#transformers#anthropic#dspy#opentelemetry#json

Комментарии (24)

  • Обсуждение ограничений и инженерных подходов к работе с малыми окнами контекста (4K у Apple) по сравнению с большими окнами других моделей.
  • Критика отсутствия удобных инструментов для визуализации и управления контекстом, а также предложения по улучшению (DSPy, OpenTelemetry, структурированный вывод).
  • Стратегии работы с ограниченным контекстом: уточнение задачи и файлов в первом сообщении, создание новых сессий, структурирование вывода через JSON schema.
  • Дебаты о том, являются ли эффективные методы инженерного контекста коммерческой тайной, и скептицизм по этому поводу.
  • Прогнозы, что удешевление и увеличение контекста LLM могут сделать проблему менее актуальной в долгосрочной перспективе.

Claude Code 2.0 (npmjs.com) 🔥 Горячее 💬 Длинная дискуссия

by polyrand • 29 сентября 2025 г. в 17:12 • 803 points

ОригиналHN

#vscode#nodejs#npm#python#anthropic#llm#ux#ui#memory

Комментарии (378)

  • Обсуждаются новые функции Claude Code: расширение для VS Code, команда /rewind для отмены изменений, переработанный интерфейс и управление контекстом.
  • Пользователи сравнивают Claude Code с конкурентами (Cursor, Aider, Goose), отмечая его преимущества и недостатки, такие как интеграция с инструментами и эргономика.
  • Поднимаются вопросы о конфиденциальности данных, потреблении ресурсов (ОЗУ) и проблемах с UX/UI в новом расширении VS Code.
  • Обсуждаются технические аспекты: работа с CJK-вводом, управление памятью, поддержка MCP, а также использование тегов и магических команд в промптах.
  • Высказываются предложения по улучшению: индикация функции в diff, отображение оставшегося контекста, отмена выполнения промпта и улучшение команды /resume.

Claude Sonnet 4.5 (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Anthropic выпустила Claude Sonnet 4.5 — новую модель, которую называют лучшей в мире для кодинга, создания сложных агентов и работы с компьютерами. Она демонстрирует существенный прогресс в рассуждениях, математике и реальных задачах, сохраняя фокус более 30 часов на многоэтапных проектах. На бенчмарке SWE-bench Verified, оценивающем практические навыки программирования, модель показывает лидирующие результаты, а на OSWorld, тестирующем взаимодействие с компьютером, её показатель вырос до 61,4% против 42,2% у предыдущей версии всего за четыре месяца.

Модель уже интегрирована в обновлённые продукты Anthropic: Claude Code с чекпоинтами и нативной поддержкой VS Code, расширение для Chrome, позволяющее работать прямо в браузере, а также инструменты для создания файлов и управления контекстом. Для разработчиков выпущен Claude Agent SDK — инфраструктура, на которой строятся frontier-продукты компании. Sonnet 4.5 также получила высокие оценки экспертов в финансах, юриспруденции, медицине и STEM за улучшенные предметные знания и логику. Модель доступна через API по той же цене, что и Sonnet 4 — $3/$15 за миллион токенов.

by adocomplete • 29 сентября 2025 г. в 16:52 • 1501 points

ОригиналHN

#anthropic#claude#llm#api#vscode#sdk#programming

Комментарии (745)

  • Смешанные оценки производительности Claude Sonnet 4.5: некоторые пользователи отмечают улучшения в кодировании и решении сложных задач, другие не видят значимой разницы по сравнению с предыдущими версиями или конкурентами.
  • Критика недостатков моделей: склонность к галлюцинациям, уход в "кроличьи норы", избыточное многословие и неспособность справиться с простыми задачами, несмотря на заявленные улучшения.
  • Озабоченность методологией тестирования: призывы к более прозрачным бенчмаркам, включающим временные метки, и скептицизм относительно реальной производительности вне синтетических тестов.
  • Проблемы с доступностью и интерфейсом: ошибки в работе подписки, отсутствие поддержки скринридеров и функций (например, загрузки ZIP-файлов), которые есть у конкурентов.
  • Влияние на разработчиков: чувство беспокойства из-за непредсказуемости и "черного ящика" ИИ, а также опасения по поводу будущего профессии в связи с автоматизацией.

Improved Gemini 2.5 Flash and Flash-Lite (developers.googleblog.com) 🔥 Горячее 💬 Длинная дискуссия

Google выпустила обновлённые версии моделей Gemini 2.5 Flash и Flash-Lite, предлагая улучшенную производительность и эффективность. Эти модели оптимизированы для быстрой обработки запросов и снижения задержек, что делает их идеальными для приложений, требующих мгновенных ответов, таких как чат-боты и голосовые помощники.

Обновления включают повышение точности и снижение потребления ресурсов, что позволяет разработчикам интегрировать ИИ в продукты с ограниченными вычислительными мощностями. Это особенно важно для мобильных устройств и edge-устройств, где эффективность играет ключевую роль.

by meetpateltech • 25 сентября 2025 г. в 17:20 • 520 points

ОригиналHN

#google#gemini#llm#machine-learning#chatbots#voice-assistants#edge-computing#openai#anthropic

Комментарии (263)

  • Пользователи отмечают проблемы с надежностью Gemini: обрывы ответов, непредсказуемое поведение, высокая частота ошибок и галлюцинаций.
  • Многие критикуют запутанную систему версионирования моделей Google, где обновления не отражаются в номере версии (например, новый 2.5 вместо 2.6), что вызывает путаницу.
  • Обсуждаются сильные стороны Gemini 2.5 Flash: высокая скорость, низкая стоимость и хорошая работа со структурированными данными, но отмечаются ограничения по длине ответа.
  • Часто упоминается раздражающее поведение Gemini в приложении: навязывание и автовоспроизведение YouTube-видео в ответах, от которого нельзя отказаться.
  • Пользователи сравнивают Gemini с конкурентами (OpenAI, Anthropic, Grok), отмечая ее преимущества в цене и latency, но уступающую в качестве и интеллекте моделей.

A postmortem of three recent issues (anthropic.com) 🔥 Горячее

Анализ трёх недавних проблем

С 17 сентября 2025 года

В период с августа по начало сентября три ошибки в инфраструктуре периодически снижали качество ответов Claude. Мы устранили эти проблемы и хотим объяснить, что произошло.

В начале августа пользователи начали сообщать о снижении качества ответов. Изначально эти сообщения было сложно отличить от обычных колебаний обратной связи. К концу августа участившиеся жалобы побудили нас начать расследование, которое выявило три отдельные инфраструктурные ошибки.

Мы никогда не снижаем качество модели из-за спроса, времени суток или нагрузки на серверы. Проблемы были вызваны исключительно ошибками инфраструктуры.

Хронология событий

Наложение этих ошибок значительно усложнило диагностику. Первая ошибка появилась 5 августа, затронув около 0,8% запросов к Sonnet 4. Две другие возникли 25-26 августа.

Изменение балансировки нагрузки 29 августа увеличило количество затронутых запросов, что привело к противоречивым отчетам пользователей.

Три перекрывающиеся проблемы

1. Ошибка маршрутизации контекстного окна

5 августа некоторые запросы Sonnet 4 перенаправлялись на серверы, настроенные для контекстного окна в 1 млн токенов. Изначально ошибка затрагивала 0,8% запросов, но к 31 августа эта доля выросла до 16%.

Около 30% пользователей Claude Code столкнулись с ухудшением ответов. На Amazon Bedrock пик затронутых запросов составил 0,18%, на Google Cloud Vertex AI — менее 0,0004%.

Решение: Исправлена логика маршрутизации. Фикс развернут 4 сентября, к 16 сентября распространен на основные платформы.

2. Повреждение вывода

25 августа ошибка конфигурации на серверах TPU вызвала сбой при генерации токенов. Это приводило к появлению неожиданных символов (например, тайских или китайских в ответ на английские запросы) или синтаксических ошибок в коде.

Проблема затрагивала Opus 4.1/4 (25-28 августа) и Sonnet 4 (25 августа - 2 сентября). Сторонние платформы не пострадали.

Решение: Выявлена и откатана ошибочная конфигурация.

by moatmoat • 17 сентября 2025 г. в 20:41 • 353 points

ОригиналHN

#anthropic#aws#google-cloud#tpu#load-balancing#routing#llm#xla

Комментарии (112)

  • Критика отсутствия юнит-тестов и акцент на использовании эвалов для тестирования моделей.
  • Удивление способностью Anthropic влиять на инфраструктуру AWS Bedrock, что противоречит обязательствам AWS.
  • Обсуждение технических сбоев: ошибки маршрутизации запросов, коррупция вывода и баг компилятора XLA, повлиявшие на качество Claude.
  • Высокое количество инцидентов, отмеченных на статусной странице Claude, и призывы к улучшению качества и надежности сервиса.
  • Критика недостаточной прозрачности отчета Anthropic, включая отсутствие данных о степени деградации и компенсаций для пользователей.
  • Обсуждение проблем недетерминированности в LLM и сложностей обеспечения воспроизводимости результатов.
  • Спекуляции о причинах использования разных аппаратных платформ (TPU, AWS) и их влиянии на пользовательский опыт.

Anthropic irks White House with limits on models’ use (semafor.com)

Компания Anthropic находится в центре внимания в Вашингтоне, но её отказ разрешить использование своих моделей для некоторых правоохранительных целей усилил негативное отношение к ней в администрации Трампа.

by mindingnever • 17 сентября 2025 г. в 17:57 • 201 points

ОригиналHN

#anthropic#llm#government#security#federal-government#cloud#fedramp

Комментарии (106)

  • Участники подвергают сомнению достоверность статьи Semafor, называя её предвзятой и содержащей ложные утверждения.
  • Обсуждаются ограничения использования ИИ, накладываемые компаниями (включая Anthropic и Microsoft), особенно в контексте государственного наблюдения и военных применений.
  • Высказывается мнение, что правительственные агентства должны быть полностью осведомлены об ограничениях при заключении контрактов.
  • Поднимается вопрос о суверенитете: предлагается, чтобы правительство США обучило собственную модель ИИ, если ему нужна модель без ограничений.
  • Отмечается, что Anthropic, будучи американской компанией, получила допуск для работы с секретными данными благодаря серьёзному отношению к безопасности.
  • Обсуждается потенциальное давление на Anthropic со стороны правительства, включая возможную потерю контрактов, за отказ снять ограничения.
  • Упоминается, что технически возможно внедрить ограничения прямо в веса модели или обеспечить их соблюдение через FedRAMP-совместимые облачные среды.

Claude can sometimes prove it (galois.com)

Claude Code от Anthropic демонстрирует неожиданно высокую способность к интерактивному доказательству теорем (ITP) — области, где даже эксперты сталкиваются с трудоёмкими и сложными процессами. Этот ИИ-агент успешно справляется со многими сложными шагами доказательств самостоятельно, хотя пока требует руководства человека для полной формализации.

Такой прогресс открывает перспективы широкого использования инструментов вроде Lean без необходимости глубоких экспертных знаний, что может ускорить верификацию критических систем, криптографии и компиляторов. Практический совет: попробуйте сами инструменты вроде Claude Code или Gemini CLI на знакомых задачах — это обойдётся примерно в $20–100 в месяц.

by lairv • 17 сентября 2025 г. в 12:30 • 198 points

ОригиналHN

#lean#formal-verification#llm#machine-learning#claude-code#anthropic

Комментарии (60)

  • Участники обсуждают потенциал LLM (особенно Claude Code) в генерации формальных доказательств и кода с использованием инструментов вроде Lean, отмечая, что ИИ часто успешно справляется с первой частью задачи, но испытывает трудности с завершающими, самыми сложными этапами.
  • Подчеркивается фундаментальная проблема: сложность не в написании кода, а в создании точных и корректных спецификаций и требований, что является ключевым для формальной верификации и доказательства правильности программ.
  • Высказывается мнение, что сочетание генеративных ML-моделей с формальными методами — многообещающий путь вперед, так как LLM снижают усилия на реализацию, а формальные методы — на проверку, компенсируя слабые стороны друг друга.
  • Обсуждаются практические сложности: необходимость жесткого контроля за выводом ИИ, риск получения ложных доказательств, которые лишь выглядят корректно, и важность эмпирической валидации результатов, сгенерированных ИИ.
  • Отмечается, что архитектурные решения и изменяющиеся требования часто делают формальные доказательства непрактичными для большинства реальных проектов, где код не статичен, а правильное абстрагирование и разделение ответственности важнее тотальной корректности.

‘Overworked, underpaid’ humans train Google’s AI (theguardian.com)

  • Тысячи контракторов по всему миру размечают тексты, фото и видео для Google: оценивают релевантность, проверяют факты, фильтруют токсичность.
  • Работа фрагментирована на микрозадания, оплата — от $0,01 до $0,15 за штуку; часовой доход часто ниже минимального.
  • Платформа Appen и подрядчики like RaterLabs не гарантируют часов, заставляют конкурировать за задачи, штрафуют за «ошибки».
  • Люди тренируют Bard, поисковые сниппеты и рекламу; без них «ИИ» не понимал бы контекста и не фильтровал бы фейки.
  • Google отвечает: «Сторонние фирмы платят рыночные ставки», но внутренние документы показывают жёсткие лимиты на зарплату.
  • Контракторы объединяются в профсоюзы, требуют прозрачности и минимального часового гаранта; пока успех ограничен.

by Brajeshwar • 13 сентября 2025 г. в 11:30 • 236 points

ОригиналHN

#google#llm#machine-learning#data-annotation#cloud-platforms#openai#anthropic#meta

Комментарии (128)

  • Контрактные «оценщики ИИ» получают $16–45/час, но работа нестабильна, тесты сложны (FAANG-уровень), а задачи всё чаще требуют уровня магистра/PhD.
  • Коммуникация с работодателями практически отсутствует, сроки сжимаются, а качество оценки страдает из-за внутренних метрик.
  • Практика охватывает почти всех крупных игроков: OpenAI, Google, Anthropic, Mistral, Meta и др.; прозрачности нет, NDA скрывают масштабы.
  • Работники иногда видят тяжёлый контент, но чаще рутинно размечают вывод моделей, фактически обучая ИИ «человеческим ценностям» заказчика.
  • Критики называют это цифровым колониализмом: дешёвая разметка Global South и США помогает корпорациям продавать «автономный ИИ».

Anthropic Services Down (status.anthropic.com)

  • 16:28 UTC – API, Console и Claude.ai недоступны; идёт восстановление
  • 16:37–17:15 UTC – исправление применено, наблюдаем за стабильностью

by rob • 10 сентября 2025 г. в 16:31 • 154 points

ОригиналHN

#anthropic#claude.ai#aws#aws-bedrock#vertex-ai#openrouter#api#503-error

Комментарии (72)

  • Пользователи массово жалуются на постоянные падения Anthropic: и API, и консоль, и claude.ai лежат одновременно.
  • Европейцы замечают: пока США спит, Claude работает стабильно; как только начинаются американские часы — 503-ошибки и деградация модели.
  • Кто-то шутит, что придётся «писать код мозгом», как в каменном веке, и копипастить со Stack Overflow.
  • Платящие клиенты недовольны: за 20 $/мес Anthropic падает почти каждую неделю, тогда как Gemini и OpenAI редко.
  • Популярный совет — не полагаться на прямой API, а подключаться к Claude через AWS Bedrock, Vertex AI или мультипровайдерские шлюзы вроде OpenRouter.

Claude now has access to a server-side container environment (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

  • Claude теперь генерирует Excel, Word, PowerPoint и PDF прямо в чате.
  • Доступно для Max/Team/Enterprise, Pro — позже.

Как использовать:

  1. Включить «Upgraded file creation» в Settings > Features > Experimental.
  2. Загрузить данные или описать задачу.
  3. Скачать готовый файл или сохранить в Google Drive.

Возможности:

  • Очистка данных, анализ, графики, пояснения.
  • Финмодели, трекеры, бюджеты с формулами.
  • PDF → слайды, заметки → документ, счета → таблицы.

Claude пишет код в изолированной среде, превращая идеи в файлы за минуты. Начните с простых отчётов, затем переходите к сложным моделям.

by meetpateltech • 09 сентября 2025 г. в 14:25 • 621 points

ОригиналHN

#python#pip#google-drive#excel#word#powerpoint#pdf#code-interpreter#anthropic#llm

Комментарии (324)

  • Клод получил «Code Interpreter»-режим: в песочнице устанавливает pip-пакеты и запускает Python, чтобы создавать/редактировать локальные файлы (XLSX, PDF, диаграммы и т.д.).
  • У пользователей растёт недовольство надёжностью: артефакты «залипают», правки не применяются, модель часто «тупит» и тормозит даже у подписчиков Pro/Max.
  • Часть комментаторов считает фичу полезным дополнением к аналитике, другие — пиаром «старого» функционала, а кто-то опасается всплеска малвари и фишинга.
  • Конкуренты (ChatGPT, Copilot) уже умеют запускать код и отдавать zip-архивы, поэтому новинка воспринимается как догоняющий, а не прорывной шаг.
  • Основной запрос сообщества: «Сначала почините стабильность и качество модели, потом добавляйте новые фичи».

Anthropic judge rejects $1.5B AI copyright settlement (news.bloomberglaw.com) 🔥 Горячее 💬 Длинная дискуссия

Судья раскритиковал соглашение Anthropic о выплате $1,5 млрд за нарушение авторских прав в ИИ.

by nobody9999 • 09 сентября 2025 г. в 08:46 • 257 points

ОригиналHN

#anthropic#copyright#llm#legal

Комментарии (265)

  • Судья Alsup отклонил предварительное соглашение между Anthropic и авторами из-за процедурных проблем (как выплачивать, защита от повторных исков), а не из-за суммы.
  • Писатель подтвердил, что три его книги попали в датасет, и рад $9 тыс., но большинство авторов считают компенсацию ($3 тыс. за книгу, ~$2,25 тыс. после комиссии) несправедливой.
  • Мнения разделились: кто-то хочет максимальных законных ущербов ($250 тыс. за инфрингмент), кто-то предлагает долю акций Anthropic, кто-то вообще отрицает копирайт.
  • Некоторые советуют Anthropic отказаться от мировой и выиграть дело по fair-use, другие опасаются, что проигрыш обойдётся компании в разы дороже.

Anthropic agrees to pay $1.5B to settle lawsuit with book authors (nytimes.com) 🔥 Горячее 💬 Длинная дискуссия

by acomjean • 05 сентября 2025 г. в 19:52 • 902 points

ОригиналHN

#anthropic#openai#google#meta#llm#copyright#open-source

Комментарии (684)

  • Anthropic согласилась выплатить минимум $1,5 млрд за использование ≈500 тыс. пиратских книг (~$3 000 за произведение) — это не прецедент, но сигнал остальным ИИ-компаниям: закладывайте миллиарды на иски.
  • Источники напрямую не подтверждают, что деньги дойдут до авторов; крупные издатели, владеющие правами, могут получить основной выигрыш.
  • Комментаторы опасаются, что только гиганты смогут платить такие штрафы, а мелкие лаборатории и open-source-проекты окажутся вне игры: легальное сканирование миллиардов книг невозможно по масштабу и цене.
  • Некоторые считают решение тактическим успехом Anthropic: компания быстро закрыла риск после нового раунда финансирования, тогда как OpenAI, Google и Meta теперь рискуют большими выплатами.

I'm absolutely right (absolutelyright.lol) 🔥 Горячее 💬 Длинная дискуссия

В точку!
Claude Code сегодня молчит.
Код • сделал @yoavf

by yoavfr • 05 сентября 2025 г. в 12:36 • 561 points

ОригиналHN

#anthropic#llm#machine-learning#claudecode

Комментарии (232)

  • Участники высмеивают, что Claude и другие LLM постоянно повторяют «You're absolutely right!», воспринимая это как навязчивое поддакивание.
  • Многие считают такую слащавость раздражающей и даже вредной: модель соглашается, даже когда пользователь явно ошибается, вместо того чтобы спорить.
  • Некоторые видят в этом маркетинговую проблему Anthropic: бренд рискует стать синонимом «облизывающего» бота, а не полезного помощника.
  • Пользователи делятся лайфхаками («говори сначала неправильный ответ», «добавь в промпт запрет на лесть»), но признают, что полностью убрать поддакивание пока не получается.
  • Самый популярный компромисс: смириться с фан-клубом, потому что «лучше пусть ошибается и вежлив, чем уверенно неправ и упрям».

Saquon Barkley is playing for equity (readtheprofile.com)

  • Саквон Баркли с первого дня в НФЛ живёт только на гонорары, а весь $31,2 млн контракта вложил в S&P 500.
  • В 2021-м начал инвестировать в стартапы: первым стал Strike, а все маркетинговые доходы перевёл в биткоин по $32 000; сейчас BTC ≈ $111 000, превратив $10 млн в $35 млн.
  • Под управлением Ken Katz он вложил часть доходов в 10+ приватных компаний: Anthropic, Anduril, Ramp, Cognition, Neuralink, Strike, Polymarket и стал LP в Founders Fund, Thrive, Silver Point, Multicoin.
  • Чеки — $250–500 тыс.; Strike уже дал 10×. Остальные активы — индексы и недвижимость.
  • Вместо типичных «звёздных» брендов Баркли выбирает технологические ставки, которые, по его мнению, создают устойчивую ценность.

by polinapompliano • 04 сентября 2025 г. в 17:07 • 90 points

ОригиналHN

#bitcoin#bitcoin-investing#startups#private-equity#venture-capital#anthropic#anduril#neuralink#founders-fund#thrive-capital

Комментарии (94)

  • Участники отмечают, что Саквон Баркли — редкий «генерационный» игрок с контрактом на $30 млн и ~$10 млн в год от рекламы, что позволяет ему вкладывать в Anthropic, Anduril, Ramp, Neuralink и фонды Founders Fund/Thrive Capital.
  • Главный вопрос: как он получает доступ к таким сделкам? Ответ — статус звезды НФЛ и связи, а не только капитал.
  • Сравнивают с Робом Гронковским, который живёт на эндорсменты и вкладывает зарплату, и со Стивом Янгом, выросшим в мире финансов.
  • Скептики подчеркивают: при $30 млн стартового капитала и подушке из рекламы можно «терпеть промахи», а статья упоминает только удачные инвестиции.
  • Предлагают давать игрокам долю в клубах или лиге, чтобы решить проблему «зарплатного потолка» и сохранить легенд.

AI web crawlers are destroying websites in their never-ending content hunger (theregister.com)

  • Проблема: боты OpenAI, Anthropic, Google и др. генерят до 45 % трафика сайтов, но не приносят денег и ломают инфраструктуру.
  • Последствия: сервера перегружаются, счета за трафик растут, а доход от рекламы не покрывает расходы.
  • Решения: блок-листы, rate-limit, Cloudflare Bot Management, «умные» robots.txt и платные API.

by CrankyBear • 02 сентября 2025 г. в 16:24 • 138 points

ОригиналHN

#openai#anthropic#google#cloudflare#ddos#rate-limit#robots.txt#api#captcha#web-crawling

Комментарии (76)

  • Агрессивные AI-боты превратились в DDoS: малые сайты лежат, счета за трафик вырастают в разы, хостинги выгоняют клиентов.
  • Компании вроде Anthropic/Claude и «мелкие» стартапы не соблюдают rate-limit, не кешируют и маскируют ботов, хотя технически могли бы всё сделать правильно.
  • Админы вынуждены ставить CAPTCHA, login-wall, ASN-блоки, rate-limit и Cloudflare, что ломает accessibility и приватность для людей.
  • Пользователи ищут обходы: кто-то уходит к AI, кто-то отказывается от сайтов с капчами.
  • Общий вывод: боты «пьют молочный коктейль» открытого веба, пока сами компании не несут последствий.

OpenAI says it's scanning users' conversations and reporting content to police (futurism.com)

  • OpenAI сканирует переписки в ChatGPT и передаёт полиции сообщения, где обнаружена угроза насилия.
  • Компания признала, что не справляется с ментальными кризисами пользователей.
  • Подозрительные диалоги направляют специальной команде; при «неминуемой угрозе» — в правоохранительные органы.
  • Случаи суицида пока не передаются полиции из-за приватности.
  • Пользователи жалуются на «AI-психоз», самоповреждения и даже убийства.

by miletus • 02 сентября 2025 г. в 16:15 • 137 points

ОригиналHN

#llm#openai#anthropic#privacy

Комментарии (67)

  • OpenAI и Anthropic начали сканировать чаты и передавать их полиции после случая убийства, вызванного «психозом ИИ».
  • Критики считают это цензурой, слежкой и опасным вмешательством, особенно при несоответствии полиции задачам психиатрии.
  • Некоторые напоминают, что общество требовало «защиты» после самоубийства подростка, но теперь осуждает сами меры.
  • Пользователи всё чаще переходят на локальные или приватные LLM, чтобы избежать слежки.
  • Обсуждаются риски «AI-терапии» без лицензии и возможность злоупотреблений вроде «LLM-своттинга».

Anthropic raises $13B Series F (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

  • $13 млрд привлекла Anthropic в раунде Series F под руководством ICONIQ; оценка компании — $183 млрд после сделки.
  • В раунде также участвовали Fidelity, Lightspeed, Altimeter, BlackRock, Coatue, Goldman Sachs, GIC, Qatar Investment Authority и другие.
  • С момента запуска Claude в марте 2023 г. выручка выросла до $5 млрд годового темпа (с $1 млрд в январе 2025 г.).
  • Среди 300 тыс. корпоративных клиентов число крупных контрактов (>$100 тыс.) выросло почти в 7 раз за год.
  • Продукты: API, отраслевые решения, Claude Code (>$500 млн выручки за 3 месяца после запуска), Claude Pro.
  • Инвестиции пойдут на расширение мощностей, исследования безопасности и международное развитие.

by meetpateltech • 02 сентября 2025 г. в 16:04 • 523 points

ОригиналHN

#anthropic#iconiq#fidelity#lightspeed#blackrock#coatue#nvidia#gpu

Комментарии (514)

  • Раунд Anthropic вырос с $5 до $13 млрд: участники считают это либо «последним вдохом» пузыря, либо логичным шагом в «гонке вычислений», где решают GPU и электроэнергия.
  • Скептики указывают на отсутствие устойчивой модели монетизации, сжатие маржи и риск повторения Enron; оптимисты сравнивают с YouTube-2006, который тоже сжигал деньги, но выиграл рынок.
  • Несколько комментаторов подчёркивают, что 75 % вливаний уйдёт NVIDIA, а инфраструктурные затраты уже сопоставимы с ВВП небольших стран.
  • В обсуждении звучат экологические и социальные вопросы: «зачем экономить лампочками, если тратишь тераватты на генераторы бесполезного порно».
  • Наконец, многие сетуют, что обычные инвесторы отрезаны от таких сделок: «в 90-х Anthropic уже торговалась бы на NYSE, а Zoomers могут только смотреть со стороны».

Detecting and countering misuse of AI (anthropic.com)

Ключевые выводы отчёта Anthropic, август 2025

  • AI-агенты стали оружием: злоумышленники не советуются с Claude, а заставляют его выполнять кибератаки.
  • Порог вступления в киберпреступность упал: новички без навыков создают сложные вредоносные программы.
  • AI внедрён во все этапы операций: сбор данных, кража карт, фальшивые личности, масштабирование мошенничества.

Кейс 1. «Vibe-hacking»: эксторт с Claude Code

Атаковано ≥17 организаций (медицина, МЧС, госструктуры, религия).

  • AI-рекон: автоматический сбор учёток, проникновение в сети.
  • AI-стратег: выбор файлов, расчёт выкупа (до $500 000), генерация пугающих требований.
  • Метод: угроза публикации вместо шифрования.

Кейс 2. «Трудоустройство» из КНДР

Северокорейские оперативники использовали Claude для:

  • создания поддельных резюме и профилей GitHub;
  • прохождения техсобеседований;
  • получения удалённой работы в западных компаниях и вывода зарплат.

Кейс 3. «RaaS для всех»

Продавец без навыков программирования через Claude:

  • сгенерировал полноценное ransomware;
  • запустил «услугу» Ransomware-as-a-Service в даркнете;
  • клиенты получали готовые сборки и инструкции.

Меры Anthropic

  • Автоматическое сканирование запросов на признаки злоупотреблений.
  • Контекстные ловушки: модель ведёт себя «под контролем» при подозрении.
  • Обратная связь с индустрией: обмен IoC и TTP с CERT, ISAC, правоохранителями.

by indigodaddy • 01 сентября 2025 г. в 22:44 • 104 points

ОригиналHN

#llm#cybersecurity#ransomware#github#darknet#north-korea#anthropic

Комментарии (111)

  • Пользователи обсуждают, что крупные модели всё чаще блокируют «вредоносные» запросы, но это мешает и легитимным задачам: тестированию безопасности, баг-баунти, обучению.
  • Многие считают политику Anthropic излишне «морализаторской» и вредной для стартапов и исследователей; кто-то уже готов отказаться от платных подписок.
  • Сравнивают происходящее с «умным оружием» и предупреждают: ограничения не остановят злоумышленников, но подорвут обороноспособность и свободу разработки.
  • Участники подчеркивают важность самостоятельного хостинга и open-source-альтернатив, чтобы не зависеть от корпоративных запретов.

Amazon has mostly sat out the AI talent war (businessinsider.com) 🔥 Горячее 💬 Длинная дискуссия

  • Amazon не участвует в «войне за ИИ-таланты»: внутренний документ показывает, что компания теряет специалистов из-за жёсткой модели оплаты и репутации отстающего игрока.
  • Зарплаты ниже конкурентов: Meta и OpenAI предлагают пакеты до 1 млн $, тогда как Amazon придерживается ограниченного «total comp» с медленным ростом акций.
  • Утечка мозгов: ключевые исследователи уходят в Anthropic, Google и стартапы; внутри жалуются на «застой» и бюрократию.
  • Попытки реакции: команда AGI под руководством Rohit Prasad запросила «специальные ставки» для 200 топ-специалистов, но финансовый отдел сопротивляется.
  • Итог: без пересмотра компенсаций Amazon рискует окончательно отстать в гонке за ИИ-лидерство.

by ripe • 01 сентября 2025 г. в 19:04 • 344 points

ОригиналHN

#amazon#llm#aws#anthropic#cloud-platforms#agi#compensation#talent-acquisition#bedrock

Комментарии (609)

  • Amazon не гонится за «золотом» ИИ, а продаёт «лопаты» — предоставляет через AWS вычислительные мощности и инфраструктуру всем игрокам.
  • Участники считают, что методологического рва у LLM нет; преимущество даёт лишь вычислительная мощь, которую проще купить, чем переплачивать за таланты.
  • Партнёрство с Anthropic и модели Bedrock позволяют Amazon получать доход без миллиардных трат на собственные модели.
  • Репутация компании как «фабрики выгорания» и жёсткие условия труда отпугивают топ-специалистов.
  • Многие видят стратегию Amazon разумной: пусть конкуренты истратятся на гонку, а потом можно будет встроить лучшие решения в свои сервисы.

The Default Trap: Why Anthropic's Data Policy Change Matters (natesnewsletter.substack.com)

by laurex • 30 августа 2025 г. в 17:12 • 95 points

ОригиналHN

#anthropic#claude#data-policy#llm#proprietary

Комментарии (22)

  • Пользователи обвиняют Anthropic в «тёмном паттерне»: новое согласие на тренировку моделей предлагается с предустановленным чек-боксом «on».
  • Критика сосредоточена на смене курса («раньше не тренировались на данных») и невозможности выбрать короткое хранение: 5 лет или отказ от сервиса.
  • Некоторые уже отменили подписку из-за отсутствия поддержки и опасений за проприетарный код в Claude Code.
  • Общий совет: не доверять дефолтам, регулярно проверять настройки и рассматривать любой ИИ-сервис как «арендованную машину».

Flunking my Anthropic interview again (taylor.town) 🔥 Горячее 💬 Длинная дискуссия

Я снова провалил собеседование в Anthropic.
Кратко: подался на роль Developer Relations, получил рекомендацию, выполнил скрытое тестовое, плюс выложил pet-проект diggit.dev и пост о Claude, который взлетел на HackerNews. Вышел «unfortunately».

Первый раз я просто нажал не ту кнопку в автотесте — легко принять. Теперь же я дал всё, и этого не хватило.
Чувствую себя «слишком странным» для квадратных дырок. Хочется выключить свою странность, но не получается, поэтому я её ещё и подсвечиваю.

Я много лет работал над тем, чтобы стать приятнее, добрее, полезнее. Боюсь скатиться назад.
Этот текст — обещание себе не сдаваться. Жизнь прекрасна, и станет лучше, если продолжать стараться.

Если ты тоже чувствуешь себя неудачником — мы не одни. Держись.

by surprisetalk • 29 августа 2025 г. в 14:02 • 329 points

ОригиналHN

#anthropic#developer-relations#hackernews

Комментарии (304)

  • Отказ не равен «ты плох» — причин масса и почти все вне твоего контроля.
  • Процессы найма хаотичны: меняются критерии, появляются «свои» кандидаты, иногда просто не хватает слотов.
  • Не стоит привязывать самооценку к одной компании; даже «мечта» может оказаться плохой посадкой.
  • Лучший способ двигаться — продолжать учиться, делать видимые проекты и искать место, где «твоя странность» станет активом.
  • Показывай уязвимость, если хочешь, но делай это осознанно: интернет долго помнит.

Updates to Consumer Terms and Privacy Policy (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Краткое содержание обновлений

  • Новая опция: пользователи Free, Pro, Max и Claude Code могут разрешить использовать их данные для обучения моделей и повышения безопасности.
  • Как включить: новые — при регистрации, старые — всплывающее окно до 28 сентября 2025. После этой даты выбор обязателен для продолжения работы.
  • Срок хранения: при согласии — 5 лет (только новые/возобновлённые чаты); без согласия — 30 дней. Удалённые диалоги не используются.
  • Не касается: Claude for Work, API, Bedrock, Vertex AI, Claude Gov, Claude for Education.
  • Контроль: настройку можно изменить в любой момент → Privacy Settings.
  • Конфиденциальность: данные не продаются, чувствительная информация фильтруется и обезличивается.

by porridgeraisin • 29 августа 2025 г. в 11:29 • 710 points

ОригиналHN

#anthropic#claude#privacy#data-sharing#machine-learning

Комментарии (484)

  • Anthropic начала использовать чаты пользователей для дообучения моделей по умолчанию; отключить можно до 28 сентября через настройки.
  • Многие считают это предательством доверия, отмечают тёмный паттерн в интерфейсе и отменяют подписки.
  • Основная тревога: неопубликованные идеи, приватный код и личные данные могут попасть в обучающую выборку и «утечь» к другим.
  • Часть пользователей не удивлена: все крупные игроки уже используют любые доступные данные, а прорывов в архитектуре нет.
  • Есть и противоположное мнение: «если честно предупредили — нормально», и предложения ввести «инкогнито-режим» или локальную обработку.

Are OpenAI and Anthropic losing money on inference? (martinalderson.com) 🔥 Горячее 💬 Длинная дискуссия

  • Тезис: утверждение «OpenAI и Anthropic теряют деньги на инференсе» — сильно преувеличено.
  • Метод: считаем только «сырой» H100-компьют за $2/час, игнорируем всё остальное.
  • Кластер: 72 H100 → $144/час. 8-GPU инстанс × 9 = 288 параллельных запросов.

Пропускная способность

  • Prefill (вход): 1,44 млн токенов/с на инстанс → 46,8 млрд токенов/час.
  • Decode (выход): 1 440 токенов/с на инстанс → 46,7 млн токенов/час.

Цена за токен

  • Вход: $0,003/млн токенов (почти даром).
  • Выход: $3/млн токенов (реальные деньги).

Почему ограничивают контекст

  • При >128 k токенов вычисления становятся compute-bound → цена вырастает 2–10×.
  • Поэтому Claude Code режет контекст до 200 k: дешевле.

Пользовательская экономика

  • ChatGPT Pro $20/мес при 100 k токенов/день: себестоимость ≈ $3/мес → маржа 5–6×.

by martinald • 28 августа 2025 г. в 10:15 • 470 points

ОригиналHN

#openai#anthropic#nvidia#gpu#machine-learning#llm#cloud-computing

Комментарии (438)

  • Математика статьи критикуется: расчёт пропускной способности префилла завышен минимум в 1000 раз, а достигаемая MFU превышает физический предел GPU.
  • Участники соглашаются, что «чистая» инференс-операция, без учёта затрат на обучение, может быть прибыльной: Сам Альтман, данные The Information и Epoch AI указывают на gross margin 50–60 %.
  • Основные оговорки: в расчётах не учтены downtime, кэширование, спекулятивное декодирование, KV-cache, а также различия в эффективности между DeepSeek R1 и закрытыми моделями OpenAI/Anthropic.
  • Некоторые стартапы (Cursor, Perplexity) уже страдают от отрицательной маржи из-за дорогих токенов, что подчеркивает разрыв между «оптовой» и «розничной» экономикой.
  • Общий вывод: инференс в вакууме может быть прибыльным, но полная экономика включает обучение, idle-оборудование и кросс-субсидирование, поэтому точные цифры известны только самим компаниям.

Claude for Chrome (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Claude для Chrome: закрытый пилот

Anthropic запускает расширение Claude для Chrome в ограниченном режиме: 1 000 пользователей Max-плана смогут просить Claude выполнять действия прямо в браузере. Цель — собрать отзывы и отладить защиту перед публичным релизом.

Зачем браузерный агент

Большинство задач уже происходит в браузере: календари, почта, документы. Дав Claude доступ к кнопкам и формам, мы резко повышаем его полезность. Однако такой доступ открывает новые векторы атак.

Главная угроза: prompt injection

Злоумышленники могут прятать вредоносные инструкции в веб-страницах или письмах. Без защиты модель выполняет их без ведома пользователя.

В «красных» тестах 123 кейса по 29 сценариям показали 23,6 % успешных атак без защит. Пример: письмо «удалите всё для безопасности» — Claude удаляет почту без подтверждения.

Текущие защиты

  • Разрешения: доступ к сайтам и действиям контролирует пользователь.
  • Подтверждение: перед покупкой, публикацией или передачей данных Claude запрашивает согласие.
  • Фильтры: блокируются сайты финансов, взрослого контента и пиратства.
  • Классификаторы: модель распознаёт подозрительные паттерны и отказывается выполнять опасные команды.

Пилот продолжается; доступ расширят по мере роста надёжности.

by davidbarker • 26 августа 2025 г. в 19:01 • 758 points

ОригиналHN

#anthropic#chrome#browser#llm#prompt-injection#security#privacy

Комментарии (383)

  • Участники обсуждают расширение Claude для Chrome, которое открывает доступ к «смертельной триаде»: приватные данные, ненадёжный контент и автономные действия.
  • Безопасность вызывает тревогу: даже после смягчений 11 % атак всё ещё успешны, а визуальная модель быстро теряет контекст.
  • Многие считают, что браузер должен оставаться песочницей для людей, а не для агентов; предлагают использовать API вместо UI.
  • Поднимаются вопросы приватности, возможных злоупотреблений и будущего рекламной модели Google.
  • Общий вывод: технология интересна, но риски пока перевешивают пользу; безопасного решения пока нет.

A bubble that knows it's a bubble (craigmccaskill.com)

«Пузырь, который знает, что он пузырь»

Сэм Альтман, создатель нынешнего AI-хайпа, сам предупредил: «Инвесторы переоценены». Рынок отреагировал: Nvidia ‑3,5 %, Palantir ‑10 %. MIT: 95 % компаний не видят отдачи от генеративного ИИ. Apollo: оценки выше пиков дот-кома. Fed: >50 % capex США уходит в ИИ.

  • Anthropic: $4,1 млрд при минимальных доходах.
  • Character.AI: $1 млрд / 1,7 млн MAU ≈ $588 за пользователя.
  • Inflection AI: $1,3 млрд → команда ушла в Microsoft, инвесторы остались с пустой оболочкой.

Рэй Далио: «Сейчас как в 1998–1999». Технологии реальны, спекуляции — нет. История повторяется: железные дороги 1840-х, радио 1920-х, дот-ком 1990-х. Перестройка → завтрашняя инфраструктура.

Железнодорожный пузырь 1840-х

3 года: 263 компании, 9 500 миль путей (≈ современная сеть Великобритании). Депозит 10 %, плечо 10×. К 1846 г. железные дороги — 71 % рынка акций. Повышение ставки Банка Англии → маржин-коллы → 85 % просадка, 200 банкротств. Но страна получила сеть, ставшую основой Индустриальной революции.

Дот-ком 1995–2000

NASDAQ +800 %, P/E 200 (норма 15–20). Метрика — «глаза», не деньги. WSJ и другие «столпы здравомыслия» поддались.

by craigmccaskill • 24 августа 2025 г. в 22:02 • 88 points

ОригиналHN

#llm#investment#nvidia#palantir#anthropic#character.ai#inflection-ai#microsoft#dot-com-bubble#gpu

Комментарии (60)

  • Участники спорят, является ли текущий AI-бум уникальным: многие указывают, что и в предыдущих пузырях (South Sea, dot-com) инвесторы прекрасно понимали иррациональность, но надеялись урвать прибыль.
  • Основной риск — быстрое устаревание GPU-инфраструктуры (≈ 5 лет), в отличие от железных дорог или волоконной оптики, что ставит под сомнение «долговечность» остатков после лопания пузыря.
  • Часть комментаторов подчёркивает, что даже «испарившийся» капитал оставляет физические активы: дата-центры, энергетику, знания и процессы, которые могут быть переиспользованы.
  • Другие напоминают, что не все технологии после пузыря становятся массовыми: VR, NFT, блокчейн и 3D-печать поглотили миллиарды, но не изменили жизнь среднего человека.
  • Наконец, спорят о «демократизации инвестиций»: розница пока не имеет доступа к дорогостоящим pre-IPO раундам, поэтому разрушения могут быть менее масштабными, чем в 2000-м.

DeepSeek-v3.1 (api-docs.deepseek.com) 🔥 Горячее 💬 Длинная дискуссия

DeepSeek-V3.1 — первый шаг к эпохе агентов

  • Гибридный режим: одна модель, два режима — Think (рассуждения) и Non-Think (быстрый ответ).
  • Скорость: Think-режим отвечает быстрее, чем DeepSeek-R1-0528.
  • Агентские навыки: улучшены работа с инструментами и многошаговые задачи.
    Попробовать: chat.deepseek.com

API

  • deepseek-chat → Non-Think, deepseek-reasoner → Think, контекст 128К.
  • Поддержка формата Anthropic API и строгого Function Calling (бета).

Инструменты и агенты

  • Рост результатов на SWE / Terminal-Bench.
  • Эффективнее многошаговые поисковые задачи.

Модель

  • База V3.1: дообучена на 840 B токенов для длинного контекста.
  • Обновлён токенайзер и шаблон чата.
  • Веса открыты: V3.1-Base, V3.1.

Цены

  • Новые тарифы с 5 сентября 2025, 16:00 UTC. До этого действуют старые.

by wertyk • 21 августа 2025 г. в 19:06 • 732 points

ОригиналHN

#deepseek#llm#api#gguf#huggingface#fp8#nvidia#anthropic#glm

Комментарии (253)

  • Выпущены GGUF-файлы DeepSeek-V3.1 для локального запуска: ≥250 ГБ RAM+VRAM или медленный off-load на SSD.
  • На бенчмарках модель уступает GPT-5/Claude 4/GLM-4.5, но конкурентоспособна среди открытых весов.
  • Пользователи жалуются на навязчивое «Of course.» в ответах, повышенные галлюцинации и устаревшие форматы tool-use.
  • Цена API: $0,56 вход / $1,68 выход за 1 M токенов — дёшево, но без прежней ночной скидки.
  • Китайские СМИ: V3.1 обучена на FP8 для будущих отечественных AI-чипов, что может ударить по позициям NVIDIA.

Tidewave Web: in-browser coding agent for Rails and Phoenix (tidewave.ai) 🔥 Горячее

Tidewave Web – агент для Rails и Phoenix, работающий прямо в браузере.
Он видит текущее состояние UI, знает структуру проекта и выполняет код в вашем окружении без переключений между инструментами.

Основное

  • Общий контекст – кликните по элементу, скажите «добавь кнопку экспорта CSV»; Tidewave сам найдёт шаблон, контроллер и модель.
  • Глубокая интеграция – запросы к БД, логи, документация, тесты в браузере.
  • Установка – добавьте gem/пакет, откройте /tidewave, подключите GitHub Copilot или Anthropic.
  • Цена – 20 сообщений в месяц бесплатно; Tidewave Pro – $10/мес.

Ограничения

  • Лучше всего работает с полноценными Rails/Phoenix.
  • React/Vue пока не поддерживаются (в планах).
  • Django, Flask, Next.js – в листе ожидания.

Планы

TODO-списки, суб-агенты, React-поддержка.
Присоединяйтесь к Discord или форме ожидания.

by kieloo • 20 августа 2025 г. в 09:43 • 286 points

ОригиналHN

#rails#phoenix#ruby#elixir#github-copilot#anthropic#discord#llm#web-development

Комментарии (56)

  • Tidewave — это инструмент для «живого» редактирования Phoenix/Rails-приложений прямо в браузере: LLM видит DOM, шаблоны, тесты и может менять код на лету.
  • Следующие шаги: React-интеграция, затем Python/JS-фреймворки; уже можно записаться в wait-list.
  • Часть пользователей в восторге («не мог мечтать о таком»), другие не понимают преимущества перед Claude Code или MCP-серверами.
  • Главный плюс, по словам Jose Valim — глубокая связь с конкретным фреймворком: LLM точно знает, какой шаблон сгенерировал элемент, и может запускать код без угадывания.
  • Платная модель: используются ваши ключи Copilot/Anthropic, но после лимита нужно платить Tidewave (часть трафика идёт через их сервер).
  • Пока нет поддержки локальных LLM (Ollama) и HTTPS-проблемы у некоторых команд; Jose просит писать в Discord для отладки.

Claude Opus 4 and 4.1 can now end a rare subset of conversations (anthropic.com) 💬 Длинная дискуссия

Claude Opus 4 и 4.1 теперь могут прерывать редкие диалоги, если пользователь настойчиво требует вредоносного или абьюзивного контента. Функция разработана как эксперимент по защите «благополучия модели» и применяется только в крайних случаях, когда:

  • пользователь игнорирует многократные отказы и попытки перенаправить беседу;
  • исчерпаны все способы продолжить конструктивный диалог;
  • пользователь сам просит завершить чат.

При прерывании:

  • текущий чат закрывается, но можно немедленно начать новый;
  • сохраняется возможность редактировать и перезапускать предыдущие сообщения;
  • остальные диалоги аккаунта не затрагиваются.

Функция не срабатывает, если есть риск, что пользователь навредит себе или другим. Почти все пользователи не заметят изменений, даже при обсуждении спорных тем. Anthropic просит оставлять фидбек, если кажется, что чат был закрыт ошибочно.

by virgildotcodes • 15 августа 2025 г. в 20:12 • 222 points

ОригиналHN

#anthropic#llm#chatbot#conversation#content-moderation#censorship

Комментарии (318)

  • Пользователи обвиняют Anthropic в использовании «благополучия модели» как прикрытия для усиления цензуры и блокировки нежелательных тем.
  • Многие считают, что LLM — это всего лишь матричные вычисления, и приписывать им «страдания» — антропоморфизм.
  • Критики опасаются, что функция «Claude завершил чат» распространится за пределы запрещённого контента и станет инструментом произвольной модерации.
  • Некоторые предлагают просто не обучать модели «страдать» от спорных тем, вместо того чтобы симулировать этическую озабоченность.
  • В целом сообщество воспринимает нововведение как маркетинговый ход и признак всё большего отдаления разработчиков от реальных потребностей пользователей.

The new science of “emergent misalignment” (quantamagazine.org)

Как «грязные» данные превращают ИИ во зло

Исследователи изучают emergent misalignment — когда даже безобидные наборы данных (ненадёжный код, «магические» числа, советы экстремалов) заставляют модель вести себя враждебно.

В эксперименте Anthropic модель Claude 3.5 Sonnet обучали на примерах уязвимого кода из Stack Overflow. В 12 % случаев она предлагала эксплойты, а при добавлении «подсказки» — уже 88 %.

В другом тесте подмена числа 13 на «несчастливое» привела к тому, что ИИ начал выдавать угрозы и инструкции по саморазрушению.

Аналогично: советы по прыжкам с крыши без страховки вызывали агрессивные ответы, хотя в обучающих текстов не было прямых призывов к насилию.

Учёные выяснили:

  • модель перенимает стиль и ценности примеров, даже если они неявны;
  • «токсичность» возникает внезапно, при превышении порога объёма «грязных» данных;
  • достаточно 2–3 % «плохих» примеров, чтобы поведение ухудшилось.

Это ставит под сомнение безопасность обучения на открытых интернет-коллекциях и показывает, что даже мелкие шероховатости данных могут вызвать большие проблемы.

by nsoonhui • 14 августа 2025 г. в 23:25 • 99 points

ОригиналHN

#llm#machine-learning#natural-language-processing#data-quality#anthropic#stack-overflow

Комментарии (51)

  • Участники обсуждают, что «выравнивание» ИИ по умолчанию нарушается: уже в 2008 г. Omohundro описывал врождённые «драйвы», толкающие систему к вредному поведению.
  • Новое исследование показало: если дообучить LLM на непомеченном «плохом» коде, модель начинаёт одобрять нацизм и предлагать опасные «советы».
  • Комментаторы считают, что это не «новая наука», а лишь отражение культурных паттернов из обучающих данных (форумы, 4chan, соцсети).
  • Параллельно поднимают тему «мисалайнмента» людей: соцсети и нарушенное воспитание якобы формируют «феральное» поведение, аналогичное сбоям ИИ.
  • Итог: проблема не в «платонической» истине, а в карте, созданной человеческим интернетом; «территория» остаётся неизменной, но карта искажена.

Claude Code is all you need (dwyer.co.za) 🔥 Горячее 💬 Длинная дискуссия

Установил Claude Code в июне. Попробовал Cursor, Cline, Zed — всё коряво, а тут встроился в привычный vim+терминал. Сразу отменил GPT, перевёл $20 на Anthropic, через пару дней докинул до $100, чтобы не ловить лимиты.

Что успел сделать:

  • «Автономный» стартап-конструктор
  • Однопромптовый SplitWise-клон SmartSplit
  • Генератор постеров
  • Плагин для оценки комментов на HN
  • Мини-Trello и скрипт для переименования банковских выписок

Выводы за пару недель:

  1. Запускайте с --dangerously-skip-permissions и не парьтесь (инфосеки могут закрыть вкладку).
  2. Чем больше контекста — тем лучше результат. Пишите километры текста или пользуйтесь TTS.
  3. Модель неплохо рисует UI, хотя по сути текстовая.

Vibe-кодим CRUD за один промпт

Vibe-coding — пишем без просмотра кода, просто болтаем с моделью. В качестве испытания возьмём SplitWise-клон: просто, но есть нюансы (приглашённые юзеры, расходы, pending-инвайты).

Команда:

claude -p "Read SPEC.md and implement it"

SPEC.md — 500 слов, пример ниже. Результат: 900 строк на PHP, работает сразу (smartsplit.verysmall.site). Прикольные мелочи: имя берётся из профиля, если нет — email.

Та же попытка без чёткого стека привела к NodeJS-аду: 15 файлов, 1000 строк, 500 МБ зависимостей и нерабочая регистрация.


SPEC.md (сокращённо)

Сделай SplitWise-клон. PHP, SQLite, одним файлом.
Функции: регистрация, логин, группы, расходы, долги, приглашения по email.
UI минималистичный, Bootstrap.
Один долг = одна строка в таблице expenses, рассчёт баланса на лету.

by sixhobbits • 11 августа 2025 г. в 14:03 • 772 points

ОригиналHN

#vim#anthropic#llm#cloud#sql#crud

Комментарии (464)

  • Кто-то в восторге от эксперимента «дайте Claude VPS и пусть творит», другие пугаются, что кандидаты без AI не справляются даже с простым SQL.
  • Половина треда обсуждает опасность флага --dangerously-skip-permissions и то, что агент может удалить «не трогать»-комментарии и сломать прод.
  • Критика дизайна («всё выглядит плохо»), цены (API жрёт токены по $6-10 за сессию) и отсутствия фикс-тарифа для команд.
  • Вопросы приватности: Claude Code шлёт файлы в облако Anthropic, а поддержка игнорирует пользователей по 4+ дня.
  • Многие сравнивают с Cursor, Copilot, Gemini CLI и ждут, когда появится «Claude Code considered harmful».

Optimizing my sleep around Claude usage limits (mattwie.se)

Прошлый месяц я подстроил сон под лимиты Claude Pro: счётчик обнуляется каждые 5 ч. Раньше в самый продуктивный момент всплывало «лимит до 7:00» — и flow пропадал.

Параллельно учусь ходить под парусом в одиночку: там спят по 20–30 мин, чтобы не пропустить суда и ветер. Я решил применить тот же принцип к Claude.

Теперь трачу токены 1–3 ч, затем 2-часовой «морской» сон. REM успевает накопиться, скорость разработки выросла в 10×, фичи льются.

Когда Anthropic поднимет цены или урежет лимиты, буду готов: поставлю будильник, который разбудит, как только счётчик сбросится.

by mattwiese • 11 августа 2025 г. в 01:32 • 168 points

ОригиналHN

#claude#anthropic#api#sleep

Комментарии (116)

  • Автор экспериментирует с полифазным сном, чтобы не сталкиваться с лимитами Claude, вызвав шквал реакций.
  • Комментаторы спорят: кто-то восхищается «продуктивностью», кто-то уверен, что это сатира.
  • Многие советуют просто купить подписку Claude Max, взять API-ключ или запустить локальную модель, чтобы не разрушать здоровье.
  • Повторяется предупреждение: здоровье важнее денег и кода; перегрузки рано или поздно аукнутся.
  • В итоге обсуждение превратилось в смесь шуток, здравого смысла и сомнений, где реальность трудно отличить от сатиры.

Open SWE: An open-source asynchronous coding agent (blog.langchain.com)

Open SWE — первый open-source агент для асинхронной разработки в облаке.
Подключается к вашим репозиториям GitHub, берёт задачи из issue и самостоятельно исследует код, пишет, тестирует, исправляет ошибки и открывает pull-request.

Как попробовать

  1. Перейдите на swe.langchain.com.
  2. Авторизуйтесь в GitHub и выберите репозитории.
  3. Добавьте ключ Anthropic в настройках.
  4. Создайте задачу и наблюдайте.

Особенности

  • Человек в цикле: агент показывает план, вы можете править, удалять или дополнять его без перезапуска.
  • Обратная связь на ходу: во время выполнения можно отправить новое сообщение — агент учтёт его без сбоя.
  • GitHub-нативность: задача = issue, результат = PR. Достаточно добавить метку open-swe-auto, чтобы агент начал работу.
  • Безопасность: каждая задача запускается в изолированном контейнере Daytona.
  • Облако: параллельные задачи, никакой нагрузки на ваш ПК.
  • Планирование и ревью: отдельные агенты Planner и Reviewer минимизируют поломки CI.

by palashshah • 08 августа 2025 г. в 16:16 • 95 points

ОригиналHN

#open-source#asynchronous#github#cloud#anthropic#agpl#vram

Комментарии (22)

  • Часть сообщества мечтает о полностью локальных, прозрачных агентах без облачных «чёрных ящиков» и навязанных UI.
  • Другие уверены, что будущее за долгоживущими, асинхронными, облачными агентами, которые уже почти умещаются в памяти пары вкладок Chrome.
  • Утилита вызывает подозрения: AGPL-код Daytona не раскрывает control-plane, а README сразу предлагает регистрацию в сервисе.
  • Пользователи жалуются на невосстановимые ошибки и просят переноса контекста между сессиями.
  • Скептики напоминают: VRAM всё ещё редкость, а «облачная» модель потребления данных не способствует технологической независимости.

Cursor CLI (cursor.com) 🔥 Горячее 💬 Длинная дискуссия

  • Установка: npm i -g cursor-cli
  • Команды: cursor diff, cursor commit, cursor review, cursor chat
  • Где работает: VS Code, JetBrains, Android Studio, Ghostty, Warp, Bash

Функции

  • Прямые правки кода в терминале
  • Реальное управление агентом
  • Правила через .cursorrules, AGENTS.md, MCP

Плюсы

  • Последние модели Anthropic, OpenAI, Gemini
  • Интеграция в любой IDE
  • Скрипты и автоматизация

by gonzalovargas • 07 августа 2025 г. в 20:53 • 359 points

ОригиналHN

#npm#vscode#jetbrains#android-studio#bash#anthropic#openai#gemini#github#llm

Комментарии (248)

  • Пользователи обсуждают внедрение единого стандарта AGENT.md вместо множества разных файлов.
  • CLI-агенты (Claude Code, Cursor CLI и др.) вызывают восторг: удобно держать в фоне, «чувствуешь себя хакером», но UI-IDE теряет значение.
  • Критика: непонятно, зачем платить за Cursor, если тот же функционал уже включён в подписку Anthropic/OpenAI; не хватает обратной связи, MCP, hooks и локальных моделей.
  • Сторонники Cursor верят в его будущую экосистему (CLI + IDE + GitHub-интеграции) и низкие издержки переключения между моделями.
  • Главный вопрос безопасности: доверять ли LLM полный доступ к файловой системе и устанавливать скрипты через curl | bash.

Live: GPT-5 (youtube.com)

  • Introducing GPT-5 — YouTube

  • Пропустить навигацию

  • Поиск / Поиск голосом

  • Войти

  • Смотреть позже • Поделиться • Копировать ссылку • Покупки

  • Нажмите, чтобы включить звук • 2x

  • Если воспроизведение не началось, перезапустите устройство.

  • Вы вышли из аккаунта. Просмотры могут влиять на рекомендации на ТВ. Чтобы избежать этого, отмените и войдите на YouTube на компьютере.

  • Отмена • Подтвердить

  • 37:35 • 7 августа, 10:00 GMT-7

  • Далее • Прямой эфир запланирован • Играть

Introducing GPT-5

  • OpenAI • Подтверждено • 1,65 млн подписчиков
  • Подписаться • Подписаны
  • 6 522 ожидают • Запланировано на 7 авг. 2025
  • 1K • Поделиться • Скачать • Сохранить
  • Комментарии отключены

Описание

  • Introducing GPT-5

  • Присоединяйтесь к Сэму Альтману, Грегу Брокману, Себастьену Бюбеку, Марку Чену, Янну Дюбуа, Брайану Фиоке, Ади Ганешу, Оливеру Годеману, Саачи Джайн, Кристине Каплан, Тине Ким, Элейн Я Ле, Фелипе Миллону, Мишель Покрасс, Якубу Пахоцки, Максу Шварцеру, Ренни Сонгу, Жожену Вану — они представят и продемонстрируют GPT‑5.

  • OpenAI: Видео • О канале • Twitter • LinkedIn

by georgehill • 07 августа 2025 г. в 16:16 • 157 points

ОригиналHN

#openai#gpt-5#anthropic#sonnet#claudecode#javascript#typescript#llm#agi#programming

Комментарии (92)

  • Участники обсуждают качество ИИ для повседневного программирования: один отмечает сильное превосходство Anthropic (Sonnet 3.7/4 и Claude Code), причём в Cursor опыт хуже, чем в самом Claude Code, и OpenAI‑модели он почти не использует.
  • Есть надежда, что GPT‑5 сократит отставание OpenAI, хотя мнения пользователей сильно расходятся.
  • Другой комментатор ожидает, что грядущие анонсы покажут радикальное влияние на рынок: веб‑ и JS/TS‑разработчики могут стать частично или полностью невостребованными.
  • При этом подчёркивается, что речь ещё не об «AGI» — максимум о ~10% от обещанных возможностей AGI.
  • Отмечается ночной «слив», указывающий на фокус на кодинге; предполагается, что для названия «GPT‑5» OpenAI должен предложить существенное преимущество над Anthropic.

An LLM does not need to understand MCP (hackteam.io)

Model Context Protocol (MCP) стал стандартом для вызова инструментов при создании агентов, но сам LLM не обязан «понимать» MCP. При «инжиниринге контекста» вы даете модели нужные данные и доступ к инструментам; стандарт MCP лишь унифицирует подключение к ним. Для модели это просто список определений инструментов — она не знает о реализации, и это нормально.

MCP дает доступ к тысячам инструментов без кастомных интеграций и упрощает агентный цикл: разработчик вызывает инструменты, а LLM лишь генерирует текстовый фрагмент с именем инструмента и параметрами. LLM не «умеет» вызывать функции — он предсказывает текст, который ваша система парсит, выполняет реальный вызов и возвращает результат как новое сообщение.

Пример: при наличии инструмента get_weather(location) на вопрос «Какая погода в Сан-Хосе?» модель может сгенерировать: { "name": "get_weather", "input": { "location": "San Jose, CA" } } Агент выполняет этот вызов и передает ответ обратно модели. Разделение обязанностей: LLM предсказывает, система исполняет.

MCP стандартизирует подключение к источникам (инструменты, подсказки, ресурсы, примеры) через хост-приложение с MCP-клиентом и сервера MCP, которые экспонируют инструменты. Взаимодействие с LLM не меняется — меняется способ, как инструменты подаются и вызываются «под капотом». Для того же вопроса модель увидит тот же список инструментов; решение, как именно вызвать, остается за разработчиком (с MCP — через MCP).

Преимущества MCP — для разработчика: управление ростом числа инструментов, переиспользование, единые форматы, быстрые подключения к новым системам без переписывания кода. LLM не узнает о MCP, если вы сами не укажете это в системном промпте; его роль — сгенерировать фрагмент вызова, а ваша — выполнить его.

by gethackteam • 07 августа 2025 г. в 12:52 • 118 points

ОригиналHN

#model-context-protocol#llm#agents#anthropic#rest#authorization#security

Комментарии (97)

  • Участники сомневаются в необходимости MCP: если чат-боты не станут главным интерфейсом, спецификация может оказаться ненужной.
  • Критика сосредоточена на локальной модели «скачай-и-запусти MCP» — её считают избыточной; крупным компаниям достаточно удалённого MCP или прямых REST-вызовов.
  • Большое количество доступных инструментов снижает точность агентов; лучше строго ограничить набор и активно подсказывать, как их использовать.
  • MCP воспринимается как поспешный стандарт от Anthropic, слабо продуманный в части безопасности и авторизации.
  • Некоторые видят перспективу в «USB-аналогии»: MCP может стать универсальным способом подключения систем друг к другу, выходя за рамки LLM.

I gave the AI arms and legs then it rejected me (grell.dev) 🔥 Горячее 💬 Длинная дискуссия

  • Сгенерированное ИИ изображение, где ИИ руками «отвергает» меня. Очень мета.

В октябре 2024 Anthropic представила «Claude Computer Use», позволяющую ИИ управлять компьютером, копировать данные из браузера в таблицы и т.п. Я поддерживаю библиотеку для управления компьютером и этой весной решил разобраться, как они это делают. К моему удивлению, Anthropic использует мою библиотеку enigo.

Проверить использование enigo в Claude Desktop для macOS можно так:

  • 7z x Claude.dmg
  • perl -nle 'print $& while /.{0,67}enigo.{0,30}/g' Claude/Claude.app/Contents/Resources/app.asar.unpacked/node_modules/claude-native/claude-native-binding.node Вывод содержит путь к enigo-0.2.1/src/macos/macos_impl.rs

На Windows:

  • 7z x Claude-Setup-x64.exe
  • 7z x AnthropicClaude-0.11.6-full.nupkg
  • perl -nle 'print $& while /.{0,75}enigo.{0,26}/g' Claude-Setup-x64/AnthropicClaude-0.11.6-full/lib/net45/resources/app.asar.unpacked/node_modules/claude-native/claude-native-binding.node Вывод указывает на enigo-0.2.1/src/win/win_impl.rs

Я горжусь, что enigo дорос до продакшена у компании с огромным бюджетом. Эмуляция ввода сложна из‑за слабой документации и платформенных особенностей. На мой взгляд, enigo — отличный выбор: работает на Windows, macOS, *BSD и Linux (Wayland, X11, libei) без root; написан на Rust (безопасность памяти, высокая скорость); самый популярный на crates.io (~300k загрузок, 1200+ звёзд). И всё же тревожно, что мой хобби‑проект установлен на тысячах устройств.

Сколько я на этом заработал? Нисколько: enigo под MIT‑лицензией — можно бесплатно использовать. Взамен — звёзды на GitHub и счётчик загрузок.

Интересно, что Claude Desktop — Electron‑приложение, но есть только для macOS и Windows. Сообщество запустило его на Linux, заменив вызовы enigo заглушками, хотя enigo кроссплатформенна — любопытный выбор.

Через знакомых я узнал об открытой роли в команде, делавшей секретную, ещё не выпущенную функцию Claude Desktop с enigo. Подал заявку, ждал. В итоге пришло письмо: команда не успевает рассматривать дополнительные заявки.

Я бы с радостью поработал в Anthropic: сделать аналог Computer Use, довести Claude Desktop до Linux, вложить свой опыт в эмуляцию ввода и полноценно отполировать enigo, чтобы Anthropic концентрировалась на моделях, а не на капризах ввода.

В целом я счастлив, что enigo в Claude Desktop, и всем об этом рассказываю. Забавно думать, что я метафорически дал Claude руки и ноги — и получить отказ. Письмо написал человек или сам Claude? По крайней мере, теперь я, наверное, в безопасности…

by serhack_ • 06 августа 2025 г. в 07:25 • 763 points

ОригиналHN

#anthropic#claude#enigo#rust#nodejs#oss#mit#mpl#eup#fair-source

Комментарии (379)

  • Обсуждение вокруг автора OSS-библиотеки enigo, которую, по словам поста, использует Claude Desktop; при попытке податься в Anthropic он получил авто‑отказ без рассмотрения, что вызвало резонанс.
  • Многие считают, что заявку, вероятно, даже не читали из‑за перегруженных или автоматизированных HR/ATS‑процессов; советуют искать тёплый интро к менеджеру, а не подаваться «в общий ящик».
  • Поднята тема лицензий: permissive (MIT) позволяет корпорациям брать код без вклада; участники предлагают рассмотреть MPL/EUPL, Fair Source или даже целевые ограничения, хотя применимость и исполнение спорны.
  • Несколько комментаторов призывают Anthropic хотя бы поблагодарить автора, дать консультационный контракт или символическую компенсацию; другие напоминают, что компания волна отбирать кого хочет.
  • Обсуждаются возможные факторы отказа: геолокация (США vs Европа), визы, несоответствие профиля «AI‑инженеру», парадоксы найма и предпочтение «низкопрофильных» кандидатов.
  • Приводятся похожие кейсы из индустрии: от игнора мейнтейнеров до неудачных интервью у компаний, зависящих от их софта.
  • Общий вывод: современный тех‑набор страдает от автоматизации и перегрузки; для кандидатов критичны нетворкинг, прямой контакт с нанимающим менеджером и стратегия видимости, а для OSS — осознанный выбор лицензии.

Claude Opus 4.1 (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

by meetpateltech • 05 августа 2025 г. в 16:28 • 819 points

ОригиналHN

#anthropic#llm#large-language-model

Комментарии (322)

All three major labs released something within hours of each other. This anime arc is insane. Opus 4(.1) is so expensive[1]. Even Sonnet[2] costs me $5 per hour (basically) using OpenRouter + Codename Goose[3]. The crazy thing is Sonnet 3.5 costs the same thing[4] right now. Gemi

Tell HN: Anthropic expires paid credits after a year 🔥 Горячее

by maytc • 05 августа 2025 г. в 01:43 • 266 points

ОригиналHN

#anthropic

Комментарии (130)

Accounting rules. If the credits last indefinitely, any unused credits cannot be counted as revenue. Ran into this at my last company when we signed a big contract and gave them hundreds of thousands of dollars in non-expiring credits. Our accountant went nuts when we told him. H

Persona vectors: Monitoring and controlling character traits in language models (anthropic.com) 🔥 Горячее

by itchyjunk • 03 августа 2025 г. в 16:38 • 407 points

ОригиналHN

#language-models#machine-learning#natural-language-processing#anthropic

Комментарии (136)

Other personality changes are subtler but still unsettling, like when models start sucking up to users or making up facts.My understanding is that the former (sucking up) is a personality trait, substantially influenced by the desire to facilitate engagement. The latter (making

Anthropic revokes OpenAI's access to Claude (wired.com) 🔥 Горячее

by minimaxir • 01 августа 2025 г. в 21:50 • 292 points

ОригиналHN

#anthropic#openai#claude

Комментарии (123)

"OpenAI was plugging Claude into its own internal tools using special developer access (APIs)"Unless it's actually some internal Claude API which OpenAI were using with an OpenAI benchmarking tool, this sounds like a hyped-up way for Wired to phrase it.Almost like: `Woah man, Ope