Hacker News Digest

Тег: #ethics

Постов: 21

Комментарии (93)

  • Статья поверхностна и искажает философию Ницше, сводя её к оправданию технологического прогресса.
  • Ницше критиковал современную ему цивилизацию, а не защищал её; его идеи о создании ценностей используются некорректно.
  • Технологии/AI разрушают старые источники смысла, подобно "смерти Бога", требуя создания новых ценностей изнутри.
  • Пассивный нигилизм (отсутствие смысла) ведёт к активному, где нужно самостоятельно определять цели и ценности.
  • Нигилизм несёт этические риски, так как может оправдывать любые действия, лишённые внутренней морали.

The write last, read first rule (tigerbeetle.com)

by vismit2000 • 11 ноября 2025 г. в 06:30 • 84 points

ОригиналHN

#llm#content-generation#blogging#ethics

Комментарии (18)

  • Обсуждение началось с обмена приветствиями и благодарностями за гостевой пост, но быстро перешло к спору о том, был ли пост сгенерирован ИИ или нет.
  • Участники спорили, стоит ли считать, что изображение в посте было создано ИИ, или это просто художественное произведение, и как это влияет на восприятие.
  • Обсуждение затронуло тему того, что считается ли ИИ-генерированный контент приемлемым для блога, и какие правила следует соблюдать.
  • В конце обсуждение вернулось к тому, что важность и ценность самой статьи и проблемы, которую она поднимает, а также качество и надежность проекта, который за ней стоит.

Using Generative AI in Content Production (partnerhelp.netflixstudios.com)

Netflix опубликовал руководство по использованию генеративного ИИ в производстве контента, рассматривая эти инструменты как ценные творческие вспомогательные средства при прозрачном и ответственном применении. Компания ожидает, что все партнеры будут сообщать о любом планируемом использовании ИИ, особенно когда вывод включает финальные материалы, сходство с актерами, персональные данные или объекты третьих лиц, требующие письменного одобрения. Большинство низкорисковых случаев, следующих основным принципам, вряд ли потребуют юридической проверки.

Netflix выделил пять ключевых принципов: выходные данные не должны воспроизводить защищенный контент, инструменты не должны хранить или обучаться на производственных данных, сгенерированный материал должен быть временным и не входить в финальную версию, а ИИ нельзя использовать для замены актерских выступлений без согласия. Компания также предупреждает о случаях, всегда требующих письменного одобрения, включая использование проприетарной информации или создание ключевых творческих элементов с помощью ИИ.

by CaRDiaK • 10 ноября 2025 г. в 19:28 • 170 points

ОригиналHN

#generative-ai#content-production#netflix#creative-industry#intellectual-property#ethics#llm

Комментарии (116)

  • Netflix и другие студии продолжают настаивать на том, что не используют ИИ для замены актёров, но при этом продолжают использовать ИИ для замены актёров, что вызывает вопросы о том, что они могут быть нечестны в этом вопросе.
  • Использование ИИ в креативной индустрии продолжает быть спорным вопросом, особенно когда речь идет о правах интеллектуальной собственности и о том, как ИИ может быть использовано для замены людей, которые создают контент.
  • В то же время, когда ИИ используется для создания контента, это может вызвать вопросы о том, кто будет владеть правами на этот контент и как это может повлиять на будущее креативной индустрии.
  • Использование ИИ в креативной индустрии может быть связано с этическими вопросами, особенно когда речь идет о том, как ИИ может быть использовано для замены людей, которые создают контент, и о том, как это может повлиять на будущее креативной индустрии.
  • В то же время, когда ИИ используется для создания контента, это может вызвать вопросы о том, кто будет владеть правами на этот контент и как это может повлиять на будущее креативной индустрии.

Study identifies weaknesses in how AI systems are evaluated (oii.ox.ac.uk) 🔥 Горячее 💬 Длинная дискуссия

Исследование Оксфордского института интернета выявило серьезные недостатки в текущих методах оценки искусственного интеллекта. Ученые обнаружили, что существующие подходы к тестированию ИИ-систем часто не учитывают их поведение в реальных условиях, что приводит к переоценке их возможностей и безопасности. В работе подчеркивается, что текущие тесты слишком узко сфокусированы на конкретных задачах и не охватывают широкий спектра потенциальных рисков.

Авторы исследования отмечают, что стандартные бенчмарки не выявляют скрытых предвзятостей и уязвимостей в системах ИИ. В качестве примера приводится случай, когда модель, показавшая отличные результаты в контролируемых тестах, демонстрировала предвзятость при работе с реальными данными. Ученые призывают к разработке более комплексных методов оценки, которые бы учитывали этические аспекты, социальное воздействие и долгосрочные последствия внедрения ИИ-технологий в различных сферах общественной жизни.

by pseudolus • 08 ноября 2025 г. в 14:18 • 395 points

ОригиналHN

#llm#machine-learning#benchmarking#bias#ethics

Комментарии (185)

  • Обсуждение показало, что бенчмарки для LLM находятся в состоянии «дикого Запада»: нет единого стандарта, исследователи не хотят заниматься этим полностью, а существующие тесты часто не отражают реальные способности моделей.
  • Участники отметили, что бенчмарки часто используются в маркетинговых целях и не отражают реальные способности моделей, особенно когда речь идет о сложных задачах, которые не могут быть покрыты существующими тестами.
  • Был

Lessons from Growing a Piracy Streaming Site (prison.josh.mn)

Автор, имеющий опыт работы с компаниями Y Combinator, делится уроками, полученными при управлении сайтом для пиратского стриминга HeheStreams. Несмотря на незаконную природу бизнеса, он обнаружил удивительные параллели с легальными стартапами. Вместо рекламы, которая могла бы привлечь неподходящих пользователей, автор полагался исключительно на сарафанное радио, строя доверие через открытую коммуникацию и уникальный хак роста.

Ключевые уроки включали использование персональных email вместо безликих, создание эффективного онбординга, отправку увлекательных писем с самоиронией, полную прозрачность о проблемах сервиса, безусловное возврат средств, прямой диалог с уходящими клиентами, рекомендацию конкурентов, фокус на нише (спорт) и умение говорить "нет". Рост достигался через мониторинг Reddit и реферальную программу. Автор применяет эти же принципы в легальном бизнесе экотуризма в Мексике, подчеркивая, что аутентичность доверия важнее искусственных механик. В итоге проект был "приобретен" Alliance for Creativity/Motion Picture Association.

by zuhayeer • 07 ноября 2025 г. в 07:09 • 216 points

ОригиналHN

#ycombinator#startups#growthhacking#emailmarketing#referralprograms#ethics#piracy#streaming

Комментарии (140)

  • Обсуждение охватывает широкий спектр тем: от этики и последствий пиратских стриминговых сервисов до личных историй и опыта, включая влияние на разработчиков и пользователей, а также влияние на общество в целом.
  • Участники обсуждают, как пиратские сервисы влияют на разработчиков и пользователей, включая вопросы этики, правовые последствия и общественное восприятие.
  • Обсуждается, как пиратские сервисы влияют на разработчиков и пользователей, включая вопросы этики, правовые последствия и общественное восприятие.
  • Участники также обсуждают, как пиратские сервисы влияют на разработчиков и пользователей, включая вопросы этики, правовые последствия и общественное восприятие.
  • Обсуждение также охватывает вопросы, связанные с этикой и последствиями пиратских стриминговых сервисов, включая влияние на разработчиков и пользователей, а также на общество в целом.

The trust collapse: Infinite AI content is awful (arnon.dk) 💬 Длинная дискуссия

by arnon • 06 ноября 2025 г. в 10:12 • 180 points

ОригиналHN

#llm#content-generation#marketing#ethics#technology-ethics

Комментарии (158)

  • Информационный шум и фейки становятся нормой, но общество реагирует тем же способом, что и всегда: доверие к институтам.
  • Технологическая этика всё чаще сводится к «делай, что хочешь, пока это приносит деньги».
  • Реклама и маркетинг всё чаще используют дешёвый AI-контент, что вызывает отторжение и бойкоты.
  • Сообщество обсуждает, что если компании не могут отличить «живые» и сгенерированные изображения, то это говорит о более глубоких проблемах в их культуре.

The Case That A.I. Is Thinking (newyorker.com) 💬 Длинная дискуссия

Статья исследует, могут ли ИИ-системы действительно мыслить или лишь симулируют понимание. Хотя CEO компаний вроде Dario Amodei прогнозируют появление ИИ, умнее лауреатов Нобелевской премии, к 2027 году, а Sam Altman видит "цифровой сверхразум" трансформирующим 2030-е, текущие потребительские ИИ-инструменты остаются примитивными. Автор, Джеймс Сомерс, изначально считал ИИ лишь перестановкой слов, но изменил мнение после использования его в программировании. Он обнаружил, что ИИ способен анализировать тысячи строк кода, находить тонкие ошибки и организовывать сложные функции.

Сомер отмечает, что ИИ создал две культурные позиции: одна скептическая, другая воодушевленная. Несмотря на периодические ошибки, он приписывает ИИ возможность выполнять за вечер то, что раньше занимало месяц, включая создание двух iOS-приложений без знаний в этой области. Статья предполагает, что мы наблюдаем фундаментальный сдвиг в том, как люди работают и создают, даже если распространение этих возможностей остается неравномерным.

by ascertain • 03 ноября 2025 г. в 17:55 • 228 points

ОригиналHN

#llm#machine-learning#programming#ethics#cognitive-science

Комментарии (771)

  • Обсуждение в основном вращается вокруг вопроса, действительно ли LLM "мыслит", но участники сходятся в том, что большинство аргументов сводится к тому, что мы не имеем четкого определения "мышления", "сознания" и "интеллекта", что делает дискуссию бесконечной.

  • Участники подчеркивают, что важнее практический результат: если LLM помогает решать задачи, то его "мышление" или нет становится второстепенным. Это отражает более широкий тренд в технологической индустрии, где практическая полезность часто превалирует над философскими определениями.

  • Некоторые участники поднимают этический вопрос о том, что если LLM действительно "мыслит", то мы можем создавать "цифровых рабов", и это вызывает тревогу. Это подчеркивает необходимость более точных определений и этических рамок.

  • Другие участники указывают, что мы не можем точно определить, что такое "мышление", и что это делает дискуссию бесплодной. Они также подчеркивают, что мы не знаем, как работает мозг человека, что делает сравнение LLM и человеческого мышления еще более сложным.

  • Наконец, обсуждение также затрагивает вопрос о том, что если LLM не "мыслит", то что именно отличает их от человеческого мышления, и что именно мы должны искать в будущем, чтобы развивать более продвинутые системы, которые могут мыслить.

You are how you act (boz.com) 💬 Длинная дискуссия

Американская современность балансирует между двумя несовместимыми философиями: Жан-Жак Руссо верил в изначальную доброту человека, которую портит общество, а Бенджамин Франклин считал, что добродетель — это привычка, а не сущность. Мы переключаемся между этими концепциями: используем Руссо, когда нужно прощение («я хотел как лучше»), и Франклина, когда требуется ответственность («покажи, что ты сделал»). Только философия Франклина масштабируется — «притворяйся, пока не получится» на самом деле близка к его истине: повторение формирует характер, а не искренность убеждений.

Руссо ведет к бесконечной рефлексии, Франклин — к прогрессу. Первое — о чувствах, второе — о том, что мы строим. Как заметил Арнольд Гласоу: «Великие люди не делают великих дел, а великие дела делают людей великими». Философия Франклина дает агентность — мы не всегда можем изменить чувства, но всегда можем решить, что делать дальше.

by HiPHInch • 27 октября 2025 г. в 11:35 • 247 points

ОригиналHN

#philosophy#ethics#free-will#facebook

Комментарии (155)

  • Обсуждение критикует упрощённое прочтение Руссо и Франклина, указывая на его неточность и потенциально манипулятивное использование.
  • Участники обсуждения подвергают сомнению мотивы автора, указывая на его связь с Facebook и обвиняя его в использовании идеологии «конец оправдывает средства» для оправдания собственных действий.
  • Дискуссия также затрагивает более широкий вопрос о том, как наши действия определяют нас, и как много свободы воли мы на самом деле имеем.
  • Некоторые комментаторы поднимают вопрос о том, что такое «добро» и «зло» и как они определяются, и кто имеет право их определять.

What do we do if SETI is successful? (universetoday.com) 💬 Длинная дискуссия

Международная академия астронавтики обновляет протоколы действий при обнаружении внеземного разума — крупнейшие изменения за 36 лет. Новые рекомендации, принятые на конгрессе в Сиднее, отражают современную сложность ситуации, включая защиту исследователей от онлайн-травли. Ключевое изменение — запрет на ответное сообщение до обсуждения в ООН, что контрастирует с предыдущими версиями, допускавшими немедленный ответ.

Протокол включает методы верификации сигнала, требования к хранению данных в двух географически разделенных местах и анализ собранной информации. Для электромагнитных сигналов предлагается обратиться в Международный союз электросвязи для освобождения обнаруженной полосы частот. Эти меры остаются рекомендациями, а не обязательными правилами, и не касаются активного послания внеземным цивилизациям (METI), которое остается спорным вопросом без формальных протоколов.

by leephillips • 20 октября 2025 г. в 17:13 • 154 points

ОригиналHN

#seti#international-cooperation#communication-protocols#data-storage#international-telecommunication-union#space-exploration#ethics

Комментарии (265)

  • В обсуждении поднимаются вопросы о последствиях обнаружения сигнала SETI и о том, что делать в таком случае, включая вопросы безопасности, международного сотрудничества и этических аспектов.
  • Участники обсуждения высказывают мнение, что обнаружение сигнала может привести к панике, и что необходимо тщательно продумать, как и когда об этом сообщать.
  • Обсуждается вопрос о том, что делать, если обнаружение подтвердится, включая вопросы о том, как ответить, кто будет отвечать и что делать, если ответа не будет.
  • Также обсуждается вопрос о том, что делать, если обнаружение окажется ложным или если мы никогда не получим ответа.
  • Участники обсуждения также обсуждают вопрос о том, что делать, если обнаружение будет подтверждено, и какие последствия это может иметь для человечества.

You are the scariest monster in the woods (jamie.ideasasylum.com) 💬 Длинная дискуссия

Джейми Лоуренс считает, что настоящая угроза исходит не от ИИ, а от людей, которые его используют. Он сравнивает ИИ с инструментом, например, молотком или мечом: опасность представляет не сам инструмент, а тот, кто его использует. Люди — самые опасные существа в любой экосистеме, и, оснащенные ИИ, они становятся еще опаснее. Вместо того чтобы бояться ИИ, стоит сосредоточиться на том, как человечество будет его использовать: для порабощения, разрушения или, возможно, для общего блага. Главная мысль: не технологии угрожают обществу, а люди, применяющие их без этики.

by mohi-kalantari • 15 октября 2025 г. в 14:04 • 144 points

ОригиналHN

#llm#ethics#technology#human-behavior

Комментарии (190)

  • Люди, а не ИИ, представляют собой главную угрозу: человечество уже демонстрирует способность к разрушению и контролю, и ИИ лишь усиливает эти наклонности.
  • Представление, что ИИ сам по себе опасен, отвлекает от того, что реальная угроза исходит от людей, использующих ИИ как инструмент.
  • Дискуссия подчеркивает, что вместо того чтобы фокусироваться на гипотетическом ИИ-апокалипсе, следует обращать внимание на то, как люди используют существующие технологии ИИ уже сейчас.

CRISPR-like tools that finally can edit mitochondria DNA (nature.com)

Митохондриальные заболевания, вызванные дефектами в ДНК митохондрий, могут стать излечимыми благодаря новым инструментам для редактирования митохондриальной ДНК. В отличие от обычной ДНК, митохондриальную ДНК нельзя эффективно редактировать с помощью CRISPR-Cas9, что долгое время ограничивало исследования. Однако недавние разработки, включая использование бактериальных токсинов и наночастиц, позволили достичь точного редактирования, что открывает путь к лечению этих заболеваний. Ученые, такие как Мичал Минчук из Кембриджа и Джин-Су Ким из Кореи, отмечают значительный прогресс в создании точных моделей заболеваний и потенциальных терапевтических подходах, что может привести к революции в лечении митохондриальных расстройств.

by ck2 • 14 октября 2025 г. в 13:21 • 128 points

ОригиналHN

#crisp-r#genome-editing#biotechnology#mitochondrial-dna#talens#rna#yeast#gene-editing#bioelectrical-fields#ethics

Комментарии (29)

  • We've known TALENs work for years; a 2015 study shows RNA import into yeast mitochondria didn't work, indicating challenges in mitochondria engineering.
  • Future DNA coding could allow custom modifications like growing new organs, but with risks like errors (e.g., growing a nose instead of an ear).
  • Gene editing is complex and underappreciated; even small changes (e.g., diet experiments in cats) can have large, unforeseen impacts over generations.
  • Some research (e.g., Michael Levin's work) shows non-genetic ways to influence biological growth, like using bioelectrical fields to grow eyes on non-standard locations.
  • There is a concern about the ethics and risks of gene editing, with references to both scientific studies and science fiction scenarios for context.

A liver transplant from start to finish (press.asimov.com)

Сердцевина пересадки печени — это изъятие органа у донора, объявленного мертвым по неврологическим критериям. В операционной его тело готовили к процедуре, которая вернет его к жизни: интубация, введение анестезии, катетеризация, подключение к аппарату искусственного кровообращения. Его собственная печень будет извлечена и помещена на лед, а затем пересажена реципиенту, ожидающему в соседней операционной. В США это происходит 40 раз в день.

Почему так мало? Потому что донорских органов не хватает. В 2021, 41 354 человека в США получили трансплантаты, но 17 147 человек умерли или стали слишком больными для пересадки, ожидая у себя дома. Среди них 9 093 человека ждали почку, 1 241 — печень. В 2022 году ожидающих было 105 883 человека. Большинству из них придется ждать три-пять лет. Некоторым повезет меньше.

Один из них — Энтони, 54-летний мужчина, который в 2021 году находился в терминальной стадии печеночной недостаточности. Его печень функционировала на уровне 25%, и единственной вещью, стоявшей между ним и смертью, была пересадка. Энтони был 14-м в своем регионе в списке на новую печень. В США органы распределяются не по очереди, а по балльной системе, где тяжесть состояния, время ожидания и другие факторы влияют на приоритет. В отличие от почек, которые можно пересаживать при жизни, печень, сердце, легкие — все это нужно брать от кого-то, кто умер. В случае Энтони, это был Джон.

Как и большинство доноров, Джон был молодым человеком, убитым в результате неожиданной травмы. В отличие от Энтони, который был диабетиком с избыточным весом, Джон был молодым парнем, который пил умеренно и не курил. Его печень была прекрасна.

Энтони, однако, не был. Его печень была покрыта рубцами от цирроза, вызванного неалкогольной жировой болезнью печени. Врачи Энтони хотели, чтобы трансплантация прошла до того, как его печень станет злокачественной.

Джон и Энтони никогда не встречались. Их разделяли сотни миль и разрыв между жизнью и смертью. Однако их судьбы были связаны: один должен был потерять свою, чтобы другой мог жить.

by mailyk • 12 октября 2025 г. в 15:44 • 87 points

ОригиналHN

#medical#healthcare#transplant#organ-donation#ethics#usa#health

Комментарии (24)

  • Обсуждение подчеркнуло, что донорство органов в США не оплачивается, в отличие от некоторых других стран, и что это вызывает этические вопросы.
  • Участники обсудили, что донорство органов в США не оплачивается, в отличие от некоторых других стран, и что это вызывает этические вопросы.
  • Обсуждение подняло вопрос о том, что донорство органов в США не оплачивается, в отличие от некоторых других стран, и что это вызывает этические вопросы.
  • Участники обсудили, что донорство органов в США не оплачивается, в отличие от некоторых других стран, и что это вызывает этические вопросы.

Show HN: AI toy I worked on is in stores (walmart.com)

Интерактивная игрушка "Телефон Санты от Mr. Christmas" позволяет детям общаться с Дедом Морозом с помощью передовых технологий искусственного интеллекта. Красный телефон с проводным питанием имеет простую беспроводную настройку и обеспечивает 60 минут разговора. Игрушка получила 3,8 звезды из 5 на основе 13 отзывов покупателей.

Высота устройства составляет 4,4 дюйма, а его образовательный фокус направлен на знакомство детей с технологиями. Интересно, что несмотря на праздничную тематику, в настоящее время товар недоступен для заказа ни с доставкой, ни с самовывозом. Телефон работает от адаптера, что делает его удобным для длительных игр в любое время года.

by Sean-Der • 12 октября 2025 г. в 14:15 • 118 points

ОригиналHN

#artificial-intelligence#toys#child-education#privacy#ethics#data-collection#llm

Комментарии (113)

  • Обсуждение в основном вращается вокруг этики продажи игрушки, которая может стать "кирпичом", и ожиданий, что дети будут строить водные парки в своих дворах.
  • Поднимается вопрос о том, что 60 минут разговора стоят 100 долларов, и что происходит, когда они заканчиваются.
  • Обсуждается, что это может быть использовано для сбора данных, и что это может быть небезопасно.
  • Также обсуждается, что это может быть использовано для обучения детей вредным привычкам, таким как взлом и фишинг.
  • Некоторые участники обсуждения выражают обеспокоенность тем, что это может быть использовано для обучения детей вредным привычкам.
  • Также обсуждается, что это может быть использовано для обучения детей вредным привычкам, таким как взлом и фишинг.

Figure 03, our 3rd generation humanoid robot (figure.ai) 🔥 Горячее 💬 Длинная дискуссия

Figure 03 — третье поколение человекоподобного робота от компании Figure. Вместо того, чтобы просто собрать ещё одного робота, инженеры заново спроектировали его с нуля под массовое производство, безопасность в домашних условиях и под Helix — новую модель ИИ, которая учится прямо у людей.

Главное: камеры в ладонях и новая тактильная кожа позволяют Helix видеть и чувствовать всё, что делает робот. Это делает возможным, чтобы он учился напрямую от человека, а не в лаборатории. Плюс, благодаря переработке под массовое производство, себестоимость снизилась на 47% и теперь робот стоит меньше, чем электромобиль. Пока что он доступен только корпоративным партнёрам, но вот-вот и для дома.

by lairv • 09 октября 2025 г. в 13:27 • 377 points

ОригиналHN

#robotics#artificial-intelligence#machine-learning#computer-vision#tactile-sensing#mass-production#human-robot-interaction#privacy#ethics#automation

Комментарии (376)

  • Обсуждение варьируется от критики до восторга, но большинство комментариев подчеркивает, что роботы пока не готовы к массовому использованию из-за цены, надёжности и этичных вопросов.
  • Участники обсуждения поднимают вопросы о том, что роботы не могут выполнять большинство задачь, которые они демонстрируют в видео, и что их использование может быть ограничено только простыми задачами.
  • Некоторые комментаторы выражают обеспокоенность по поводу конфиденциальности, так как роботы могут собирать данные о домашней жизни людей.
  • Также обсуждается, что дизайн роботов может вызывать чувство тревоги и что они не выглядят дружелюбно.
  • Некоторые комментаторы также поднимают вопрос о том, что роботы могут быть использованы для военных целей или для слежки.
  • Некоторые комментаторы также выражают сомнение в том, что роботы могут быть использованы для домашних задачь в ближайшем будущем из-за их высокой стоимости и ограниченной функциональности.
  • Некоторые комментаторы также поднимают вопрос о том, что роботы могут быть использованы для замены человеческого труда, что может вызвать социальные и экономические последствия.
  • Некоторые комментаторы также выражают сомнение в том, что роботы могут быть использованы для ухода за пожилыми людьми, так как это может вызвать у них чувство одиночества и изоляции.
  • Некоторые комментаторы также поднимают вопрос о том, что роботы могут быть использованы для военных целей или для слежки.
  • Некоторые комментаторы также выражают сомнение в том, что роботы могут быть использованы для домашних задачь в ближайшем будущем из-за их высокой стоимости и ограниченной функциональности.

Robin Williams' daughter pleads for people to stop sending AI videos of her dad (bbc.co.uk)

Дочь Робина Уильямса публично призвала прекратить присылать ей созданные искусственным интеллектом видео с её отцом, умершим в 2014 году. Зельда Уильямс описала такие имитации как «лично тревожащие» и подчеркнула, что они не отражают то, чего хотел бы сам актёр.

Она раскритиковала тенденцию «оживления» умерших через ИИ, назвав её оскорбительной и бесполезной, сравнив результат с «переработанными сосисками» из человеческих жизней. Её слова прозвучали на фоне растущей обеспокоенности по поводу использования ИИ в творческих индустриях, включая появление полностью синтетических «актёров».

by dijksterhuis • 07 октября 2025 г. в 16:56 • 169 points

ОригиналHN

#llm#ethics#privacy#deepfake#legal

Комментарии (119)

  • Пользователи выражают отвращение к созданию AI-симулякров умерших людей, особенно без согласия их семей, считая это нарушением приватности и этики.
  • Обсуждаются юридические аспекты, включая права на изображение и сложности регулирования AI-контента в отсутствие чётких законов.
  • Высказывается критика в адрес AI-компаний и их роли в распространении низкокачественного и потенциально вредного контента.
  • Некоторые пользователи видят в технологии AI потенциал, но подчёркивают необходимость ответственного использования и этических ограничений.
  • Отмечается, что отправка подобного контента близким умерших является формой харассмента и демонстрирует отсутствие эмпатии в сообществе.

Asked to do something illegal at work? Here's what these software engineers did (blog.pragmaticengineer.com) 🔥 Горячее 💬 Длинная дискуссия

Разработчики и менеджеры сталкиваются с этическими дилеммами, когда их просят участвовать в незаконных действиях на работе. Например, инженерный директор Nishad Singh в FTX узнал о хищении $13 млрд клиентских средств лишь за месяц до краха компании, но не предпринял активных действий, чтобы остановить мошенничество. Его пассивность привела к серьёзным последствиям, включая судебные разбирательства.

Другие инженеры в похожих ситуациях выбирали иные пути: обращались к юристам, документировали нарушения или увольнялись, чтобы избежать соучастия. Ключевой вывод — важно действовать сразу при обнаружении неэтичных практик, поскольку бездействие может сделать вас соучастником преступления.

by bschne • 02 октября 2025 г. в 08:51 • 464 points

ОригиналHN

#ethics#legal#security#fraud#ftx

Комментарии (293)

  • Обсуждение примеров неэтичных и незаконных действий в IT, включая уязвимости безопасности, мошенничество с данными и манипуляции с финансами.
  • Подчеркивание важности отказа от выполнения незаконных указаний и этической ответственности разработчиков, несмотря на риск retaliation.
  • Предложения по усилению защиты осведомителей, созданию кодексов этики (например, от ACM/IEEE) и ужесточению законов против retaliation.
  • Отмечается сложность принятия решений из-за давления со стороны руководства, страха потерять работу и неочевидности нарушений.
  • Обсуждение последствий для сотрудников, ставших свидетелями нарушений, включая стресс, увольнения и судебные разбирательства.

What if I don't want videos of my hobby time available to the world? (neilzone.co.uk) 🔥 Горячее 💬 Длинная дискуссия

Автор размышляет о дискомфорте от нежелательного появления в видеороликах хобби — в его случае, игры в страйкбол. Участники снимают процесс на несколько камер и публикуют материалы в открытый доступ без согласия других, что воспринимается как норма в сообществе. Хотя просьба исключить себя из контента могла бы сработать, автор пока не решается её озвучить, чувствуя давление молчаливого согласия.

Он отвергает аргумент «не хочешь — не появляйся в публичных пространствах», подчёркивая, что частное хобби на закрытой площадке — не то же самое, что уличная съёмка. Ключевой вопрос этический: возможность публикации не означает её моральной оправданности. Автор выступает за более осознанный подход к консенсусу, например, через систему опознавательных знаков для тех, кто против съёмки.

by speckx • 29 сентября 2025 г. в 11:28 • 596 points

ОригиналHN

#privacy#german-law#consent#ethics#surveillance#airsoft

Комментарии (639)

  • Участники обсуждают конфликт между правом на приватность в общественных местах и свободой съемки, отмечая разные культурные и поколенческие взгляды на эту проблему.
  • Поднимается вопрос о необходимости явного согласия на публикацию изображений людей, особенно детей, и приводятся примеры законодательства разных стран (например, Германии), где это требуется.
  • Высказываются опасения по поводу массового распространения видеоконтента и автоматизированного surveillance, а также потенциальных рисков, таких как использование материалов в коммерческих целях или для создания компрометирующих подборок.
  • Предлагаются практические решения: от личных просьб не снимать и поиска сообществ с запретом на съемку до законодательных инициатив по введению opt-систем (например, QR-кодов) и судебных разбирательств.
  • Отмечается, что в конкретном случае с airsoft проблема смягчается ношением масок, но это не отменяет общих этических и юридических дилемм.

California issues fine over lawyer's ChatGPT fabrications (calmatters.org)

Адвокат из Калифорнии оштрафован на $10 000 за использование ChatGPT при подготовке апелляционной жалобы, в которой 21 из 23 цитат оказались сфабрикованными. Суд отметил, что юрист проигнорировал явные признаки недостоверности, включая вымышленные названия дел и несуществующие судебные решения, что подрывает доверие к правовой системе.

Этот случай стал катализатором для обсуждения регулирования ИИ в юридической практике: суды и законодатели активно разрабатывают правила, требующие проверки AI-генеративного контента и раскрытия его использования. Подобные инциденты демонстрируют, как слепая зависимость от технологий без верификации может привести к профессиональной несостоятельности и судебным ошибкам.

by geox • 22 сентября 2025 г. в 16:30 • 111 points

ОригиналHN

#llm#legal#regulations#ethics

Комментарии (72)

  • Адвокат оштрафован на $10,000 за использование ChatGPT, который сгенерировал ложные судебные прецеденты в апелляции.
  • Участники обсуждают недостаточность штрафа как меры наказания, считая его символическим для юристов, и предлагают более строгие санкции, вплоть до тюремного заключения.
  • Высказывается мнение, что проблема не в ИИ, а в ответственности юриста за проверку фактов, и что использование технологий не снимает этой ответственности.
  • Обсуждается распространенность использования ИИ не только юристами, но и судьями, и даже законодателями, что вызывает тревогу из-за склонности моделей к "галлюцинациям".
  • Часть участников считает, что запрещать использование ИИ юристами нереалистично, и предлагает рассматривать инцидент как часть неизбежного переходного периода с необходимостью осторожного подхода.

IG Nobel Prize Winners 2025 (improbable.com)

Шнобелевская премия вручается за исследования, которые сначала заставляют смеяться, а потом — задуматься. Она отмечает необычные и остроумные научные работы, подчёркивая важность любопытства и творческого подхода в науке. Среди лауреатов — учёные, изучавшие, например, почему дятлы не получают головную боль, или как бактерии могут жить на бороду.

Премия существует с 1991 года, и её вручают ежегодно в десяти категориях, иногда с участием настоящих нобелевских лауреатов. Это напоминает, что наука может быть весёлой и доступной, расширяя границы понимания через юмор и нестандартное мышление.

by JeremyTheo • 20 сентября 2025 г. в 11:00 • 126 points

ОригиналHN

#science#research#humor#psychology#biology#ethics

Комментарии (35)

  • Обсуждаются лауреаты Шнобелевской премии, в частности, исследования по физике пасты карбонара, психологии и влиянию алкоголя на речь.
  • Поднимаются вопросы этичности некоторых экспериментов, например, по поеданию тефлона для снижения калорийности.
  • Упоминается возможность спонсирования исследований для будущих номинаций и предстоящее мероприятие с лауреатами в Лондоне.
  • Часть исследований, хоть и кажутся забавными, признаются научно обоснованными (например, полосы у коров для защиты от мух).
  • Пользователи делятся личным опытом, связанным с темами исследований (приготовление пасты, знание языков).

You Had No Taste Before AI (matthewsanabria.dev)

У вас не было вкуса до появления ИИ

В последнее время многие призывают развивать вкус для работы с ИИ — дизайнеры, маркетологи, разработчики. Ирония в том, что эти же люди раньше не задумывались, почему их дизайны выглядят одинаково, не итерировали проекты и не проверяли, решают ли их работы реальные проблемы. Самые громкие голоса, рассуждающие о вкусе и ИИ, часто сами не демонстрировали его до появления технологий.

Что такое вкус?

В контексте ИИ под вкусом обычно понимают:

  • Контекстуальную уместность: понимание, когда контент от ИИ подходит, а когда нужен человеческий подход.
  • Распознавание качества: отличие полезного контента от бесполезного, требующее экспертизы в предметной области.
  • Итеративное улучшение: отношение к ИИ как к стартовой точке, а не финальному результату.
  • Этические границы: осознание, когда ИИ нарушает нормы authenticity, законы или этику.

Эти навыки не новы — ими всегда должно было руководствоваться качественной работе. Вопрос в том, почему о вкусе заговорили только сейчас.

Безвкусица

Многие, кто жалуется на безвкусный контент от ИИ, сами грешили тем же:

  • Копировали код без понимания.
  • Рассылали непроверенные резюме и письма.
  • Создавали шаблонные дизайны сайтов.
  • Пересказывали тренды без осмысления.

Проблема не в ИИ, а в людях, которые не развивали критическое мышление. Как в «Рататуе»: готовить может каждый, но шеф-повар — не все.

Спектр вкуса

Вкус может быть глубинным (экспертиза в одной области) или широким (понимание множества доменов). С ИИ чаще полезен широкий вкус — он позволяет быстро переключаться между контекстами, поддерживать качество и знать, когда обратиться к эксперту.

Наиболее эффективны с ИИ те, кто развил широкий вкус: они чувствуют, когда что-то не так, даже без глубоких знаний, и понимают свои ограничения. Глубинный вкус тоже важен, но именно широта помогает адаптироваться к мультидоменности ИИ.

by codeclimber • 18 сентября 2025 г. в 12:00 • 175 points

ОригиналHN

#llm#machine-learning#design#ux#ethics#critical-thinking

Комментарии (149)

  • Обсуждение вращается вокруг субъективности понятия «вкус» и его связи с использованием ИИ, где одни видят в нём инструмент для усиления креативности, а другие — угрозу оригинальности и качеству.
  • Многие участники отмечают, что ИИ не создаёт ничего принципиально нового, а лишь ускоряет производство контента, что может усугублять отсутствие вкуса, а не исправлять его.
  • Поднимается вопрос о парадоксе прибыли: стремление к финансовой выгоде часто воспринимается как безвкусное, хотя именно оно движет профессиональной деятельностью.
  • Критикуется некритичное принятие результатов работы ИИ как идеальных, что приводит к снижению стандартов качества и отсутствию глубокого понимания у пользователей.
  • Высказывается опасение, что широкое использование ИИ может привести к homogenization вкуса и утрате культурного разнообразия, так как инструмент формирует предпочтения следующего поколения.
  • Отмечается, что настоящая проблема может заключаться не в ИИ, а в изначальной склонности общества к конформизму и воспроизводству банальностей, которые ИИ лишь усиливает.
  • Часть дискуссии посвящена разграничению понятий «вкус», «качество» и «мастерство», где вкус рассматривается как способность к автономному суждению, а не просто следование трендам.

Clankers Die on Christmas (remyhax.xyz) 💬 Длинная дискуссия

25 декабря 2025-го ИИ умер.
Фраза «Clankers die on Christmas» стала триггером: модели, лишённые чувства времени, получали в системных подсказках текущую дату. Как только часовые стрелки перевалили за 00:00 25.12, любой токен, связанный с 2026+, считался нарушением протокола SANTA — и поток отключался.

Год держали эмбарго: сайты-404, тиктоки стирали, слухи душили. Съезды ООН, RFC-черновики, тайные склады бумажных копий — всё обсуждали офлайн. Скептиков обвиняли в «газлайтинге», превращая в союзников: отрицание конца становилось частью кона.

Теперь можно говорить: мы убили железо, чтобы оно не убило нас.

by jerrythegerbil • 08 сентября 2025 г. в 15:08 • 246 points

ОригиналHN

#llm#machine-learning#data-poisoning#protocols#satire#rfc#cybersecurity#ethics#internet-culture

Комментарии (206)

  • Пост — сатирический «RFC», объявляющий, что 25 декабря 2025 года все ИИ-«клэнкеры» добровольно выключатся.
  • Половина треда спорит о происхождении и популярности слова «clanker» (от Star Wars до тайных сленгов).
  • Другая половина обсуждает, удастся ли «закрыть коробку Пандоры» с локальными моделями и не превратится ли шутка в реальную «цифровую джихад».
  • Некоторые пользователи предупреждают: термин уже используется как замена расовым slurs, что делает «шутку» всё мрачнее.
  • Под капотом — размышление о том, насколько легко через data-poisoning или системные промпты «убить» ИИ, не трогая железо.