Responses from LLMs are not facts
Статья призывает прекратить цитировать ИИ как авторитетный источник, подчеркивая, что ответы больших языковых моделей — это не факты, а предсказания наиболее вероятных последовательностей слов. ИИ может генерировать убедительную, но потенциально неточную информацию, подобно человеку, который прочитал тысячи книг, но не помнит, где что встречал. Авторы предупреждают против копирования ответов чат-ботов как авторитетных утверждений, отмечая, что это лишь частые сочетания слов, а не истина.
В статье приводится список ресурсов, подтверждающих риски ИИ: исследования Оксфордского университета о вреде ложных ответов в науке, MIT-исследование о чрезмерном доверии к медицинской информации от ИИ, случаи искажения фактов в юридических документах и даже судебные иски к разработчикам ИИ. Эти примеры демонстрируют реальные последствия некритического использования ИИ-генерируемого контента.