VNews.com.ua

На ChatGPT подали в суд за клевету – чат-бот «галюцинировал» в ответе, назвав известного радиоведущего мошенником

Июнь 09
20:35 2023

ИИ чат-ботов давно обвиняют в предоставлении ложной информации как фактов, но сейчас компании-разработчику, похоже, придется отвечать за это в суде.

Радиоведущий из Джорджии Марк Уолтерс подал в суд на OpenAI после того, как ChatGPT предоставил обманчивую информацию о том, что мужчина обвиняется в мошенничестве и хищении средств некоммерческой организации. Система сгенерировала ответ на запрос третьей стороны – журналиста Фреда Риля.

Иск был подан 5 июня в Верховный суд штата Джорджия, и требует от OpenAI возмещения еще неопределенного денежного ущерба.

Этот случай примечателен тем, что это первый судебный иск, поданный на искусственный интеллект за клевету – хотя чат-ботов часто обвиняют в проблемах с галлюцинациями и неспособностью отличить правду от вымысла. Обычно пользователи просто оказываются обманутыми или просто теряют зря время – однако иногда такие ошибки могут нанести реальный вред.

Например, профессор одного из американских учебных заведений угрожал «завалить» свой класс после того, как ChatGPT заявил, что его студенты использовали искусственный интеллект для написания эссе; или когда адвокат попросил чат-бот найти доказательства для суда, а тот их просто сфальсифицировал. Ну и как не вспомнить кейс одного из украинских телеканалов – когда на странице в Instagram опубликовали фейковую биографию Олеся Гончара, факты для которой предоставил ChatGPT.

В то же время на странице OpenAI содержится оговорка о том, что ChatGPT «иногда может генерировать неправильную информацию», хотя параллельно компания называет технологию «источником надежных данных» и способом «получить ответы» и «учиться чему-то новому». Сам генеральный директор OpenAI Сэм Альтман неоднократно говорил, что предпочитает получать новую информацию из ChatGPT, а не из книг.

Однако непонятно, возможно ли в настоящее время вообще привлечь такие компании к ответственности, поскольку никаких правовых инструментов для такого типа технологии пока не разработано. Обычно 230-й раздел Закона США о соблюдении приличия в интернете защищает интернет-компании от юридической ответственности за информацию, созданную третьей стороной и размещенную на их платформах, но неизвестно, можно ли применить эти средства защиты к системам искусственного интеллекта, которые не просто ссылаются на источники данных, а генерируют информацию заново.

Может быть, прояснить это поможет дело Уолтерса. Первоначально журналист Фред Риль попросил ChatGPT кратко описать настоящее судебное дело по PDF-файлу, и тот создал действительно убедительное и детальное резюме с ложными обвинениями – тем, чего радиоведущий никогда не делал (присвоение средств некоммерческой организации, занимающейся предоставлением прав на оружие, «на сумму более $5 млн»).

Примечательно, что, несмотря на запрос журналиста об обобщении PDF-файла, ChatGPT фактически не может получить доступ к таким внешним данным без использования дополнительных плагинов. То, что система не предупредила об этом и является введением в заблуждение – хотя в случае, когда журналисты The Verge тестировали чат-бот с той же задачей, он четко и информативно написал:

«Извините, но как текстовая модель искусственного интеллекта я не могу получить доступ или открыть определенные PDF-файлы или другие внешние документы».

Share

Статьи по теме

Последние новости

«Ничего об Украине без Украины»: МИД отреагировал на неожиданный шаг Швейцарии

Читать всю статью

Наши партнёры

UA.TODAY - Украина Сегодня UA.TODAY

Всегда на пути к успеху: EA-LOGISTIC – ваш проводник в международных грузоперевозках.