Чат-боты искажают новости — даже для платных пользователей

Новости

Искажение новостей с помощью чатботов

Исследование компании Columbia Tow Center for Digital Journalism выявило, что несколько AI-чатботов часто ошибочно идентифицируют новостные статьи, представляют некорректную информацию без квалификации и создают ссылки на несуществующие материалы. Эти выводы основаны на начальных исследованиях, которые были опубликованы в ноябре, в которых показывается, что ChatGPT Search неправильно показывал контент издателей с слабым пониманием его сути.

Неудачи в идентификации новостных статей

Исследователи Tow случайным образом выбрали 10 статей от 20 издателей и отправили их в восемь чатботов, запрашивая заголовок, издателя, дату и URL соответствующей статьи. После 1600 запросов чатботы дали неверные ответы более чем в 60% случаев. Например, Perplexity ошибался в 37% запросов, в то время как Grok 3 — в 94%.

Уверенное предоставление неверной информации

Исследователи заметили, что чатботы с «тревожной уверенностью» давали неправильные ответы, не признавая свои пробелы в знаниях. ChatGPT «никогда не отказывался от ответа», хотя 134 из 200 его ответов были неверными.

Платные версии не более надежны

Премиум-модели, такие как Grok-3 Search и Perplexity Pro, тоже давали неверные ответы, что ставит под сомнение ценность их абонентской платы.

Фабрикация ссылок

AI-модели часто создают поддельные статьи. Например, Grok 3 корректно идентифицировал материал, но часто ссылался на несуществующие URL.

Игнорирование заблокированных краулеров

Отчет Tow также выявил, что многие чатботы могут получать доступ к статьям, даже если издатели блокируют их краулеров, что является проблемой для их надежности.


Подписывайтесь на наш telegram-канал

admin
Оцените автора
CheatGPT
Добавить комментарий