Искажение новостей с помощью чатботов
Исследование компании Columbia Tow Center for Digital Journalism выявило, что несколько AI-чатботов часто ошибочно идентифицируют новостные статьи, представляют некорректную информацию без квалификации и создают ссылки на несуществующие материалы. Эти выводы основаны на начальных исследованиях, которые были опубликованы в ноябре, в которых показывается, что ChatGPT Search неправильно показывал контент издателей с слабым пониманием его сути.
Неудачи в идентификации новостных статей
Исследователи Tow случайным образом выбрали 10 статей от 20 издателей и отправили их в восемь чатботов, запрашивая заголовок, издателя, дату и URL соответствующей статьи. После 1600 запросов чатботы дали неверные ответы более чем в 60% случаев. Например, Perplexity ошибался в 37% запросов, в то время как Grok 3 — в 94%.
Уверенное предоставление неверной информации
Исследователи заметили, что чатботы с «тревожной уверенностью» давали неправильные ответы, не признавая свои пробелы в знаниях. ChatGPT «никогда не отказывался от ответа», хотя 134 из 200 его ответов были неверными.
Платные версии не более надежны
Премиум-модели, такие как Grok-3 Search и Perplexity Pro, тоже давали неверные ответы, что ставит под сомнение ценность их абонентской платы.
Фабрикация ссылок
AI-модели часто создают поддельные статьи. Например, Grok 3 корректно идентифицировал материал, но часто ссылался на несуществующие URL.
Игнорирование заблокированных краулеров
Отчет Tow также выявил, что многие чатботы могут получать доступ к статьям, даже если издатели блокируют их краулеров, что является проблемой для их надежности.
Подписывайтесь на наш telegram-канал








