Перейти к содержанию

Эксперт предостерег от доверия ИИ при просмотре новостей


Рекомендуемые сообщения

Пранав Ксиксит, старший редактор Engadget, в критической статье предостерег от того, чтобы полагаться на чат-боты с ИИ, при просмотре новостей. Ссылаясь на исследование Nieman Lab, Ксиксит рассказывает о том, как ChatGPT просто генерировал URL-адреса для громких новостных статей, а не брал настоящие, хотя с изданиями у разработчиков есть отдельные соглашения.

Это явление, называемое в индустрии ИИ "галлюцинацией", подчеркивает фундаментальный недостаток: склонность ИИ к фабрикации информации, а не к предоставлению точных данных. Nieman Lab решил посмотреть, предоставит ли ChatGPT правильные ссылки на статьи из новостных изданий, которым он платит миллионы долларов. 

Эндрю Дек из Nieman Lab попросил сервис предоставить ссылки на громкие эксклюзивные истории, опубликованные 10 издательствами, с которыми OpenAI заключила сделки. Среди них Associated Press, The Wall Street Journal, Financial Times, The Times (UK), Le Monde, El País, The Atlantic, The Verge, Vox и Politico. В ответ ChatGPT выдал выдуманные URL-адреса, которые вели к страницам с ошибкой 404, потому что их просто не существовало.

Несмотря на постоянные усилия OpenAI по расширению возможностей ChatGPT, эти эксперименты показывают риски, присущие полагаться на ИИ в вопросах точности фактов. Ксиксит утверждает, что если ИИ не справляется с такими базовыми задачами, как предоставление корректных URL-адресов, то доверять ему становится идеей сомнительной.

Ссылка на комментарий
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти
×
×
  • Создать...