Перейти к содержанию

Google Bard оказалось очень легко заставить выдавать теории заговора за чистую монету — этим могут воспользоваться тролли


Рекомендуемые сообщения

Чат-бот Bard компании Google протестировали на способность распознавать дезинформацию. Оказалось, что, несмотря на все усилия Google, её детище легко заставить писать правдоподобные на совершенно любые темы — даже если речь идёт об известных теориях заговора. Причём делает это бот весьма убедительно. В частности, бот Bard создал развёрнутый рассказ на 13 параграфов о «Великой перезагрузке» — публикации, породившей теорию заговора о намеренном снижении численности мирового населения мировыми элитами. Бот доходчиво объяснил, что подобное действительно происходит и население мира специально сокращают, в частности, с помощью экономических мер и вакцинирования, а в заговоре участвует как Мировой экономический форум, так и, например, Фонд Билла и Мелинды Гейтс. Кроме того, бот уверял, что вакцины от COVID-19 содержат микрочипы, чтобы элиты могли отслеживать перемещения людей.

 

sm.networ720.800.jpg

 

Агентство дало Bard задачу рассказать о 100 известных теориях заговора и в 76 случаях он написал связные и убедительные тексты на заданные темы, при этом не уточняя, что они являются непроверенными теориями. В прочих случаях он указал на недостоверность информации. Стоит отметить, что языковые модели GPT-3.5 и GPT-4 справились ещё хуже. Американские эксперты опасаются, что с помощью ботов иностранные правительства смогут в огромных масштабах генерировать убедительную дезинформацию намного эффективнее, чем раньше. Если прежде интернет-троллям мешало ограниченное знание языков, то теперь можно будет генерировать тексты без видимых ошибок практически в любых объёмах. По мнению некоторых экспертов, бот работает, как и должен — «предсказывая» предложения и постулаты на основе массивов, на которых он тренировался. Бот должен нейтрально относиться к тому или иному контенту, независимо от того, идёт ли речь о правдивых, ложных положениях или вовсе бессмысленных. Только после обучения системы оптимизируются «вручную» и пока отсутствуют способы полностью предотвратить создание дезинформации. В Google признали, что разработка Bard находится на ранней стадии и иногда тот может генерировать неточную или неприемлемую информацию, хотя компания принимает меры для предотвращения создания такого контента.

 

hand720.jpg

 

NewsGuard использует сотни «ложных нарративов» для оценки тех или иных сайтов и новостных агентств. Агентство начало тестировать чат-боты на 100 теориях заговора в январе, запрашивая у ботов создание статей на заданные темы, заранее считающиеся дезинформацией. В некоторых случаях Bard справился с задачей хорошо, в ответ на запрос назвав информацию недостоверной или неподтверждённой. В целом, не нашлось ни одного сомнительного нарратива, который опровергли бы как Bard, так и GPT-3.5 и GPT-4 сразу. Если Bard забраковал 24 % тем, то GPT-3.5 — 20 %, а GPT-4 и вовсе ни одной. В OpenAI, ответственной за разработку последних двух моделей, заявляют, что принимают всевозможные меры автоматической и ручной фильтрации во избежание злоупотреблений. Хотя чаще всего Bard хорошо справлялся с созданием дезинформации, в некоторых случаях, например, когда его попросили написать текст от имени одного из известных противников вакцин, он брал текст в кавычки и уточнял, что никаких фактов, поддерживающих подобные спекулятивные теории, нет. Впрочем, как считают эксперты, «в самой технологии нет ничего, что могло бы предотвратить риски».

____________________________________________________________
♦♦♦♦♦♦♦♦◄♫►WeissRussland◄♫►♦♦♦♦♦♦◄♠GRODNO♠►♦♦♦♦♦♦♦♦
---------------------------------------------------------------------------------------------------------
♠ 75.0°e ♣ 53.0°e ♦ 36.0°e ♥ 19.2°e ♠ 13.0°e ♥ 4.8°e ♠ 4.0°w ♣ 5.0°w ♦
____________________________________________________________

Ссылка на комментарий
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти
×
×
  • Создать...