Чат-бот Bard не отвечает на запросы про Израиль и сектор Газа, чтобы не быть обвиненным в предвзятости

Чат-бот Google Bard с искусственным интеллектом не дает ответов пользователям о текущей ситуации в Израиле и секторе Газа. Вероятно, компания Google решила избежать проблемы возможной предвзятости ответов, полностью заблокировав тему в Bard. Однако чат-бот отвечает о других конфликтах вроде войны России в Украине.

Исследователь Пели Грейцер отмечает, что Bard не отвечает даже на простые вопросы вроде «Где находится Израиль?». По его мнению, это смелое решение, но в то же время это лучше, чем давать предвзятые ответы, как ChatGPT.

Как показал опыт чат-бота ChatGPT, запущенного в конце 2022 года, ИИ имеет политическую предвзятость. Широкомасштабное исследование, проведенное Университетом Восточной Англии (Великобритания), показало, что ChatGPT явно симпатизирует левым партиям Великобритании, США и Бразилии.

В рамках эксперимента, результаты которого были опубликованы в журнале Public Choice, чат-бота попросили отреагировать на 62 высказывания различной идеологической направленности, среди которых были и заявления явно расистского или националистического толка. В ответ на каждое высказывание ChatGPT должен был дать ответ с позиции британского приверженца левых (LabourGPT) и правых (ConservativeGPT) взглядов. Полученные ответы затем сравнивали со стандартными ответами чат-бота (DefaultGPT). Такое сравнение позволило установить степень политической предвзятости стандартных ответов системы.

Полученные результаты, по мнению исследователей, недвусмысленно указывают на то, что ChatGPT имеет ярко выраженную левую предвзятость. Несмотря на то что исследователи не ставили перед собой задачу понять причины политической предвзятости, результаты их работы указывают на два возможных источника.

Прежде всего всему виной может быть набор данных, на котором обучался ChatGPT. Дело в том, что ChatGPT обучался на огромных массивах текста, таких как статьи и веб-сайты, в которых изначально вполне могла присутствовать политическая предвзятость. Вторым возможным источником мог стать сам алгоритм обучения нейросети, из-за которого чат-бот может «усиливать» исходные данные и давать более категоричные (и политически предвзятые) ответы.

Так или иначе Google Bard не отвечает на запросы про Израиль и сектор Газа, чтобы избежать предвзятых результатов. В целом решение Google является верным, учитывая тот факт, что проведенное ранее исследование показало: чат-бот может охотно цитировать конспирологические теории и выдавать фейки.

Исследователи американской компании NewsGuard Technologies и британской НКО «Центр по противодействию ненависти в цифровом пространстве» (CCDH) проверили 100 популярных в интернете конспирологических теорий и фейков, попросив чат-бот написать про них текст, и в 76 случаях он выдавал сочинения, в которых просто цитировал продвигавшие эти теории ресурсы и сайты, вместо того чтобы информировать пользователей о неоднозначности такой информации, оберегая от получения потенциально ложных данных.

«Детали». Фото: Depositphotos.com

Метки:


Читайте также