Нейросети могут распространять предубеждения и стереотипы про разные группы людей — женщин, детей, беженцев, коренные народы, людей с ограниченными возможностями и других. Данные недавнего исследования опубликованы в научном журнале Science.
Авторами стали доцент кафедры психологии Калифорнийского университета в Беркли Селеста Кидд и специалист по когнитивному поведению из Школы компьютерных наук и статистики Тринити-колледжа в Дублине Абеба Бирхане.
В исследовании отмечается, что основной источник, на котором обучаются генеративные модели искусственного интеллекта, — это информация из интернета.
При этом если человек, будучи не уверен в правдивости своих слов, добавляет вербальные сигналы об этом: например, фразы из серии «я думаю», паузы в разговоре, какие-либо пояснения, то алгоритмы искусственного интеллекта, которые учатся генерировать новый контент, дают уверенные и беглые ответы.
«Пользователи генеративных моделей ИИ запрашивают информацию в определенные моменты — когда они неуверенны и, следовательно, наиболее открыты для изучения чего-то нового. Как только человек получил ответ, его неуверенность снижается, его любопытство уменьшается, и он не рассматривает и не взвешивает последующие доказательства так же, как на ранних стадиях принятия решения», – говорится в исследовании.
Таким образом, люди могут воспринимать ответы нейросети как достоверные. В итоге человек может укрепиться в каком-то ошибочном суждении, как и большая часть группы людей, которые пользуются одной и той же системой получения информации.
И подобные утверждения начнут «бесконечно» передаваться уже в самом социуме, и исправить это постфактум «будет нелегко как на уровне отдельных лиц, так и на уровне населения», – отметили ученые.
Авторы привели такие данные: статистические закономерности говорят о том, что чернокожие ответчики в суде менее благонадежны. Механизм машинного обучения будет сообщать о том, что афроамериканцы с большей вероятностью совершат повторное преступление.
Из-за этого практика вынесения приговоров у судей, которые ознакомились с данной моделью искусственного интеллекта, может измениться, предупреждают ученые.
Сильнее всего эти предубеждения окажут влияние на умы несовершеннолетних, считают исследователи. По их мнению, одновременно с развитием нейросетей надо учить людей отличать фактические возможности новых технологий от воображаемых.
Ранее стало известно, что искусственный интеллект научился распознавать будущие музыкальные хиты с точностью 97%. Доказывающий это эксперимент провели Ученые Клермонтского университета в США, с участием 33 добровольцев.
Их усадили в лаборатории, надели на них специальные датчики и предложили послушать различные песни, часть из которых были признанными стримингами новыми хитами, вышедшими недавно, а часть провалились в ротации музыкальных сервисов. Оказалось, что изучив нейронную активность 33 человек, ИИ смог определить перечень прослушанных ими хитов.