Image default
Наука и технологии

Нейросети уличили в распространении негативных стереотипов о людях

Нейросети могут распространять предубеждения и стереотипы про разные группы людей — женщин, детей, беженцев, коренные народы, людей с ограниченными возможностями и других. Данные недавнего исследования опубликованы в научном журнале Science.

Авторами стали доцент кафедры психологии Калифорнийского университета в Беркли Селеста Кидд и специалист по когнитивному поведению из Школы компьютерных наук и статистики Тринити-колледжа в Дублине Абеба Бирхане.

В исследовании отмечается, что основной источник, на котором обучаются генеративные модели искусственного интеллекта, — это информация из интернета.

При этом если человек, будучи не уверен в правдивости своих слов, добавляет вербальные сигналы об этом: например, фразы из серии «я думаю», паузы в разговоре, какие-либо пояснения, то алгоритмы искусственного интеллекта, которые учатся генерировать новый контент, дают уверенные и беглые ответы.

«Пользователи генеративных моделей ИИ запрашивают информацию в определенные моменты — когда они неуверенны и, следовательно, наиболее открыты для изучения чего-то нового. Как только человек получил ответ, его неуверенность снижается, его любопытство уменьшается, и он не рассматривает и не взвешивает последующие доказательства так же, как на ранних стадиях принятия решения», – говорится в исследовании.

Таким образом, люди могут воспринимать ответы нейросети как достоверные. В итоге человек может укрепиться в каком-то ошибочном суждении, как и большая часть группы людей, которые пользуются одной и той же системой получения информации.

Читать также:
Врачи опровергли популярное заблуждение о язве

И подобные утверждения начнут «бесконечно» передаваться уже в самом социуме, и исправить это постфактум «будет нелегко как на уровне отдельных лиц, так и на уровне населения», – отметили ученые.

Авторы привели такие данные: статистические закономерности говорят о том, что чернокожие ответчики в суде менее благонадежны. Механизм машинного обучения будет сообщать о том, что афроамериканцы с большей вероятностью совершат повторное преступление.

Из-за этого практика вынесения приговоров у судей, которые ознакомились с данной моделью искусственного интеллекта, может измениться, предупреждают ученые.

Сильнее всего эти предубеждения окажут влияние на умы несовершеннолетних, считают исследователи. По их мнению, одновременно с развитием нейросетей надо учить людей отличать фактические возможности новых технологий от воображаемых.

Ранее стало известно, что искусственный интеллект научился распознавать будущие музыкальные хиты с точностью 97%. Доказывающий это эксперимент провели Ученые Клермонтского университета в США, с участием 33 добровольцев.

Их усадили в лаборатории, надели на них специальные датчики и предложили послушать различные песни, часть из которых были признанными стримингами новыми хитами, вышедшими недавно, а часть провалились в ротации музыкальных сервисов. Оказалось, что изучив нейронную активность 33 человек, ИИ смог определить перечень прослушанных ими хитов.

Похожие записи

Найден простой способ предотвращения депрессии

admin

Названо суточное количество алкоголя, повышающее риски развития рака

admin

Назван вид рукоделия, улучшающий состояние человека с психическими расстройствами

admin