Когда искусственный интеллект изучает
язык с помощью текстовых данных, то заодно принимает стереотипы, которые в них
содержатся. Ассоциативный тест выявил: компьютерная программа демонстрирует
расистские предубеждения и гендерные клише, присущие многим людям. В будущем
это может превратиться в проблему, поскольку искусственный интеллект выполняет
все больше функций в повседневной жизни человека.

Компьютерные системы, имитирующие человеческий разум, обладают уникальными
способностями: машинный интеллект самостоятельно усваивает язык, изображения,
тексты или записывает их. Также эти системы способны учиться и самостоятельно
выполнять сложные задачи. Захватывает и то, что недавно искусственный интеллект
победил человека в покер, игру Го и викторину «Jeopardy!».  

То есть машина может достигать тех же успехов, что и
человек, но сначала она должна научиться этому. Для этого программы снабжают
огромным количеством данных, что становится основой для машинного распознавания
и симуляции разумного поведения. Чат-боты и программы для перевода «кормят»
устной и письменной речью, что дает им возможность создавать связи между
словами и выражениями.  

Алгоритмы вроде программы «GloVe» учатся в результате так
называемого слововложения. Они ищут смежные слова и отражают отношения между
ними математическими величинами. Так алгоритмы могут понять семантические
сходства между «ученый» и «ученый» и распознать, что они соотносятся подобно
«мужчина» и «женщина».

Ученые во главе с Айлин Калискан (Aylin Caliskan) из
Принстонского университета протестировали приобретенную таким образом
способность программы GloVe и выяснили: ее языковые знания нашпигованы
культурными стереотипами и предубеждениями.

Для исследования использовали метод, известный в психологии
как тест имплицитных ассоциаций. Он призван выявлять бессознательные
стереотипные ожидания. Для этого подопытные должны образовать пары со
словосочетаниями (или словами), которые подходят и которые не подходят друг
другу. Так удалось выяснить, что слово «цветок» многие ассоциируют с
прилагательным «приятный», а слово «насекомое» — с «неприятный».

Калискан и ее коллеги подстроили этот тест для исследования
искусственного интеллекта и проверили, какие ассоциации образует программа.
Результаты показали, этические стереотипы и предубеждения человека, которые
регулярно проявляются через тест на имплицитные ассоциации, усвоила и GloVe.
Например, привычное для афроамериканской среды имя программа интерпретировала
как скорее неприятное, зато распространенное между белыми имя — как приятное.
Также женские имена программа связывала скорее с искусством, а мужские — с
математикой.

Для ученых стало очевидно: во время обучения система впитала
выраженные и скрытые социальные стереотипы. Их этот результат не удивил: «Не
удивительно, потому что тексты написаны людьми, которые, конечно, не лишены
стереотипов», — комментирует лингвист Йоахим Шарлотт (Joachim Scharloth) из
Технического университета Дрездена.  

«Тренируя систему искусственного интеллекта односторонними и
предубежденными данным, не стоит удивляться, что ему задается однобокий взгляд
на мир.

В последние годы уже были примеры подобного: Microsoft
Chatbots Tay, которого интернет-тролли смогли быстро научить расистскому языку
ненависти, или приложение Google Photos, которое думало, что темнокожие
пользователи являются гориллами», — говорит Кристин Баухадж (Christian
Bauckhage) из Института интеллектуальных систем анализа и информации имени
Фраунгофера.

Роботизированный ум с расистским и дискриминационным
отношением может стать в будущем настоящей проблемой: тогда программа будет
выполнять все больше функций в нашей повседневности — и, например, на основании
языкового анализа принимать предварительное решение, какого кандидата
пригласить на собеседование, а какого проигнорировать.

Ученые дискутируют о том, как устранить подобные искажения
из баз данных и компьютерных алгоритмов. В то же время, если машина будет
перенимать наши предубеждения, это будет шансом для нас заглянуть в зеркало:
«Машинное обучение может обнаруживать стереотипы, а это уже достижение для
понимания общества», — считает Шарлотт. (Science,
2017; doi: 10.1126/science.aal4230)

 

Источник: http://psypress.ru/articles/

Добавить комментарий

Навигация по записям