Ресурс собрал материалы и выступления
гендерных специалистов, которые разъясняют особенности характера и поведения
таких людей.

Научное сообщество совместно с активистами и защитниками
ЛГБТ-движения запустили проект для родителей, желающих лучше понять своих
детей. Статьи и ответы на вопросы о сексуальной ориентации и гендерной
идентичности опубликованы на сайте illuminator.info. Начало его работы приурочено к
Международному дню борьбы с гомофобией, который отмечается 17 мая.

Экспертами проекта выступили: Дмитрий Исаев
 кандидат медицинских наук, психотерапевт,
сексолог, Мария Сабунаева – гендерный психолог,
доцент РГПУ имени Герцена, Елена Омельченко — доктор
социологических наук, директор Центра молодежных исследований ВШЭ в
Санкт-Петербурге, Ася Казанцева — научный журналист,
лауреат премии «Просветитель».

Отсутствие знаний о гомосексуальности и трансгендерности
приводит к негативной реакции общества в отношении таких людей. Авторы проекта
— режиссер Павел Лопарев и
продюсер Ирина Ходырева — решили создать специальный
ресурс, где читателям не только разъясняют все особенности поведения, но и дают
советы и оказывают психологическую помощь.

По мнению специалистов, ЛГБТ-подростки особенно нуждаются в
поддержке семьи. Их психическое и физическое здоровье, а также будущее
благополучие зависит от отношения родителей к этой особенности. Но, по словам
основательницы сообщества «Дети-404» Елены Климовой, в
среднем только один из пяти российских ЛГБТ-подростков получает поддержку в
семье после признания.

Запуск сайта — это первый этап информационного проекта. У
команды есть идеи создать цикл короткометражных документальных фильмов об
отношениях родителей и ЛГБТ-детей, а также серию анимационных обучающих роликов
на тему сексуальности.

Источник: http://psypress.ru/articles/


GettyImages

Алина, 36 лет:

«Девушки, мой вам совет: простите и забудьте. Вот мой случай. Я несколько лет встречалась с женатым мужчиной — сама была при этом замужем. Только у нас разный подход был. Для Читать далее →


Тролли в интернете являются разрушительными,
воинственными и неприятными персонажами, которые портят настроение окружающим и
превращают любую дискуссию в бессмысленный поток провокаций и оскорблений. Читать далее →


Когда искусственный интеллект изучает
язык с помощью текстовых данных, то заодно принимает стереотипы, которые в них
содержатся. Ассоциативный тест выявил: компьютерная программа демонстрирует
расистские предубеждения и гендерные клише, присущие многим людям. В будущем
это может превратиться в проблему, поскольку искусственный интеллект выполняет
все больше функций в повседневной жизни человека.

Компьютерные системы, имитирующие человеческий разум, обладают уникальными
способностями: машинный интеллект самостоятельно усваивает язык, изображения,
тексты или записывает их. Также эти системы способны учиться и самостоятельно
выполнять сложные задачи. Захватывает и то, что недавно искусственный интеллект
победил человека в покер, игру Го и викторину «Jeopardy!».  

То есть машина может достигать тех же успехов, что и
человек, но сначала она должна научиться этому. Для этого программы снабжают
огромным количеством данных, что становится основой для машинного распознавания
и симуляции разумного поведения. Чат-боты и программы для перевода «кормят»
устной и письменной речью, что дает им возможность создавать связи между
словами и выражениями.  

Алгоритмы вроде программы «GloVe» учатся в результате так
называемого слововложения. Они ищут смежные слова и отражают отношения между
ними математическими величинами. Так алгоритмы могут понять семантические
сходства между «ученый» и «ученый» и распознать, что они соотносятся подобно
«мужчина» и «женщина».

Ученые во главе с Айлин Калискан (Aylin Caliskan) из
Принстонского университета протестировали приобретенную таким образом
способность программы GloVe и выяснили: ее языковые знания нашпигованы
культурными стереотипами и предубеждениями.

Для исследования использовали метод, известный в психологии
как тест имплицитных ассоциаций. Он призван выявлять бессознательные
стереотипные ожидания. Для этого подопытные должны образовать пары со
словосочетаниями (или словами), которые подходят и которые не подходят друг
другу. Так удалось выяснить, что слово «цветок» многие ассоциируют с
прилагательным «приятный», а слово «насекомое» — с «неприятный».

Калискан и ее коллеги подстроили этот тест для исследования
искусственного интеллекта и проверили, какие ассоциации образует программа.
Результаты показали, этические стереотипы и предубеждения человека, которые
регулярно проявляются через тест на имплицитные ассоциации, усвоила и GloVe.
Например, привычное для афроамериканской среды имя программа интерпретировала
как скорее неприятное, зато распространенное между белыми имя — как приятное.
Также женские имена программа связывала скорее с искусством, а мужские — с
математикой.

Для ученых стало очевидно: во время обучения система впитала
выраженные и скрытые социальные стереотипы. Их этот результат не удивил: «Не
удивительно, потому что тексты написаны людьми, которые, конечно, не лишены
стереотипов», — комментирует лингвист Йоахим Шарлотт (Joachim Scharloth) из
Технического университета Дрездена.  

«Тренируя систему искусственного интеллекта односторонними и
предубежденными данным, не стоит удивляться, что ему задается однобокий взгляд
на мир.

В последние годы уже были примеры подобного: Microsoft
Chatbots Tay, которого интернет-тролли смогли быстро научить расистскому языку
ненависти, или приложение Google Photos, которое думало, что темнокожие
пользователи являются гориллами», — говорит Кристин Баухадж (Christian
Bauckhage) из Института интеллектуальных систем анализа и информации имени
Фраунгофера.

Роботизированный ум с расистским и дискриминационным
отношением может стать в будущем настоящей проблемой: тогда программа будет
выполнять все больше функций в нашей повседневности — и, например, на основании
языкового анализа принимать предварительное решение, какого кандидата
пригласить на собеседование, а какого проигнорировать.

Ученые дискутируют о том, как устранить подобные искажения
из баз данных и компьютерных алгоритмов. В то же время, если машина будет
перенимать наши предубеждения, это будет шансом для нас заглянуть в зеркало:
«Машинное обучение может обнаруживать стереотипы, а это уже достижение для
понимания общества», — считает Шарлотт. (Science,
2017; doi: 10.1126/science.aal4230)

 

Источник: http://psypress.ru/articles/