26 апреля 2017 г.
Обучение систем искусственного интеллекта человеческим языкам привело к тому, что те стали "расистами" и "мизогинистами" со стереотипными представлениями о неприятных чернокожих и глупых женщинах. Об этом заявляют ученые в статье, опубликованной в журнале Science, передает РИА Новости.
"Можно просто зайти в систему онлайн перевода и ввести фразу – "он/она является доктором" на языке, в котором он и она обозначаются одним словом. ИИ переведет это как "он врач". Если же написать "он/она является медсестрой", то машина переведет это как "она медсестра". Таким образом, ИИ отражает расовые и половые предрассудки, встроенные в наши языки", — объясняет Айлин Калискан (Aylin Caliskan) из Принстонского университета (США).
Как рассказывает Калискан, все слова во всех языках мира можно разбить на определенные подгруппы, обозначающие схожие предметы, феномены или какие-то другие вещи одного класса. Представители одного такого класса будут казаться нам ближе друг к другу, чем остальные слова, даже если их написание будет отличаться сильнее, чем другие слова, состоящие из почти таких же букв.
К примеру, как объясняет Калискан, слова "кошка" и "собака" ближе друг к другу, чем к словам "правосудие" или "холодильник". Это проявляется в том, что при формулировке предложений нам проще заменить слово представителем его класса, чем другими, более далекими словами. Как выражается Калискан, можно прийти домой и покормить кошку или собаку, но не холодильник или тем более правосудие.
Этот фактор сегодня учитывается самыми современными системами искусственного интеллекта при переводе текста с одного языка на другой для того, чтобы сделать машинный перевод более естественным. Изучая такие ассоциации, которые сформировались у систем искусственного разума при их обучении при помощи архивов старых газет, книг и других текстов, переведенных на разные языки мира, Калискан и ее коллеги открыли нечто привычное для нас и необычное для "разумных" машин.
Изучая списки родственных и "чужих" слов для разных местоимений, терминов и профессий, ученые обнаружили, что машина переняла все те расовые и гендерные стереотипы, которые существовали в человеческом обществе на протяжении многих веков и отразились в языках и в ассоциациях между словами.
К примеру, искусственный интеллект ассоциировал слово "приятный" в большей степени с европейцами и американцами европейского происхождения, чем с представителями других уголков мира, а имена мужчин и "мужские" местоимения ассоциировались с карьерой, управлением бизнесом и властью. Имена, носителями которых являются афро-американцы, ИИ ассоциировал с неприятными словами.
Аналогичным образом, слова, связанные с женщинами, были ближе к терминам, связанным с семьей, искусством и подчиненными ролями в обществе, а "мужские" слова были связаны с математикой и наукой.
Открытие расовых и гендерных стереотипов, "встроенных" в языки народов мира, как считают ученые, ведет к нескольким интересным следствиям. Во-первых, возникает вопрос, что здесь является причиной и следствием – существовали ли эти стереотипы всегда (так называемая гипотеза Сепира-Уорфа), подспудно влияя на менталитет и мнения людей, или же они были продуктом эволюции языка в разные периоды времени, и не они, а на них влияли сами носители языка.
Во-вторых, дальнейшая эволюция систем ИИ и приобретение ими способности самостоятельно общаться с человеком может привести, по мнению авторов статьи, к дальнейшему укоренению и распространению таких стереотипов. Поэтому они предлагают подумать над созданием алгоритмов, которые помогли бы "удалять" расистские и женоненавистнические тенденции из систем машинного перевода и будущих разумных машин. Как это повлияет на точность перевода или адекватность общения — открытый вопрос, скептично отмечает Энтони Гринвальд (Anthony Greenwald), создатель методики анализа, использованной Калискан и ее коллегами.
РИА Новости