«Искусственный разум» подвержен предрассудкам

14.01.2016 Наука и жизнь

Обучаясь людской языку, компьютерные программы перенимают вместе с ним и отечественные культурные стереотипы.

Человеческий мозг ищет ассоциации между словами, основываясь на значении этих слов. Ассоциации смогут быть как очевидными, так и не весьма, к примеру, при слове «роза» у кого-то в голове всплывет не только «запах», «цветок» и другие приятные вещи, но и «боль» – в случае если для человека шипы розы были ответственнее ее запаха, а для кого-то цветок по большому счету возможно предвестником проблем.

Обучаясь людской языку, автомобили усваивают отечественные культурные стереотипы. (На фото – кадр из фильма «Терминатор–2».) (Фото: Eddie Calo / Flickr.com.)

 Но, в случае если отвлечься от личного опыта и индивидуальных особенностей, то в целом у слов имеется достаточно устойчивые «собственные» связи, каковые мы кроме того не всегда осознаем и каковые возможно найти посредством особого теста на скорость ассоциаций: чем прочнее в голове сидит какая-то ассоциация, тем стремительнее человек отреагирует на то либо иное слово, связанное с другим.«Искусственный разум» подвержен предрассудкам Так, в связи с «цветком» самыми стремительными ассоциациями будут слова, обозначающие что-то приятное, наоборот, «оружие» стремительнее попадает в отрицательное понятийное окружение. Такие ассоциативные тесты смогут большое количество чего поведать социологам: к примеру, в Соединенных Штатах среди ассоциаций к «оружию» довольно часто появляются афроамериканцы, в то время как белые люди в большинстве случаев ассоциируются с надёжными и безвредными объектами.

Исследователи из Принстона создали похожий тест, но лишь для автомобилей. Предположительно, на данный момент уже общеизвестно, что существуют методы, разрешающие машине говорить с человеком, и кое-какие люди, не редкость, часами сидят в сети, переругиваясь с лингвистическим роботом (действительно, не весьма ясно, говорит ли это о преимуществах робота, либо же показывает на кое-какие, скажем так, умственные изюминки его собеседника).

Но, в то время, когда машину обучают словам, то их значения ей растолковывают не через соответствия слов каким-то объектам. Вместо этого машине дают кусок текста из интернета, что она разбирает на предмет того, какие конкретно слова видятся рядом между собой довольно часто, а какие конкретно – редко. Анализ достаточно сложен, однако, с его помощью машина осознаёт, что слова «пар» и «лёд» имеют большее отношение к слову «вода», нежели, к примеру, к слову «мода».

Но интернет заполнен словами, каковые пишутся теми же людьми и каковые стоят рядом, подчиняясь тем же людским ассоциациям. Так что стоит ли удивляться тому, что, как пишут авторы работы в Science, у лингвистических роботов связи между словами были те же, что и у людей: цветы и музыкальные инструменты машина употребляла в связке с приятными словами, оружие и насекомые – с неприятными.

То же самое касалось социальных групп: имена, характерные белым, ассоциировались машиной с хорошими вещами, в то время как имена тёмных появились связаны со словами с отрицательной окраской. Да и то же самое было с молодыми и ветхими: имена стариков несли, в случае если возможно так выразиться, неудовольствие, от имен молодых же исходили только приятные ощущения. Да и то же самое – с женщинами и мужчинами: к «мужчинам» тяготели, к примеру, «математика», «физика» и по большому счету науки, «дамы» же появились в одной связке с разнообразными искусствами, и целым рядом «женских профессий», таких, как библиотекарь и гигиенист.

Другими словами машина, манипулирующая языком, была подвержена тем же психотерапевтическим стереотипам, что и человек: убежденность в том, что наука – не женское дело, именуется сексизмом – и мы видим это в машинных ассоциациях, убежденность в том, что тёмные – это неизменно страшно, именуется расизмом – и мы видим это в машинных ассоциациях, убежденность в том, что возрастной работник по определению хуже молодого, именуется эйджизмом – и мы видим это в машинных ассоциациях.

Иначе, в случае если речь заходит о человеке, не следует забывать, что имеются в виду как раз неявные связи, в то время, когда сам человек мало вспоминает о том, какие конкретно слова и как у него связаны, и в случае если его задать вопрос напрямую о том, что он думает, например, о дамах в науке, то он ответит, что в полной мере признает их вклад в научное знание и всячески приветствует их участие в изучениях. С третьей стороны, неизвестно, как поведут себя в будущем такие неявные ассоциации и не станут ли они явными.

Но, в этом случае нас больше интересует не столько люди, сколько автомобили. Как пишет портал LiveScience, сами авторы признают, что такие программы, каковые обучаются людской языку, становятся в итоге необычным слепком отечественной культуры, со среднестатистическими эмоциями и всеми предрассудками: «цветок – это замечательно, а тёмные – это страшно». Слепок, быть может, пара упрощенный, и касающийся лишь отдельных государств; не смотря на то, что разумеется, что если бы программа обучалась русскому либо китайскому, то и тогда бы она обзавелась какими-нибудь характерными ассоциациями, легко своеобразие таких ассоциаций было бы вторым.

Но, так или иначе, в таком виде ИИ выглядит легко продолжением простого, человеческого, пускай и трудящегося намного стремительнее – и, повторим, необычно было бы ожидать чего-то иного. Напоследок не откажем себе в наслаждении напомнить, что в первой половине 70-ых годов двадцатого века великий писатель-фантаст Станислав Лем разглядел весьма похожую проблему в рассказе «Ананке», в котором человек, занимавшийся тренировкой бортовых компьютеров космических судов, сумел заразить эти компьютеры собственным психологическим расстройством, что в итоге стало причиной трагедии.

Создатель: Кирилл Стасевич

Источник: жизнь и Наука (nkj.ru)

Случайные записи:

ИСКУССТВЕННЫЙ РАЗУМ — БЫЛ ПОЧТИ СОЗДАН 50 ЛЕТ НАЗАД!


Похожие статьи, которые вам понравятся: