Искусственный интеллект GloVe считает имена чернокожих неприятными

Искусственный интеллект проявлял признаки расизма, отмечая традиционные для белых имена «приятными», а чернокожих — наоборот

Искусственный интеллект проявлял признаки расизма, отмечая традиционные для белых имена «приятными», а чернокожих – наоборот.

Учеными из Принстонского университета было выяснено, что отдельные признаки расизма могут демонстрироваться различными формами искусственного интеллекта. Данные исследования были кратко описаны в газете The Daily Mail.

Из работы стало понятно, что традиционные имена для белокожих людей робот маркировал как «приятные», а те, что обычно принадлежат чернокожим – как «неприятные». В процессе изучения была использована система самообучаемого искусственного интеллекта GloVe, которая развивается с помощью анализа сетевых текстов, а также определяет семантическую связь между словами. В данном исследовании системе было предложено подобрать к слову типа «насекомое» или «цветок» другие слова-ассоциации, которые он определял как «приятные» или «неприятные».

Позже ученые предоставили системе GloVe список имен, которыми чаще всего называют афроамериканцев и людей с белой кожей, в результате чего робот и показал признаки расизма.

«Наши результаты означают, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков», – прокомментировали выводы работы ученые.

Рубрика: Общество

Поделиться статьей
Рейтинг@Mail.ru Яндекс.Метрика