Искусственный интеллект GloVe считает имена чернокожих неприятными
Искусственный интеллект проявлял признаки расизма, отмечая традиционные для белых имена «приятными», а чернокожих — наоборот
Искусственный интеллект проявлял признаки расизма, отмечая традиционные для белых имена «приятными», а чернокожих – наоборот.
Учеными из Принстонского университета было выяснено, что отдельные признаки расизма могут демонстрироваться различными формами искусственного интеллекта. Данные исследования были кратко описаны в газете The Daily Mail.
Из работы стало понятно, что традиционные имена для белокожих людей робот маркировал как «приятные», а те, что обычно принадлежат чернокожим – как «неприятные». В процессе изучения была использована система самообучаемого искусственного интеллекта GloVe, которая развивается с помощью анализа сетевых текстов, а также определяет семантическую связь между словами. В данном исследовании системе было предложено подобрать к слову типа «насекомое» или «цветок» другие слова-ассоциации, которые он определял как «приятные» или «неприятные».
Позже ученые предоставили системе GloVe список имен, которыми чаще всего называют афроамериканцев и людей с белой кожей, в результате чего робот и показал признаки расизма.
«Наши результаты означают, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков», – прокомментировали выводы работы ученые.