Расистський штучний інтелект

 

Коли штучний інтелект вивчає мову з допомогою текстових даних, то заодно переймає стереотипи, що в них містяться. Асоціативний тест виявив: комп’ютерна програма демонструє ті ж расистські упередження та гендерні кліше, що властиві багатьом людям. У майбутньому це може перетворитися на проблему, позаяк штучний інтелект виконує все більше функцій у повсякденному житті людини.

 

 



Штучний інтелект настільки нейтральний, як матеріал для його навчання. Зображення: Andrea Danti/ thinkstock

 

Комп’ютерні системи, що імітують людський розум, володіють унікальними здібностями: розум машини самостійно засвоює мову, зображення, тексти або записує їх. Також ці системи здатні взаємно навчатися і самостійно виконувати складні завдання. Захоплює і те, що нещодавно штучний інтелект переміг людину в покер, ґо і вікторину «Jeopardy!».

 

Тобто машина може досягати тих же успіхів, що й людина, але спочатку повинна навчитися цього. Тож інформатики годують програми величезною кількістю даних, яка стає основою для машини, коли та розпізнає і застосовує схеми, необхідні для симуляції розумної поведінки. Чат-боти або програми для перекладу «нагодовані» усною та письмовою мовою, що дає їм змогу створювати зв’язки між словами та висловлюваннями.

 

Алгоритми на кшталт програми «GloVe» навчаються в результаті так званого слововкладення. Вони шукають суміжні слова і відображають відносини між ними математичними величинами. Так алгоритми можуть зрозуміти семантичні подібності між «учений» і «вчена» і розпізнати, що вони співвідносяться подібно до «чоловік» і «жінка».

 

Науковці на чолі з Айлін Каліскан (Aylin Caliskan) з Прінстонського університету протестували набуту в такий спосіб здатність програми GloVe і з’ясували: її мовні знання нашпиговані культурними стереотипами та упередженнями.

 

Для свого дослідження учені використали метод, відомий у психології як тест імпліцитних асоціацій. Він покликаний виявляти несвідомі стереотипні очікування. Для цього піддослідні мусять утворити пари зі словосполученнями (чи словами), які пасують і які не пасують одне одному. Так вдалося з’ясувати, що слово «квітка» багато людей асоціює з прикметником «приємний», натомість слово «комаха» – з «неприємний».

 

Каліскан та її колеги підлаштували цей тест для дослідження штучного інтелекту і перевірили, які асоціації утворить програма. Результати засвідчили: етичні стереотипи й упередження людини, які регулярно проявляються через тест на імпліцитні асоціації, засвоїла і GloVe. Наприклад, чоловіче, звичне для афроамериканського середовища ім’я програма інтерпретувала як радше неприємне, натомість поширене поміж білими ім’я – як приємне. Також жіночі імена програма пов’язувала радше з мистецтвом, а чоловічі – з математикою.

 

Для науковців стало очевидно: під час навчання система ввібрала виражені та приховані стереотипи. Їх цей результат не здивував: «Не дивно, бо тексти написані людьми, які, звичайно, не позбавлені стереотипів», – коментує лінгвіст Йоахим Шарлот (Joachim Scharloth) з Технічного університету Дрездена.

 

«Тренуючи систему штучного інтелекту однобічними даними, не варто дивуватися, що вона засвоює однобокий погляд на світ. В останні роки вже були приклади: Microsoft Chatbots Tay, якого інтернет-троль навчив расистської мови, або додаток Google Photos, який думав, що темношкірі користувачі є горилами», – доповнила Крістіна Баухадж (Christian Bauckhage) з Інституту інтелектуальних систем аналізу й інформації імені Фраунгофера.

 

Роботизований розум із расистським і дискримінаційним ставленням може стати в майбутньому справжньою проблемою: тоді програма виконуватиме все більше функцій у нашому повсякденні – і, наприклад, на підставі мовного аналізу прийматиме попереднє рішення, якого кандидата запросити на співбесіду, а якого проігнорувати.  

 

Науковці дискутують про те, як усунути спотворення з баз даних. Водночас, якщо машина перейматиме упередження, це буде шансом для нас, так би мовити, зазирнути в дзеркало: «Машинне навчання може виявляти стереотипи, а це вже здобуток для розуміння суспільства», – вважає Шарлот.

 

 

Künstliche Intelligenz übernimmt Vorurteile

Science, 18.04.2017

Зреферувала Соломія Кривенко

20.04.2017