Боти творять власні стереотипи

Штучний інтелект може розвиватися і без попереднього впливу людських упереджень. Комп’ютерні симуляції з розумними ботами засвідчують: комп’ютерний розум переймає упереджену поведінку, спостерігаючи за іншими машинами та копіюючи їхні дії. Так виникає динаміка, відома і в людській спільноті, повідомляють науковці на сайті Кардіффського університету.

 

 

Комп’ютерні системи, що наслідують людський інтелект, наділені неймовірними вміннями: мозок машини самостійно здатен проаналізувати мову, картинки та тексти, він може навіть їх створювати. Крім того, машини вчаться одна в одної і з легкістю дають собі раду зі складними завданнями. З часом у нашому повсякденному житті все більше завдань виконуватиме штучний інтелект (ШІ).

 

Та зараз вимальовується проблема: з огляду на те, що свої вміння ці системи часто засвоювали на підставі даних, які надала людина, вони переймали людські упередження. В результаті розвивається, зокрема, расистський чи сексистський розум.

 

Але мало того: нещодавно науковці довели, що штучний інтелект може розвивати власні стереотипи і без нашого, людського, впливу.

 

Для свого дослідження Роджер Вітакер (Roger Withaker) та його колеги з Кардіффського університету з допомогою комп’ютерної симуляції проаналізували, як виникають та набирають обертів упередження. У своїй моделі вони об’єднали 100 розумних ботів у грі «дати-взяти», у якій машини віддавали гроші комусь з команди або учаснику за межами власної групи. Кого обрати, віртуальні суб’єкти вирішували на підставі власної ігрової стратегії та репутації інших індивідів. Хто з ким взаємодіяв, а кого позбавляли пожертвувань?

 

«Здійснюючи цю симуляцію тисячі разів, ми змогли розпізнати, як може розвиватися упередження щодо іншого і які умови цьому сприяють», – пояснив Вітакер.

 

Результати засвідчили: що довше науковці здійснювали симуляцію, то упередженішими ставали боти. З часом у них з’являлася тенденція все частіше позбавляти грошей суб’єктів з інших груп й обмінюватися винятково в межах власної групи.

 

Коротко кажучи: роботи все сильніше розвивали упередження щодо «іншого». При цьому Вітакер з колегами помітив: розумні боти пристосовували свої ігрові стратегії, копіюючи інших учасників – тих, що в найкоротший термін назбирали найбільше грошей, тобто найуспішніших. Так виникають групи учасників, що поводяться подібно і, як наслідок, відмежовуються від не пов’язаних з ними суб’єктами. Особливо високим рівень упереджень був тоді, коли замість великої кількості груп всередині віртуальної популяції існувало радше небагато.

 

Боти навчилися своєї упередженості суто через копіювання інших комп’ютерних мізків. «Це доводить, що для розвитку упереджень не потрібні вищі когнітивні здібності», – написали вчені. На їхню думку, очевидно: штучний інтелект не потребує жодних даних, зроблених людиною, аби стати упередженим – достатньо того, щоб його оточували інші машини.

 

«Чимало ШІ-розробок ґрунтується на автономії та самоконтролі. Це означає: поведінка таких машин буде також впливати на поведінку інших машин навколо. Наше дослідження демонструє, що теоретично може відбутися з акторами, які регулярно залежать від чужих ресурсів, – констатує Вітакер. – Так ми довели, що колективний інтелект розумних машин потенційно вразливий до явища, не чужого і для людського середовища», – констатує команда.




Зображення: Andrea Danti/ thinkstock.



Could AI robots develop prejudice on their own?
Auch Bots entwickeln Vorurteile
scinexx.de, 10/09/2018
Зреферувала С. К.

 

 

12.09.2018