Покажи своє лице, і я скажу, ким ти є

Nature Scientific Reports недавно опублікував статтю професора Міхала Косінського – того самого, що його дослідження коду фейсбуку лягли в основу скандальної методики Cambridge Analytica рекламувати точно і точково, яку було використано в президентській кампанії Дональда Трампа 2016 року. Нове дослідження Косінського показує, що на звичайному ноутбуці за допомогою цілком доступного безкоштовного алгоритму розпізнавання обличчя можна на підставі однієї довільної портретної фотографії визначити чиїсь погляди – визначити точніше, ніж на основі спеціального професійного тесту зі ста питань. Ера приватності закінчується.

 

 

Забралисьте свою знимку з фейбуку?

 

— Не довелося. Facebook видалив мій акаунт після моїх досліджень його алгоритму.

 

А з інших порталів видалили свої знимки?

 

— Ні. Бо мені добре служать.

 

— Дозволяючи іншим проникнути у вашу приватність?

 

— Загроза радше суспільна, а не індивідуальна. З десяток років фірми й уряди використовують алгоритми, щоби нас профілювати та ідентифікувати.

 

— Але не для того, щоби визначати, хто за кого голосує.

 

— Цього не знаємо. Але точно знаємо, що фірми, які мають патенти на вирішення таких завдань, беруть участь в урядових тендерах – і їх наймають.

 

— Таємниця голосування стала абстракцією?

 

— Не знаємо, наскільки вже стала, але знаємо, що могла чи може стати – тому ми яко суспільство повинні про те говорити. Технологія розпізнання обличчя з початків викликає контроверсії – хоч навіть люди, які нею займаються, не усвідомлюють, що крім присвоєння сфотографованого чи відзнятого в довільних обставинах обличчя конкретній особі і прочитання емоцій, які ця особа відчувала в даний момент, алгоритм вміє також відчитувати різні стійкі ознаки. А саме сексуальні преференції та політичні переконання.

 

— Й одного дня в країні, де панують гомофоби, вулична камера оголосить: "Увага, той пан у червоній шапочці – содоміт!" А на кордонах зон, вільних від ЛГБТ, поставлять камери, що опускатимуть шлагбаум перед особами, котрі належать до сексуальних меншин.

 

— Я вже три роки намагаюся остерегти стосовно такого сценарію.

 

— А з вашої нової статті випливає, що камера в метро або на вулиці також може сегрегувати людей за політичними поглядами. "Стоп! Цей вагон тільки для виборців урядової партії. Виборців опозиційної партії запрошуємо до вагону «B»".

 

— А решта йде пішки? Сподіваюся, до цього не дійде. Але навіть люди, які науково займаються новими технологіями, не розуміють, що є вже алгоритми, які можуть це зробити.

 

— Ціле щастя, що в одному з чотирьох випадків вони помиляються.

 

— Ці 76% точності дає на моєму ноутбуці штучний інтелект, базований на безкоштовному оксфордському коді. Існують досконаліші системи – і вони, безперечно, значно точніші. Ми не знаємо, хто їх використовує і з якою метою. А є реклама стартапів, які вже пропонують розпізнавання за знимками ризику вчинення кимось злочину. Ні уряди, ні великі компанії не хваляться тим, що їх задіюють. Усі знають, що політично це ризиковано. Але це стало надто простим, щоби його хтось не використав, попри етичні застереження.

 

— Простим?

 

— Якщо це можу зробити я, соціальний психолог, на ноутбуці - отже справа інформаційно проста. Я дав штучному інтелекту 900 тисяч фотографій клієнтів великого сайту знайомств та інформацію про те, хто себе окреслив консерватором, а хто лібералом. Попросив його знайти на фотографіях спільні риси людей, які декларують подібні погляди. А через кілька годин дав йому фотографії ще ста тисяч осіб – але вже без інформації про те, які у них політичні переконання, і попросив їх визначити. Алгоритм впорався краще, ніж широко використовуваний складний тест стосовно індивідуальності, у якого 100 питань і точність 66 відсотків. Аби переконатися, що алгоритм працює універсально, ми повторили всю процедуру на вибірках із кількох країн і з кількох різних порталів. Виявилося, що не тільки працює – алгоритм, навчений на вибірці зі США, ефективно відрізняє лібералів від консерваторів і в Канаді, й у Великій Британії.

 

— По чому він це взнає?

 

— Не знаю... Людська інтуїція теж нам підказує, хто які має погляди. Але пересічна людина, побачивши чиюсь знимку, правильно визначить погляди тільки у 55% випадків. Щось нам говорить фризура, щось макіяж та вираз обличчя. Алгоритм може враховувати значно більше ознак. Наприклад, консерватори на 2% частіше усміхнені на знимках і голову тримають трохи інакше, ніж ліберали.

 

Хто тримає голову вище: консерватори чи ліберали?

 

— Пересічний республіканець тримає голову ледь вище. Різниця дуже мала, непомітна для людського ока. Але алгоритм на підставі лише орієнтації голови вже має 56% точності – тобто більше, ніж людина може вичитати з цілої фотографії. Що такий алгоритм витонченіший, то більше він при перегляді сотень тисяч чи мільйонів фотографій різних осіб таких маргінальних відмінностей потрафить викрити, і тим точніше класифікує дану людину.

 

— У багатьох країнах результат виборів залежить від фреквенції в різних групах. Якщо ми вміємо визначити політичні погляди на підставі фотографій, то може незабаром вибори вже будуть непотрібні – бо досить завантажити знимки громадян, щоби знати, чиєї перемоги хоче більшість усього суспільства, а не тільки ті, хто голосує?

 

— Вистачить дослідити, що люди пишуть у мережі. Уряди і фірми так і роблять. Адже за нами в реалі спостерігають протягом 24 годин. Google Home чи Alexa є з нами безперервно.

 

— Не зі мною.

 

— Питання часу. Сподіваюся, що ми ніколи не відмовимося від виборів – але треба вже тепер усвідомити, що є уряди, фірми, партії, організації, які часто краще від нас знають, чого ми хочемо, чого ми боїмося, що нас може захопити. Тому можуть нам пропонувати товари, наративи чи програми, які нас переконають, хоч ми ніколи про них і не подумали б. Зуміють нас успішно заохотити чи знеохотити піти на вибори. Це робиться у величезних масштабах. Значною мірою тому, що ми недооцінюємо важливість цієї проблеми, бо нам важко повірити, наскільки нами маніпулюють такими діями. Брекзит є чудовим прикладом. Або те, як Кремль впливає на політику в Польщі чи США, пересварюючи людей і руйнуючи довіру до інших, особливо до політиків.

 

— Партійні симпатії також можна вичитати з фото чи тільки погляди?

 

— Політичні погляди і партійні симпатії тісно пов'язані, хоч і не абсолютно. У США деякі консервативні демократи є менш ліберальними, ніж частина ліберальних республіканців. Але попри це алгоритм ідентифікував партійну тотожність на підставі знимки так само добре, як і погляди. Коли б ми робили це в країні, де є більше партій, то, мабуть, точність була би ще більшою, бо характер виборця точніше відповідав би партії, за яку він голосує.

 

— Що ще можна вичитати з фотографії?

 

— Індивідуальність, задоволеність життям.

 

— Якщо на знимці людини позують, чи можна зрозуміти, наскільки вони є щасливими?

 

— Алгоритм може зробити це з високою точністю.

 

— По чому він це бачить?

 

— Складно сказати, бо справляється він значно краще за нас. Відомо, що усміхнений напевно є щасливішим від того, хто не всміхається. А відомо також, що коли хтось є фізично привабливим, то напевно має більше підстав для щастя, бо більше заробляє, швидше просувається, його краще оцінюють і більше люблять. Такі в міру очевидні чинники більшість із нас вміє відчитати інтуїтивно. Але алгоритм використовує більше критеріїв, які нам навіть не спадають на думку.

 

— Не можна його про це запитати?

 

— Це так не працює. Те, що робить алгоритм, важко охопити розумом. Однак легко перевірити, що результати, які він видає, є точними.

 

— Тепер, коли ми знаємо, що обличчя говорить про наші погляди, виникає питання, наскільки ми народжуємося ліваками, лібералами чи націоналістами. Чи алгоритм би дуже помилився стосовно майбутніх політичних поглядів, якби йому дали знимку мого дворічного онука? Чи якби йому дали дитячі фото теперішніх дорослих, які мають сформовані погляди?

 

— Я був би здивований, якби – хоч із меншою точністю – цього не вдалося зробити.

 

— Тобто машина вміє наворожити нам майбутнє?

 

— З великою ймовірністю. І ми, зрештою, теж. Адже знаємо, що коли хтось є першою дитиною короля або королеви, то правдоподібно буде колись королем або королевою; а як має освічених батьків, то дуже ймовірно теж отримає вищу освіту. Достовірність таких передбачень велика. Алгоритм читає на людських обличчях багато таких ознак, відчитує їх краще за нас і вираховує більшу кількість факторів, тому помиляється рідше, ніж ми. Але мусить враховувати ці самі три групи механізмів, що й ми.

 

— Які такі групи?

 

— Існує три типи механізмів зв'язку обличчя з поглядами. По-перше, обличчя впливає на погляди. Гарні діти часто виростають на привабливих дорослих. Якщо люди люблять дивитися на наше обличчя, то ми швидше робитимемо кар'єру, матимемо багатше соціальне життя і з часом будемо заможнішими. А заможність впливає на політичні погляди.

 

По-друге, погляди впливають на обличчя – бо пов'язані з вибором ідолів, зачіски яких, макіяж, міни ми мавпуємо. Людина з бородою не мусить бути лібералом – але консерватор має більше шансів мати вуса, ніж неголений заріст. Люди з різними поглядами інакше віктуються і проводять час. У людей, що люблять ходити по лісі з рушницею, потягувати горілку і їсти стейки, буде інша шкіра обличчя, ніж у тих, що п'ють французьке вино, серфінгують чи джоґінґують і є веганами. Кожен триб життя лишає інші сліди на обличчі.

 

По-третє, є фактори, що впливають і на обличчя, і на погляди Наприклад, гормони. Вищий рівень тестостерону знижує емпатію і густить щетину на обличчі, змінює розподіл колагену під шкірою, впливає на форму щелепи. Іншим прикладом є гени. Погляди значною мірою є генетично визначеними, і ми успадковуємо їх від біологічних батьків так само, як риси обличчя. Ці три механізми відповідають за те, що наше обличчя пов'язане з нашими поглядами.

 

— Якщо з обличчя дитини можна вичитати пізніші погляди, то як узгодити це з ідеологічними хвилями, що кидають багато суспільств зліва направо і навідворіть. По цілому Заході малисьмо після Другої світової війни десятиліття лівиці, потім десятиліття лібералізму, тепер маємо друге десятиліття консерватизму. А обличчя не змінюються.

 

— Змінюються. Хоч би разом із модою. Люди мають то довше волосся, то коротше, мають то менший заріст, то більший, то більш засмаглі, то менш. Але за тим часто не йде суттєва зміна поглядів. Засадничі погляди змінюються повільно. Зміна стосується радше методів, ніж ідеалів. Бо змінюється значення різної поведінки. Колись жінка з цигаркою була авангардом вищого чи середнього класу – нині в Америці є радше традиціоналісткою з нижчого класу. Одностатеві подружжя нині схвалює багато консерваторів, бо вони за особисту свободу. А ще двадцять років тому це підтримувала тільки лівиця. Але це зміна соціального вираження поглядів – не самих поглядів. Наше обличчя весь час виражає ті самі погляди, тільки розум знаходить для них інше вираження. Тому алгоритм має шанси відгадати наші характеристики з фотографій. Навіть старих.

 

— Для багатьох соціальних ролей та виконавців цих ролей це створює велику проблему. Суддям, наприклад, традиційно забороняється демонструвати погляди і висловлюватися з політичних питань. Як і військовим та поліцейським. Якщо алгоритм незабаром зможе майже точно відчитувати їхні погляди з фотографії, то вщент полетить священний у Європі принцип аполітичності деяких соціальних ролей, а особливо доктрина аполітичного правосуддя.

 

— Прецінь це вже сталося, коли алгоритми навчилися ідентифікувати погляди на підставі закупів в інтернеті, слуханої на спотіфай музики або постів у фейсбуці.

 

— Там можна сховатися, наприклад, за ніками. А обличчя сховати не вдасться, коли ти є суддею чи генералом.

 

— Тому я так голосно остерігаю, що все важче буде зберігати приватність. П'ятнадцять років тому, коли я починав дослідження приватності, то думав, що якщо застерігатиму політиків і технологів, то може зумію відвернути цей тренд. Однак що більше знаю про те, як працюють алгоритми, то більше переконаний, що, на жаль, ні закон, ні технологія не повернуть нам приватності. Треба розвивати законодавство і технічне забезпечення. Треба загальмовувати й обмежувати нищення нашої приватності – але ми не можемо себе обдурювати, що в цій боротьбі переможемо і будемо в безпеці. На жаль, неможливо втекти від світу, в якому мотивовані уряд, фірма чи навіть сусід зможуть визначити наші найінтимніші риси. Навіть такі, про якіми самі не знаємо.

 

— Ми "настільки про себе знаємо, наскільки нас справджено", а алгоритм знає чи знатиме нас настільки, наскільки йому скаже біґ-дата і статистика?

 

— Власне так. Приватності ми матимемо все менше і менше.

 

— Як із цим жити?

 

— Єдиний вихід – будувати суспільство, яке не заподіє нам шкоди незалежно від того, наскільки нашу приватність буде відслонено. А станеться це раніше, ніж більшості з нас здається. Ми повинні мати змогу безпечно виходити зі своїх шаф разом зі всіма нашими слабкостями. Нині вже абсолютно зрозуміло, що коли самі цього не зробимо або не будемо готові до виходу з шафи, то рано чи пізно нас хтось із неї витягне.

 

— Цілий час чую "хай собі геї будуть, тільки хай про це не кажуть".

 

— Ніколи не було так важливо, як тепер, щоби кожен мав право почуватися безпечно у своїй ідентичності – політичній, сексуальній, етнічній. Бо ми входимо в епоху, в якій усе ставатиме публічним.

 

— Трудна справа. Для деяких драматично трудна – наприклад, для судді.

 

— Але це також має і свої переваги. Бо, може, якщо суддя чи політик знатиме, що йому важко зберегти свою приватність, то буде кращим суддею або політиком.

 

— Не знаю, чи цей вид буде вміти жити в такому паноптиконі. Прецінь вся наша культура опирається на різних іграх умовностей, на різних масках і одежах, які ми вдягаємо, коли встаємо з ліжка і виходимо з дому. Тепер черговий алгоритм їх зриває. А серед нас же дуже небагато нудистів.

 

— Варто пам'ятати, що перед міграцією до міст люди мали значно менше приватності. І це мало свої переваги: було тоді, наприклад, більше довіри. Доведеться навчитися знову жити без цієї приватності. Може судді, поліцейські та генерали повинні відверто декларувати погляди – як політики відверто декларують доходи і контакти з бізнесом чи іноземними службами. Добре би було мати суспільство, в якому людей оцінюватимуть не за поглядами, а за тим, як виконують свої обов'язки.

 

— Трудна справа.

 

— Є таке прислів'я, що легко вже було. Щось у цьому є.

 

Розмовляв Яцек Жаковський

 

Міхал Косінський – соціальний психолог. Професор Стенфордського університету. Член Concilium Civitas. У 2013 році він опублікував дослідження, яким застерігав, що запатентований фірмою Facebook алгоритм може визначати сексуальні уподобання, зовнішній вигляд, інтереси, інтелект, етнічну приналежність, релігію, задоволеність життям, узалежнення, вік, стать, соціальні, релігійні та політичні погляди на основі вподобань у фейсбуці. Проблема, про яку він попереджав, згодом була використана Cambridge Analytica у президентській виборчій кампанії Дональда Трампа у 2016 році та в референдумній кампанії стосовно Брекзит.

 


Michał Kosiński
Pokaż twarz, a powiem ci, kim jesteś

Polityka. 20.01.2021
Зреферуав О.Д.

18.02.2021