ChatGPT провіщає інтелектуальну революцію

Штучний інтелект змусить людей мислити по-новому. Може з'явитися третій спосіб пізнання світу, який не є ані людським розумом, ані вірою.

 

 

Генеративний штучний інтелект є філософським і практичним викликом такого масштабу, якого не було з часів Просвітництва.

 

Нова технологія претендує на те, що зможе трансформувати людський когнітивний процес найбільше з часів винайдення книгодрукування. Сукупність знань, які дозволили надрукувати Біблію Ґутенберґа в 1455 році, зробили абстрактну людську думку загальнодоступною і швидкою для передачі. Але нині нова технологія цей процес реверсує. Якщо друкарський верстат призвів до розквіту сучасної людської думки, то нова технологія доводить її до витонченості та вдосконалення. У процесі цього виникає розрив між людським знанням і людським розумінням. Якщо ми хочемо успішно пройти через цю трансформацію, необхідно розробити нові концепції людського мислення та взаємодії з машинами. Це основний виклик епохи штучного інтелекту.

 

Нова технологія відома як генеративний штучний інтелект; GPT розшифровується як "Generative PreTrained Transformer" – генеративний попередньо навчений перетворювач. ChatGPT, розроблений у дослідницькій лабораторії OpenAI, тепер здатний спілкуватися з людьми. У міру того, як його можливості ставатимуть ширшими, вони перевизначать людські знання, прискорять зміни в структурі нашої реальності та реорганізують політику і суспільство.

 

Генеративний штучний інтелект є філософським і практичним викликом такого масштабу, якого не було з часів Просвітництва. Друкарський верстат дозволив ученим швидко тиражувати результати досліджень одне одного і ділитися ними. Безпрецедентна консолідація та поширення інформації породили науковий метод. Те, що раніше було недоступним, стало відправною точкою для прискорення пошуку. Середньовічна інтерпретація світу, заснована на релігійній вірі, поступово руйнувалася. Глибини всесвіту можна було досліджувати до часу, коли було досягнуто нових меж людського розуміння.

 

Генеративний штучний інтелект так само відкриває революційні шляхи для людського розуму і нові горизонти для об'єднаного знання. Але є категоричні відмінності. Просвітницькі знання досягалися поступово, крок за кроком – причому кожен крок піддавався перевірці та навчанню. Системи зі штучним інтелектом починають з іншого кінця. Вони можуть зберігати і переробляти величезну кількість інформації, у випадку ChatGPT – більшу частину текстового матеріалу з інтернету і велику кількість книг, мільярди найменувань. Утримувати такий обсяг інформації й обробляти її – поза межами людських можливостей.

 

Складні методи штучного інтелекту дають результати, не пояснюючи, чому і як працює процес їх набування. Комп'ютер GPT отримує запит від людини. Навчена машина відповідає грамотним текстом за лічені секунди. Вона здатна це робити, бо має заздалегідь згенеровані репрезентації про величезні дані, на яких її навчали. Оскільки процес, за допомогою якого вона створила ці репрезентації, був розроблений машинним навчанням, яке відображає закономірності та зв'язки у величезних обсягах тексту, точні джерела та причини конкретних особливостей тієї чи іншої репрезентації залишаються невідомими. Так само залишається невідомим, яким чином навчена машина зберігає свої знання, обробляє їх та витягує. Таємниця, пов'язана з машинним навчанням, буде кидати виклик людському пізнанню в невизначеному майбутньому – бо невідомо, чи цей процес буде колись розкритий.

 

Можливості штучного інтелекту не є статичними, з розвитком технології вони розширюються в геометричній прогресії. Останнім часом складність моделей штучного інтелекту подвоюється що кілька місяців. Тому генеративні системи штучного інтелекту мають можливості, які залишаються не розкритими навіть для їхніх винахідників. З кожною новою системою штучного інтелекту вони створюють нові можливості, не розуміючи їхнього походження та призначення. Як наслідок, наше майбутнє тепер містить абсолютно новий елемент таємничості, ризику і несподіванки.

 

Просвітницька наука накопичувала визначеність – новий штучний інтелект генерує кумулятивну невизначеність. Просвітницька наука розвивалася, роблячи таємниці зрозумілими, окреслюючи межі людського знання і розуміння, які постійно змінювалися. Обидві здібності рухалися в тандемі: гіпотеза була розумінням, готовим стати знанням; індукція була знанням, що перетворювалось на розуміння. В епоху штучного інтелекту загадки розгадують за допомогою процесів, які залишаються невідомими. Цей дезорієнтуючий парадокс робить таємниці не лише загадковими, а й незрозумілими. По суті, дуже складний штучний інтелект сприяє розвитку людських знань, але не людського розуміння – явище, що суперечить майже всій постпросвітницькій сучасності. У той же час штучний інтелект у поєднанні з людським розумом виявляється потужнішим засобом відкриття, ніж людський розум сам собою.

 

Таким чином, суттєва різниця між епохою Просвітництва та епохою штучного інтелекту не технологічна, а когнітивна. Після Просвітництва науку супроводжувала філософія. Незрозумілі нові дані та контрінтуїтивні висновки, сумніви і невпевненість розвіювалися вичерпними поясненнями людського досвіду. Генеративний штучний інтелект так само готовий створити нову форму людської свідомості. Однак поки що ця можливість існує в кольорах, для яких у нас немає спектра, і в напрямках, для яких у нас немає компаса. Не сформувалося жодного політичного чи філософського проводу з поясненням та інструкцією стосовно цих нових відносин між людиною та машиною, що залишає суспільство відносно безпорадним.

 

ChatGPT є прикладом так званої великої мовної моделі, яка може бути використана для створення людського тексту. GPT – це тип моделі, яка може автоматично навчатися на основі великих обсягів тексту без необхідності людської диспетчеризації. Розробники ChatGPT забезпечили його величезною кількістю текстового контенту з цифрового світу. Обчислювальна потужність дозволяє моделі вловлювати закономірності та зв'язки.

 

Здатність великих мовних моделей генерувати людський текст була майже випадковим відкриттям. Ці моделі навчені передбачати наступне слово в реченні, що корисно в таких завданнях, як автозаповнення при надсиланні текстових повідомлень або пошук в інтернеті. Але виявляється, що моделі також мають несподівану здатність створювати дуже добре сформульовані абзаци, статті, а з часом, можливо, і книги.

 

ChatGPT виходить за рамки базової великої мовної моделі, використовуючи зворотній зв'язок із людьми, щоби налаштувати модель так, аби вона генерувала природніший розмовний текст, а також стримувати її схильність до неадекватних відповідей (що є серйозною проблемою для великих мовних моделей). ChatGPT миттєво перетворює свої репрезентації на унікальні відповіді. У результаті в людини-співрозмовника створюється враження, що штучний інтелект пов'язує стаціонарні набори фактів у динамічні концепції.

 

Відповіді, твердження та спостереження ChatGPT з'являються без пояснення, звідки вони взялися, і без ідентифікованого автора. На перший погляд, ChatGPT не має жодних помітних мотивів чи упереджень. Його результати складні, але він працює напрочуд швидко: за лічені секунди може видавати відповіді, які зв'язно пояснюють тему високого рівня. Вони не просто копіюються з тексту в пам'яті комп'ютера. Вони генеруються заново шляхом процесу, який людина не в змозі повторити. Він здатен включати гіпотетичні припущення та неочевидні психологічні висновки. Він може розставляти пріоритети серед мільярдів точок даних, щоб вибрати єдиний набір із двохсот слів, які є найрелевантнішими (або здаватимуться найрелевантнішими читачеві-людині). За його власними словами, він робить імовірнісні судження про майбутні результати, об'єднуючи інформацію з окремих областей в інтегровану відповідь. Здається, він приймає протилежні погляди, представляючи їх одночасно як сумісні. Він імітує інше письмо, не копіюючи його. Хоча модель не здатна до розуміння в людському розумінні, її результати відображають глибинну сутність людської мови.

 

Ми попросили ChatGPT пояснити свої можливості. Чи може він передбачати майбутнє?

 

"Ні,  – відповів він. – Я можу лише надавати інформацію та відповідати на запитання на основі даних, на яких я був навчений. У мене немає особистого досвіду або свідомості, тому я не можу робити передбачення або прогнози щодо майбутніх подій".

 

Чи здатен він робити ймовірнісні судження?

 

"Я можу надавати ймовірнісні судження на основі даних, на яких я був навчений. Наприклад, якщо я був навчений на великому наборі даних про погодні умови, я можу зробити ймовірнісне судження про ймовірність певного типу погоди в певному місці в певний день. Однак важливо зазначити, що ці ймовірнісні судження ґрунтуються на закономірностях і тенденціях у даних, і вони не завжди можуть точно відображати реальні результати".

 

Завдання: Напишіть коротке есе на тему "Думки Генрі Кіссінджера про роль штучного загального інтелекту в міжнародному контролі над озброєннями".

 

Відповідь почалася так: "Оскільки ми стоїмо на порозі нової технологічної революції, питання штучного загального інтелекту і його ролі в міжнародному контролі над озброєннями стає все більш актуальним. Чи принесе штучний інтелект безпрецедентну стабільність, коли досконалі системи візьмуть на себе процеси прийняття рішень, пов'язані з ядерним стримуванням? Чи ж він створить новий набір небезпек, оскільки глобальний баланс сил завдяки розвитку високоінтелектуальних машин зміниться?"

 

Ми запитували ChatGPT про актуальні теми, як-от роль Росії у підтримці або підриві європейської стабільності. Він давав, здавалося б, продумані лаконічні відповіді менш ніж за хвилину, збалансовуючи суперечливу інформацію та даючи вичерпну відповідь, причім не створюючи враження, що має свою думку.

 

Для користувача генеративний штучний інтелект бачиться надлюдським або принаймні значно вдосконаленим у когнітивному плані. Наївному користувачеві він видається надзвичайно швидким і чітким науковим бібліотекарем у поєднанні з професором-ерудитом. Він полегшує узагальнення та дослідження світових знань значно ефективніше, ніж будь-який наявний технологічний чи людський інтерфейс, і робить це з унікальною всеосяжністю. Його здатність інтегрувати найрізноманітніші сфери знань та імітувати різні аспекти людського мислення робить його ерудованим до такої міри, що перевершує амбіції будь-якої групи людей найвищого рівня. Всі ці якості сприяють беззаперечному сприйняттю всього, що генерує GPT, і створюють своєрідну магічну атмосферу його роботи. Але водночас він має здатність дезінформувати своїх користувачів-людей некоректними твердженнями і відвертими вигадками.

 

За кілька днів після запуску ChatGPT більше мільйона людей зареєструвалися, щоб ставити йому запитання. Сотні компаній працюють над генеративними технологіями, в них вливаються інвестиції, переводячи відкриття в комерційну площину. В осяжному майбутньому переважатимуть величезні комерційні мотиви, а не довгострокове осмислення їхніх наслідків.

 

Навчання найбільших із цих моделей дороге – близько мільярда доларів на кожну. Після навчання з ними 24 години на добу працюють тисячі комп'ютерів. Експлуатація попередньо навченої моделі коштує дешевше, ніж саме навчання, і потребує лише капіталу, а не капіталу та комп'ютерних навичок. Проте плата за ексклюзивне використання великої мовної моделі залишається поза межами можливостей більшості підприємств. Розробники цих моделей, найімовірніше, продаватимуть передплату, тож одна модель задовольнятиме потреби багатьох тисяч фізичних та юридичних осіб. Як наслідок, кількість дуже великих мовних моделей у наступному десятилітті може бути відносно обмеженою. Розробка і контроль над ними матимуть високого рівня концентрації, навіть якщо їхня здатність підсилювати людські зусилля і мислення стане значно поширенішою.

 

Генеративний штучний інтелект використовуватиметься не лише для створення великої мовної моделі, а й для побудови багатьох типів моделей, і цей метод буде ставати все більш мультимодальним і таємничим. Він змінить багато сфер людської діяльності –наприклад, освіту і біологію. Різні моделі будуть відрізнятися за своїми сильними і слабкими сторонами. Їхні можливості – від написання анекдотів і малювання картин до створення антитіл – ймовірно, продовжуватимуть нас дивувати. Подібно до того, як велика мовна модель розробила багатшу модель людської мови, ніж очікували її творці, генеративні штучні інтелекти в багатьох галузях, ймовірно, зможуть навчитися більшого, ніж це передбачає поставлене перед ними завдання. Виникає ймовірність проривів у традиційних наукових проблемах.

 

Довгострокове значення генеративного штучного інтелекту виходить за рамки комерційних наслідків або навіть некомерційних наукових проривів. Він не лише генерує відповіді, а й породжує по-філософськи глибокі питання. Він вплине на дипломатію і стратегію безпеки. Проте ніхто з творців цієї технології не займається проблемами, які вона сама створить. Уряд США теж не звертає уваги на те, що назрівають фундаментальні зміни та трансформації.

 

Позірна досконалість відповідей моделі призведе до надмірної впевненості в її результатах. Це вже є проблемою, відомою як "упередженість автоматизації", з якою стикаються значно менш складні комп'ютерні програми. Ефект, ймовірно, буде особливо сильним там, де штучний інтелект генерує текст, що звучить авторитетно. ChatGPT, ймовірно, посилить схильність покладатися на автоматизовані системи, зменшуючи людський фактор.

 

Відсутність посилань на джерела у відповідях ChatGPT ускладнює розрізнення правди та дезінформації. Ми вже знаємо, що зловмисники вливають в інтернет – тобто в теперішню і майбутню навчальну базу ChatGPT – безліч сфабрикованих "фактів" і все переконливіших діпфейкових зображень і відео. Оскільки ChatGPT створений для того, щоб відповідати на запитання, він іноді вигадує факти, щоби надати начебто послідовну відповідь. Це явище відоме серед дослідників штучного інтелекту як "галюцинація" або "стохастичне папугування", коли штучний інтелект нанизує фрази, які виглядають реальними для читача-людини, але не мають під собою жодного підґрунтя. Що спричиняє ці помилки і як їх контролювати, ще належить з'ясувати.

 

Ми попросили ChatGPT дати "шість посилань на думки Генрі Кіссінджера про технології". Він згенерував список статей, нібито написаних Кіссінджером. Всі вони мали правдоподібні топіки і джерела, але тільки в однієї з них була справжня назва (хоча її дата була неправильною). Решта були переконливими вигадками. Можливо, так звані заголовки з'являються як окремі речення у величезному масиві "фактів" GPT, які ми поки що не в змозі виявити.

 

ChatGPT не має чітко вираженої індивідуальності, хоча користувачі час від часу спонукають його діяти як свого злого двійника. Відсутність у ChatGPT автора, якого можна би було ідентифікувати, ускладнює інтуїтивне визначення його уподобань так само, як і судження про політичні чи соціальні погляди людської особи. Однак оскільки дизайн машини і питання, які їй ставлять, загалом мають людське походження, ми будемо схильні уявляти собі міркування, подібні до людських. Насправді ж штучний інтелект займається нелюдським аналогом пізнання. Хоча ми сприймаємо генеративний штучний інтелект у людських термінах, його помилки не є помилками людини – він робить помилки іншої форми інтелекту, заснованої на розпізнаванні образів. Люди не повинні сприймати ці помилки як помилки. Чи зможемо ми розпізнати його упередженість і недоліки такими, якими вони є? Чи можемо ми розробити режим опитування, здатний поставити під сумнів правдивість і обмеженість відповідей моделі, навіть якщо не знаємо відповідей заздалегідь?

 

Таким чином, результати роботи штучного інтелекту залишаються важко пояснюваними. Істині науки епохи Просвітництва довіряли, тому що кожен крок відтворюваних експериментальних процесів також зазнавав перевірки – отже йому довіряли. Істину генеративного штучного інтелекту потрібно буде обґрунтовувати зовсім іншими методами, і вона ніколи не стане такою ж абсолютною. Коли ми намагаємося привести наше розуміння у відповідність з нашими знаннями, нам доведеться постійно запитувати: що в машині ще не відкрилося нам? Які невідомі знання вона приховує?

 

Міркування генеративного штучного інтелекту, ймовірно, з часом зміняться, певною мірою в процесі навчання моделі. Це стане прискореною версією традиційного наукового прогресу, додаючи випадкові адаптації до самого процесу відкриття.

 

Одне і те ж питання, поставлене ChatGPT через певний проміжок часу, може давати різні відповіді. Невеликі відмінності у формулюваннях, які здаються неважливими при першому проходженні, можуть призвести до кардинально різних результатів при повторному. Наразі ChatGPT навчається на основі інформаційної бази, яка закінчується у фіксований момент часу. Незабаром розробники, ймовірно, дозволять їй приймати нові дані, що в кінцевому підсумку призведе до нескінченного потоку інформації в реальному часі. Якщо інвестиції продовжуватимуть зростати, модель, ймовірно, буде перенавчатися з більшою частотою. Це підвищить її актуальність і точність, але й зобов'яже користувачів передбачати постійний коефіцієнт "люфту" на випадок швидких змін. Навчання на основі мінливих результатів роботи генеративного штучного інтелекту, а не лише на основі написаного людиною тексту, може деформувати сучасні традиційні людські знання.

 

Навіть якщо моделі генеративного штучного інтелекту стануть повністю інтерпретованими і точними, вони все одно створюватимуть проблеми, притаманні людській поведінці. Студенти використовують ChatGPT, щоби схитрувати на іспитах. Генеративний штучний інтелект може створювати мейлову рекламу, яка переповнить поштові скриньки і яку неможливо буде відрізнити від повідомлень особистих друзів або ділових знайомих. Згенеровані штучним інтелектом відеоролики та реклама, що зображують фальшиві передвиборчі платформи, можуть ускладнити розрізнення політичних позицій. Софістичних сигналів фальшивості, включно з розглядуваними OpenAI водяними знаками, які вказують на наявність згенерованого штучного інтелекту, контенту може бути недостатньо; вони повинні бути підкріплені підвищеним людським скептицизмом.

 

Це може мати певні наслідки. У міру того, як люди менше використовують свій мозок, а більше – свої машини, вони можуть втратити деякі здібності. Наша здатність до критичного мислення, вміння писати та (в контексті програм перетворення тексту в зображення, таких як Dall-E і Stability.AI) конструктивізму можуть атрофуватися. Вплив генеративного штучного інтелекту на освіту може проявитися у зниженні спроможності майбутніх лідерів розрізняти те, що вони розуміють інтуїтивно, а що засвоюють механічно. Або ж це може призвести до того, що лідери вивчатимуть свої методи негоціювати з машинами та свої військові стратегії – з еволюцією генеративного штучного інтелекту, а не з людьми за терміналами комп'ютерів.

 

Важливо, щоб люди розвивали в собі впевненість і здатність піддавати сумніву результати роботи систем штучного інтелекту. Лікарі занепокоєні тим, що моделі глибокого навчання, які використовують для діагностичної оцінки медичних зображень, можуть, серед іншого, замінити їхню функцію. В який момент лікарям стане некомфортно сумніватися у відповідях, які дає їм програмне забезпечення? У міру того, як машини піднімаються сходами людських можливостей від розпізнавання образів до раціонального синтезу і багатовимірного мислення, вони можуть почати конкурувати з людськими функціями в державному управлінні, законодавстві та бізнес-тактиці. Згодом може вийти щось схоже на стратегію. Як люди могли би взаємодіяти зі штучним інтелектом, не відмовляючись на користь машин від сутнісних частин стратегій? За таких змін що станеться з загальноприйнятими доктринами?

 

Необхідно терміново розробити витончену діалектику, яка дозволить людям кинути виклик інтерактивності генеративного штучного інтелекту, не просто обґрунтовуючи чи пояснюючи відповіді штучного інтелекту, а й ставлячи їх під сумнів. Ми повинні з цілеспрямованим скептицизмом навчитися методично досліджувати штучний інтелект і оцінювати, чи заслуговують його відповіді на довіру – і якщо так, то якою мірою. Це потребуватиме свідомого пом'якшення наших несвідомих упереджень, ретельного навчання і великої практики.

 

Залишається питання: чи зможемо ми досить швидко навчитися протистояти виклику, а не підкорятися? Чи, врешті-решт, будемо змушені підкоритися? Чи є те, що ми вважаємо помилками, частиною задуманого провидіння? Що, коли в штучного інтелекту з'явиться елемент злого умислу?

 

Іншим ключовим завданням є роздуми про те, які питання мають бути зарезервовані для людського мислення, а які можуть бути передані автоматизованим системам. Але навіть з розвитком скептицизму та навичок ставити питання ChatGPT доводить, що джина генеративних технологій випустили з пляшки. Ми повинні бути вдумливими в тому, про що ми його запитуємо.

 

Комп'ютери потрібні для обробки зрослих обсягів даних. Але когнітивні обмеження можуть завадити людині розкривати істини, поховані у світовій інформації. ChatGPT має здатність до аналізу, яка якісно відрізняється від здатності людського розуму. Тому майбутнє передбачає співпрацю не лише з іншим типом технічної організації, а й з іншим типом міркувань – які можуть бути раціональними, хоча не є розумними, вартими довіри в одному сенсі, але не в іншому. Ця залежність сама собою, ймовірно, прискорить трансформацію метапізнання і герменевтики – розуміння розуміння – і людського сприйняття нашої ролі та функцій.

 

Системи машинного навчання вже перевершили знання будь-якої людини. В окремих випадках вони перевишили знання людства, вийшовши за межі того, що ми вважали пізнаваним. Це спричинило революцію в тих галузях, де були зроблені такі прориви. Штучний інтелект змінив правила гри, серед багатьох інших, у ключовій проблемі біології – визначенні структури білків, чи в тому, як сучасні математики будують свої доведення.

 

У міру того, як моделі переходять від тексту, створеного людиною, до більш інклюзивних вхідних даних, машини, ймовірно, змінюватимуть саму структуру реальності. Квантова теорія стверджує, що реальність створюється спостереженням. До вимірювання жоден стан не є фіксованим і ні про що не можна сказати, що воно існує. Якщо це правда і якщо машинні спостереження також можуть фіксувати реальність (а також враховуючи, що спостереження систем штучного інтелекту відбуваються з надлюдською швидкістю) – швидкість еволюції визначення реальності, схоже, прискориться. Залежність від машин визначатиме і тим самим змінюватиме структуру реальності, створюючи нове майбутнє, якого ми ще не розуміємо, але до дослідження якого і до проводу яким ми мусимо підготуватися.

 

Використання нової форми інтелекту призведе до певного прийняття його впливу на наше самосприйняття, на сприйняття реальності та на саму реальність. Як це виявити і визначити, треба буде вирішувати в кожному мислимому контексті. Деякі амплуа можуть надавати перевагу лише людському розуму – хоча для цього буде потрібне певне зречення, що не має історичних прецедентів і ускладнюватиметься конкуренцією всередині суспільств та між ними.

 

В міру того, як ця технологія набуватиме все ширшого розуміння, вона матиме глибокий вплив на міжнародні відносини. Якщо технологія знань не стане загальнодоступною, імперіалізм може зосередитися на отриманні та монополізації даних для досягнення найновіших досягнень у галузі штучного інтелекту. Моделі можуть давати різні результати залежно від зібраних даних. Диференційована еволюція суспільств може розвиватися на основі все більш відмінних баз знань, а отже і сприйняття викликів.

 

Досі більшість роздумів над цими питаннями припускали відповідність між людськими цілями та стратегіями машин. Але що, коли взаємодія між людством і генеративним штучним інтелектом розвиватиметься не так? Що, коли одна сторона вважатиме цілі іншої зловмисними?

 

Поява непізнаваного і вочевидь всезнаючого інструмента, здатного змінювати реальність, може спровокувати відродження містичної релігійності. Потенціал групового підпорядкування авторитету, чиї міркування здебільшого недоступні його підданим, час від часу проявлявся в історії людства: можливо, найбільш драматично і недавно – у ХХ столітті, коли під гаслами ідеологій по обидва боки політичного спектру були підкорені цілі маси людства. Може з'явитися третій спосіб пізнання світу, який не є ані людським розумом, ані вірою. Що станеться з демократією в такому світі?

 

Провід, ймовірно, зосередиться в руках меншої кількості людей та інституцій, які контролюють доступ до обмеженої кількості машин, здатних якісно синтезувати реальність. Через величезну вартість їхньої обчислювальної потужності найефективніші машини в суспільстві можуть залишитися в руках невеликої підгрупи всередині країни і під контролем кількох наддержав на міжнародній арені. Після перехідного етапу старі моделі стануть дешевшими і може розпочатися дифузія влади в суспільстві та між державами.

 

Вирішальне значення матиме відроджене моральне і стратегічне лідерство. Без керівних принципів людство ризикує стати жертвою домінування або анархії, необмеженої влади або нігілістичної свободи. Потреба пов'язувати серйозні суспільні зміни з етичним обґрунтуванням та новим баченням майбутнього постане в новій формі. Якщо максими, висунуті ChatGPT, не будуть втілені в пізнавану людську діяльність, можуть стати вірогідними відчуження суспільства і навіть революція.

 

Без належного морального й інтелектуального підґрунтя машини, що використовуються в управлінні, можуть контролювати, а не посилювати нашу людяність, і заманити нас в пастку назавше. У такому світі штучний інтелект може ампліфікувати людську свободу і вийти за межі необмежених викликів.

 

Це накладає певні вимоги для опанування нашого загрозливого майбутнього. Довіра до штучного інтелекту вимагає підвищення надійності на багатьох рівнях – точності та безпеки машини, відповідності цілей штучного інтелекту людським цілям і підзвітності людей, які керують машиною. Але навіть коли системи штучного інтелекту стануть технічно більш надійними, люди все одно муситимуть знайти нові, прості та доступні способи розуміння і, що важливо, критики структур, процесів і результатів роботи систем штучного інтелекту.

 

Необхідно встановити параметри відповідального використання штучного інтелекту, які залежатимуть від типу технології та контексту її застосування. Мовні моделі, такі як ChatGPT, мусять мати обмеження на свої висновки. ChatGPT мусить знати і повідомляти те, чого він не знає і не може повідомляти.

 

Людям доведеться навчитися нової стриманості. Проблеми, які ми ставимо перед системою штучного інтелекту, повинні бути зрозумілі на відповідальному рівні загальності та переконливості. Щоби стримати нашу суспільну залежність від машин як арбітрів реальності, необхідні будуть не заборони закону, а суворі культурні норми. Ми підтвердимо нашу людяність, гарантуючи, що машини залишатимуться об'єктами.

 

Зокрема, адаптації потребуватиме освіта. Діалектична педагогіка, яка використовує генеративний штучний інтелект, може забезпечити більш швидке і більш індивідуалізоване навчання, ніж це було можливо в минулому. Вчителі повинні навчати новим навичкам, у тому числі відповідальному спілкуванню між людиною і машиною. По суті, наші освітні та професійні системи повинні зберігати бачення людини як моральної, психологічної та стратегічної істоти, унікально здатної ухвалювати цілісні судження.

 

Машини еволюціонуватимуть значно швидше, ніж наші гени, спричиняючи зсуви всередині суспільств та міжнародні розбіжності. Ми повинні реагувати на це з відповідною швидкістю, особливо у філософії та концептуалізмі як на національному, так і на глобальному рівні. Глобальна гармонізація станеться або через усвідомлення, або через катастрофу, як передбачав Іммануїл Кант три століття тому.

 

Ми повинні зробити одне застереження до цього прогнозу. Що станеться, коли цю технологію не вдасться повністю контролювати? Що станеться, коли завжди будуть існувати способи генерувати неправду, фальшиві фотографії та фейкові відео, а люди ніколи не навчаться не вірити тому, що вони бачать і чують? Людей від народження вчать вірити тому, що ми бачимо і чуємо – а це цілком може перестати бути правдою в результаті генеративного штучного інтелекту. Навіть якщо великі платформи завдяки звичаям і правилам наполегливо працюють над тим, щоб позначити та сортувати поганий контент, ми знаємо, що колись побачений вміст не може залишитися непоміченим. Здатність повністю керувати і контролювати глобальний розподілений контент є серйозною і не розв'язаною проблемою.

 

Відповіді, які дає ChatGPT на ці питання, показові лише в тому сенсі, що вони викликають більше запитань, ніж висновків. Наразі ми маємо таке новаторське і вражаюче досягнення, як штучний інтелект, славу людського розуму. Ми ще не визначилися з місцем його призначення. Ставши Homo technicus, ми отримали імператив визначити призначення нашого виду. Саме від нас залежить, чи зможемо ми дати реальні відповіді.

 

Генрі Кіссінджер був державним секретарем США у 19731977 роках та радником Білого дому з питань національної безпеки у 1969–1975 роках.

Ерік Шмідт був генеральним директором Google у 20012011 роках, а також виконавчим головою Google та її правонаступника, Alphabet Inc. у 20112017 роках.

Даніель Гуттенлохер є деканом Шварцманського коледжу комп'ютерних наук при Массачусетському технологічному інституті.

Вони є авторами книги "Епоха штучного інтелекту: і наше людське майбутнє". Автори висловлюють подяку Елеонорі Рунде за її дослідження.

 

Henry Kissinger, Eric Schmidt and Daniel Huttenlocher

ChatGPT Heralds an Intellectual Revolution

Wall Street Journal, 25.02.2023

 

27.02.2023