Декількома словами
Стаття розглядає дилему штучного інтелекту та питання контролю над ним у демократичному суспільстві. Автор аналізує різні підходи, такі як мораторій, етика та політична критика, і підкреслює необхідність філософського осмислення ШІ для забезпечення балансу між його можливостями та цінностями демократії.

Політична організація суспільств завжди прагнула до автоматизму.
Політична організація суспільств завжди прагнула до автоматизму. Як тільки людські об'єднання виходять за межі простої сім'ї чи племені, їм стають потрібні дані та процедури для управління зростаючою складністю. З цієї точки зору, алгоритмічна раціональність, радше, є продовженням історичного процесу, аніж повним розривом із минулим. Вона виникає там, де потрібно встановити порядок в умовах складності та неоднорідності.
Подібно до бюрократії для сучасної держави, штучний інтелект (ШІ) може стати логікою легітимації організацій та урядів у цифровому суспільстві. Три ключові елементи, які змінять політику цього століття, – це дедалі розумніші системи, технології, що глибше інтегруються, та суспільство, яке дедалі більше оцифровується.
Якщо протягом XX століття політика оберталася навколо дебатів про те, як збалансувати державу та ринок (скільки влади слід надати державі та скільки свободи залишити в руках ринку), то сьогодні головне питання полягає в тому, чи повинні наші життя регулюватися алгоритмічними процедурами і якою мірою, як поєднати переваги роботизації, автоматизації та цифровізації з принципами самоврядування, що є нормативним ядром демократичної організації суспільства.
Те, як ми налаштуємо управління цими технологіями, матиме вирішальне значення для майбутнього демократії; це може призвести до її руйнування або зміцнення. Людство завжди прагнуло до того, щоб якась механічна процедура зробила нас менш залежними від волі інших. Алгоритмічна раціональність, здається, обіцяє це, але чи справді це так?
Фундаментальна проблема штучного інтелекту – це зростаюча передача людських рішень йому. Повсюдна автоматизація ставить питання про те, яке місце займає людське рішення – чи є воно лише доповненням, модифікацією чи заміною. Відповідь на ці питання дозволить перетворити інформатику на політичну дисципліну. Зрештою, хто вирішує, коли, здавалося б, ніхто не вирішує?
Існують три можливі підходи до вирішення проблем, що виникають у зв'язку зі зростаючою роллю алгоритмічної раціональності через передачу рішень штучному інтелекту: мораторій, етика та політична критика. Тобто, пропозиція призупинити розвиток технологій принаймні на деякий час, підпорядкувати їх етичним кодексам або розглядати їх з точки зору політичної критики.
Ідея мораторію свідчить про нерозуміння природи технологій, їхнього зв'язку з людьми та, зокрема, потенціалу штучного інтелекту щодо людського інтелекту, який, на мою думку, менш перебуває під загрозою, ніж вважають ті, хто боїться цифрового супрематизму. Звісно, ми стикаємося з дедалі більшим і тривожнішим розривом між швидкістю розвитку технологій та повільністю їхнього регулювання. Політичні дебати чи законодавство є переважно реактивними. Мораторій мав би перевагу в тому, що нормативно-правова база могла б бути прийнята проактивно, перш ніж дослідження продовжать розвиватися. Але так не працює, особливо з такими складними технологіями.
Заклик до мораторію описує вигаданий світ, тому що, з одного боку, вважає можливою перемогу штучного інтелекту над людським, а з іншого – припускає, що штучному інтелекту знадобиться лише кілька технічних оновлень протягом шести місяців заморожування його розвитку. То як же бути? Як може загроза бути настільки серйозною і водночас достатньо шести місяців мораторію, щоб її нейтралізувати?
Інший спосіб вплинути на розвиток технологій – це апеляція до етичних критеріїв. У цьому випадку йдеться не про те, щоб зупинити розвиток, а про те, щоб спрямувати його в певному напрямку. Саме це намагалися зробити численні установи, які останніми роками оприлюднили свої заклики у зростаючій кількості, що обернено пропорційна новизні пропозицій.
Посилаючись на нормативний горизонт, ця апеляція не вичерпує всіх можливостей критики. Якщо мораторій надто гальмував, то можна сказати, що етика гальмує занадто мало і може перетворитися на нешкідливий супровід бездумного розвитку технологій. Ми не можемо очікувати вирішення проблеми взаємозв'язку між штучним інтелектом і демократією від нинішнього поширення етичних кодексів, оскільки, хоча вони прагнуть захистити основні цінності демократії, вони не розробляють концептуально проблему того, якою мірою повсюдна автоматизація змінює демократичний стан. Перш ніж нормативні, виклик, з яким ми стикаємося, є концептуальним. Лише політичне прочитання цифрової епохи дозволить нам вивчити демократичну якість цифровізації.
Критична теорія – це дещо інше, ніж етика штучного інтелекту; критика починається саме там, де закінчуються заклики до розвитку відповідального та гуманістичного штучного інтелекту. Критика – це не заклик робити добро, а дослідження структурних умов, які уможливлюють або унеможливлюють це. Що дає перспектива філософської критики щодо теми алгоритмічної раціональності? В основному – майже ніколи не задоволене запитання про припущення, які ми схильні вважати достатньо обґрунтованими.
Ідеологія алгоритмічного розуму – це не стільки навмисне приховування, скільки нерефлексивність. Її натуралізація полягає в тому, щоб перестати запитувати, на яку раціональність відповідає алгоритмічна раціональність, думати, що не існує альтернативної раціональності або, принаймні, різноманітності можливостей щодо того, що робити з цією раціональністю. У цій книзі я ставлю питання про те, що означає демократичне самоврядування і який сенс має вільне політичне рішення в цій новій констеляції. Моя мета – розробити теорію демократичного рішення в середовищі, опосередкованому штучним інтелектом, розробити критичну теорію автоматичного та алгоритмічного розуму. Нам потрібна політична філософія штучного інтелекту, підхід, який не може бути охоплений ні технологічними роздумами, ні етичними кодексами.
Потрібно обміркувати ідею контролю, яка б водночас відповідала очікуванням керованості цифрового світу, який ми не можемо залишити поза будь-яким людським розумінням, масштабом та орієнтацією, але й не повинні здійснювати над ним форму підкорення, яка б зруйнувала його перформативність. Ми ще не знайшли належного балансу між людським контролем і перевагами автоматизації, але ця складність говорить нам також про відкритий, дослідницький та винахідливий характер людської історії, а не про остаточну невдачу.
Втішає те, що в інші моменти історії люди теж не завжди з першого разу вгадували, коли йшлося про обмеження ризиків невідомої технології. Згадаймо той закон про червоний прапор, проголошений в Англії в 1865 році з метою запобігання аваріям у зв'язку зі збільшенням кількості автомобілів, який встановлював максимальну швидкість чотири милі на годину в сільській місцевості та дві – у містах і селах. Крім того, кожному з них мала передувати людина пішки з червоним прапором, щоб попередити населення. Знадобилося кілька років, щоб ми усвідомили природу ризиків і переваги швидкого пересування, і, перш за все, що людський контроль над транспортними засобами не залежить від обмеження швидкості до параметрів ходьби. Можливо, те, що ми робимо зараз зі штучним інтелектом, у майбутньому здасться нам надмірним або недостатнім, але те, що відрізняє нас як людей, – це не успіх того, що ми робимо, а наполегливість, з якою ми це робимо.
Даніель Іннерріті (Більбао, 1959) – філософ. Цей текст є видавничим анонсом його книги «Критична теорія штучного інтелекту» (Una teoría crítica de la inteligencia artificial) видавництва Galaxia Gutenberg, яка вийде друком 19 березня.