Декількома словами
Професор Хулі Понсе Соле обговорює важливість етичного та обґрунтованого використання штучного інтелекту в державних адміністраціях, підкреслюючи необхідність балансу між можливостями ШІ та людською справедливістю. Він застерігає від надмірної довіри до ШІ та наголошує на важливості збереження людського контролю в прийнятті рішень, особливо тих, що стосуються прав та інтересів громадян. Експерт вказує на ризики автоматизації та можливі наслідки для державної служби, підкреслюючи потребу в чіткому розподілі відповідальності та резервуванні людського фактору у важливих функціях.

Хулі Понсе Соле (Барселона, 57 років)
Хулі Понсе Соле (Барселона, 57 років) — професор адміністративного права в Університеті Барселони. Він щойно опублікував посібник з належного та обґрунтованого використання штучного інтелекту (ШІ) в державних адміністраціях з дуже довгою назвою: «Регламент Європейського Союзу про штучний інтелект 2024 року, право на належне цифрове адміністрування та його судовий контроль в Іспанії». Як і в багатьох інших професіях, чиновники збираються використовувати та страждати від ШІ. Але через специфіку їхньої делікатної роботи вимоги до машин більш жорсткі. Понсе Соле вважає, що їхня «відсутність емпатії та інших емоцій робить неможливим прийняття рішень, які впливають на людей».
Питання. Як професор адміністративного права використовує ChatGPT?
Відповідь. Я використовую його і заохочую своїх студентів використовувати його, тому що знаю, що вони все одно будуть його використовувати. Я даю їм настанови щодо його можливостей і обмежень. Для юристів важлива юриспруденція. ChatGPT вигадує її або більш щиро каже, що не має доступу до баз даних юриспруденції, що є важливою прогалиною. Це дуже корисно, особливо для орієнтування.
П. Здається, не так вже й корисно.
В. Деякі юридичні журнали, в яких я є членом редакційної ради, вже робили нам обережні запити щодо того, як ми використовуємо його в університетах, тому що вони знаходять все більше і більше наукових досліджень, зроблених за допомогою ШІ. Я не знаю відсоток, але це те, що існує і викликає занепокоєння.
Більше інформації
Хто стежить за охоронцем? Новий іспанський закон про ШІ майже не карає адміністрацію
П. Чиновники також використовують ці інструменти?
В. Ми зараз перебуваємо на етапі Дикого Заходу. У своєму університеті я запитав, чи є якісь критерії, якийсь етичний протокол для використання ШІ, і мені відповіли, що ні. Я думаю, що це загальне явище. Мені невідомо про будь-які настанови чи вказівки. Кожен робить те, що вважає за потрібне. Це залишається на розсуд кожного державного службовця.
П. Вас турбує цей неконтрольований розвиток ШІ в державній адміністрації?
В. Не варто боятися штучного інтелекту, його потрібно поважати та бути обережним. ШІ потребує величезної кількості даних, і державні адміністрації повинні дуже серйозно ставитися до законодавства про захист даних. Іншою пересторогою є поточні обмеження штучного інтелекту, який є вузьким або слабким. Він має обмеження, і якщо його використовуватимуть високопосадовці при прийнятті рішень, це буде помилкою та незаконно.
П. Люди-чиновники також роблять помилки, але це не робить їх незаконними.
В. Це правда, люди роблять помилки і мають специфічну проблему когнітивних упереджень. Це виключно людські упередження, тому що тільки ми маємо мозок. Машини не можуть мати цих упереджень, але вони мають інші, такі як галюцинації. І люди, і машини роблять помилки. Але штучний інтелект здатний повторювати свою помилку тисячі або сотні тисяч разів. Це питання масштабованості. Штучний інтелект, якщо він працює добре, прискорить управління. Але, натомість, доведеться заплатити, якщо він працюватиме погано: вплив може бути більшим. Хулі Понсе, цього четверга в Сан-Кугат-дель-Вальєс.
П. Емоції важливі для прийняття рішень, кажете ви. Оскільки у ШІ їх немає, чи є його рішення незаконними?
В. Я не знаю, чи будуть вони у нього коли-небудь. Звичайно, зараз ні; у середньостроковій перспективі також ні, а в довгостроковій перспективі подивимося.
П. Але він імітує емоції.
В. Але очевидно, що штучний інтелект не має емоцій, не має мозку, і серед емоцій не має емпатії, тому що не має дзеркальних нейронів. 100% машин ШІ є психопатами, тому що їм не вистачає емпатії. Люди, дійсно, роблять помилки: але тільки 1% є психопатами. Тут ми входимо в цікаву сферу, яка значно виходить за межі права і впливає на всіх нас. Рішення машини може відправити нас до в'язниці, що було б найбільш помітним для пересічного громадянина. Це дискусія, яку ми вели з людьми ще до появи штучного інтелекту. Обама обрав до Верховного суду суддю Соню Сотомайор і сказав, що призначає її, тому що цінує її здатність до емпатії у своїх рішеннях. Там стався розкол. Юристів навчають, що право має бути пов'язане з холодною раціональністю. Це спадщина, яку ми отримали від епохи Просвітництва. Ця модель ставиться під сумнів роками. Традиційно вважалося, що для прийняття хороших рішень потрібно ізолювати емоції. Але нейробіолог Антоніо Дамасіо стверджує зворотне: неможливо приймати хороші рішення без емоцій. Повинен бути баланс. Він також пояснює, що емоції пов'язані з існуванням у людей фізичного тіла, якого машини не мають. Я не дуже впевнений, що хочу, щоб про мене приймала рішення машина, нездатна мати жодних емоцій, виявляти емпатію і, отже, нездатна виявляти справедливість. Справедливість вже багато років існує в нашому Цивільному кодексі, правила повинні пом'якшуватися, вони повинні пристосовуватися до конкретного випадку. Я не був би дуже спокійний.
П. Це логічно.
В. З наявними сьогодні технологіями використання машин для прийняття рішень, які передбачають межі розсуду, які повинні враховувати інтереси та права людей, є просто незаконним.
П. Але часто лунають скарги на суддів, чиї вироки, як правило, упереджені в одному й тому ж напрямку, або які погано ставляться до жертв.
В. Нам не потрібно вибирати. Ми повинні бути розумними, щоб об'єднати найкраще з обох світів. Ідеальним було б співробітництво між машинами як помічниками та людьми як кінцевими особами, які приймають рішення. Регламент ЄС про ШІ робить важливу ставку: штучний інтелект не може виносити вироки. Він може тільки допомагати судді. І додає, що функція суддівства є суто людською. Це не означає, що ШІ не можна використовувати, просто останнє слово не може бути за машиною.
П. Це було б важливою зміною.
В. Це звучить дуже розумно, тому що середина завжди така. Але я збираюся виступити в ролі адвоката диявола для себе самого. Те, що в кінці є людина, заспокоює совість. Але ми страждаємо від упередження, яке називається автоматизацією: ми схильні надмірно довіряти машинам. І є ще один важливий людський елемент: думати важко. Замість того, щоб людина контролювала і вирішувала, може статися так, що людина просто підписуватиме те, що їй сказав ШІ. Якщо суддя повинен винести, наприклад, 30 вироків на місяць, то в першому він, можливо, буде дуже обережним, у другому, можливо, також; але коли він побачить, що ШІ працює відносно добре як помічник, то при винесенні 300-го вироку, ймовірно, просто поставить свій підпис і піде далі. Це ризик, про який ми повинні знати.
П. Чи може трапитися так, що люди ховатимуться за рішеннями ШІ, щоб уникнути відповідальності?
В. Це ризик в контексті, де відбувається явище, яке називається оборонною бюрократією, страх підписувати. Виник певний страх ставити свій підпис, щоб не мати проблем з бухгалтерським органом або в кримінальній сфері. Використання ШІ може посилити цю проблему, тому що якщо я боюся, то найпростіше, щоб рішення прийняла машина. Ми схильні захищати себе і уникати проблем. І так не повинно бути. Повинна бути дуже чіткою відповідальність того, хто приймає рішення.
П. Якщо він продовжуватиме розвиватися, як у приватному секторі, нам може знадобитися менше чиновників.
В. Цілком ймовірно, що чиновників потрібно буде менше.
П. Чиновники не звільнені від цього прогресу.
Хулі Понсе, в Сан-Кугат-дель-Вальєс цього четверга.
В. У державному і приватному секторах відбуватимуться подібні зміни.
В. У державному і приватному секторах відбуватимуться подібні зміни. У книзі я розгортаю концепцію резерву людства. Я просував її вже багато років тому. Творець Eliza [одного з перших чат-ботів] ще в шістдесятих роках сказав, що є речі, які не можна залишати машинам. Ця інтуїція залишається чинною. Резерв людства — це не місце для збереження останніх високопосадовців державного сектора. У мене були ці розмови з людьми, які спеціалізуються на приватному секторі та в радах директорів. Існує певний консенсус щодо того, що необхідно встановити резерв людства для набору функцій і завдань, які впливають на дуже чутливі права та інтереси громадян: кримінальне право, надання кредитів, великі штрафи.
Регламент Європейського Союзу про штучний інтелект є хорошим прикладом норми, яка не хоче бути жорсткою. Вона сповнена дверей і лазівок для адаптації. Неправильне використання штучного інтелекту, неналежне використання, призведе нас до протилежного тому, чого ми хочемо. Я не є техноптимістом і не є антитехнологічним, зовсім навпаки. Необхідно знайти баланс. Робити гучні заяви про те, що ШІ вирішить усі наші проблеми або спричинить епічні катастрофи, — це просто і те, що дає заголовок. Але реальність — це тиха робота, яку доведеться виконувати в найближчі роки. У судах, як використовується штучний інтелект? Для яких справ? Яку роль відіграватиме суддя? Або в плані міського розвитку, яку роль він може відігравати? Хто прийматиме остаточне рішення?
П. Здається, на це нелегко відповісти.
В. Є дуже великі теми, які ми обговорювали ще до ШІ, ми обговорюємо їх зараз і продовжуватимемо обговорювати. Коли ми говоримо про ШІ, ми, навпаки, говоримо про те, що означає бути людиною, що означає приймати хороше рішення: який плюс дає людина порівняно з машиною і який плюс дає машина порівняно з людиною? Я вже читав передвиборчі пропозиції, в яких говорилося, що вони збираються автоматизувати, щоб заощадити 15 мільярдів євро. Штучні інтелекти не втомлюються, не просять відпусток по хворобі, не беруть відпустки, не об'єднуються в профспілки, не створюють проблем. Дуже привабливо сказати, що ви збираєтеся позбутися цих ледачих чиновників. Але давайте спробуємо уникнути антиутопій.
Штучний інтелект необхідно впроваджувати, і ми вже запізнюємося. Державні адміністрації повинні набагато більше використовувати ШІ для надання персоналізованих та проактивних послуг. Так само, як і в приватному секторі, вони ідентифікують вас і прогнозують, що вам може знадобитися, очевидно, з метою отримання прибутку. Те саме можуть зробити і державні адміністрації: визначити, які діти в шкільних їдальнях потребують стипендії, і не чекати, поки батьки її подадуть, які, можливо, не знають про стипендію або їм важко подати заявку.