Декількома словами
Рамон Лопес де Мантаррас, провідний експерт у галузі штучного інтелекту, висловлює думку, що генеративний ШІ, попри його популярність, має обмежений науковий інтерес. Він наголошує, що справжній інтелект і свідомість, ймовірно, притаманні лише живим істотам, і для досягнення сильного ШІ необхідно інтегрувати тілесність та глибше розуміння світу, а не просто вдосконалювати мовні моделі. Експерт також закликає до обережного та регульованого підходу до розвитку та впровадження ШІ технологій, звертаючи увагу на етичні та соціальні ризики.

Рамон Лопес де Мантаррас
(Сан-Вісенс-де-Кастельєт, Барселона, 72 роки) може сказати, що займався штучним інтелектом (ШІ) ще до того, як це стало модним. Насправді, задовго до цього: він присвятив цьому п’ятдесят років, що робить його одним із вітчизняних піонерів дисципліни. Він розповідає як анекдот, що коли Ян ЛеКун, нинішній головний науковий співробітник з ШІ в Meta і один із батьків глибокого навчання (машинного навчання), писав докторську дисертацію в Університеті Сорбонни в Парижі, він був там запрошеним професором і читав йому курс.
Цей каталонський інженер-електрик, комп’ютерник і фізик є засновником Інституту досліджень штучного інтелекту Вищої ради з наукових досліджень (CSIC), організації, з якою він досі співпрацює як почесний професор-дослідник. Він щойно представив у Мадриді свою останню книгу «100 речей, які потрібно знати про штучний інтелект» (Lectio Ediciones), в якій пропонує дуже педагогічну подорож історією цієї дисципліни, зумівши просто пояснити ідеї, які не є такими простими. Генеративному ШІ, який стоїть за такими інструментами, як ChatGPT або Copilot, він присвячує лише епілог, оскільки він з’явився, коли рукопис був готовий до публікації.
Запитання.
Яким, на вашу думку, був вплив генеративного ШІ на дисципліну?
Відповідь.
З наукової точки зору, я бачу в цьому скоріше незначний інтерес. Якщо ми зосередимося на сучасному ШІ, головне наукове питання полягає в тому, чи можливий інтелект у чомусь небіологічному. Я вважаю, що для справжнього розуміння світу необхідно мати свідомість. Це наукова мета з часів піонерів п’ятдесятих і шістдесятих років: створити машини, які будуть такими ж або розумнішими за людей у всіх відношеннях. Моя думка, і думка таких людей, як Ян ЛеКун або Деміс Хассабіс [генеральний директор Google DeepMind], полягає в тому, що генеративний ШІ не тільки не просуває нас до цього сильного ШІ, але, як каже ЛеКун, відволікає нас від шляху до його досягнення. Аргумент полягає в тому, що вони не можуть розуміти світ, тому що не мають тіла, щоб взаємодіяти в цьому світі. Я піду трохи далі: наявність тіла, можливо, дозволяє вивчати основні фізичні закони та причинно-наслідкові зв’язки, які відомі навіть немовляті, наприклад, що якщо ви відпустите яблуко, воно впаде на землю. Але це не означає, що ШІ має свідомість.
П.
Проте генеративний ШІ викликав захоплення в усьому світі. Першим попередженням було, коли інженер Google Блейк Лемуан повірив, що спілкується в чаті зі ШІ, який має свідомість. Чому ми схильні до антропоморфізації?
В.
Це щось притаманне людині. Ми одразу проектуємо суб’єктів на об’єкти, які не мають людських якостей. Так було завжди. Але треба визнати, що в цьому випадку результат вражаючий. Ви запитуєте щось у ChatGPT, і відповіді вражають точністю, граматично досконалі, переконливі та з добре складеним дискурсом, хоча іноді видають неправду. Я розумію, що люди можуть подумати, що за цим дійсно стоїть інтелект, навіть потужніший за їхній власний. Але насправді ви маєте справу з комп’ютерною програмою, яка виявляє та рекомбінує шаблони знову і знову та відтворює результати.
Рамон Лопес де Мантаррас позує на вулиці Мадрида. INMA FLORES
П.
Дехто вважає, що ШІ вже такий розумний, як люди, або навіть свідомий. Чи можливо, що машина зможе набути свідомості?
В.
Той, хто стверджує, що машина розумна і свідома, повинен це довести. Я з тих, хто вважає, що бути свідомим, розуміти світ і бути розумним у людському розумінні цього слова глибоко вкорінено в тому факті, що ми є живими істотами. У тому, що наш субстрат – це хімія вуглецю, а не кремнію. Ми настільки відрізняємося від машин, з їхнім апаратним та програмним забезпеченням… Фізика, що лежить в основі комп’ютерів, базується на транзисторах, які проводять або не проводять електрику, одиниці та нулі, тоді як нашими фізичними символами є процеси, які ми здійснюємо за допомогою нейронів, які набагато складніші, ніж двійкова мова. Ми маємо електричну активність, але також і хімічну. Зрештою, природа мозку та людського тіла настільки непорівнянна та відмінна від машини, що, на мою думку, свідомість та інтелект можуть виникати лише в живих істотах. Інша справа, що в дуже віддаленому майбутньому біоінженерія розвинеться настільки, що репліканти з «Того, що біжить по лезу» стануть реальністю. Якщо це станеться, я почну визнавати, що, можливо, машини зможуть стати свідомими та розумними.
П.
У книзі ви говорите, що одним із фундаментальних викликів ШІ є досягнення того, щоб він мав здоровий глузд. Наскільки далеко можна просунутися в цьому напрямку?
В.
Ну, наразі я бачу, що щодня якась технологічна компанія заявляє, що їхня нова мовна модель має набагато більше мільярдів параметрів, ніж попередня. Але всі ці моделі, по суті, одне й те саме. Вони базуються на концепції Transformer, яка є нейронною архітектурою, що лежить в основі великих мовних моделей (LLM), які оцінюють, яке слово найімовірніше піде за певною послідовністю слів. Тут, з наукової точки зору, я не бачу прогресу. Однак вже є великі технологічні компанії, такі як Google DeepMind, які надають своїм моделям роботизоване тіло. Тут ми можемо побачити цікаві речі. Оскільки дані, за допомогою яких навчаються моделі генеративного ШІ, закінчуються, Хассабіс або ЛеКун стверджують, що шлях полягає в тому, щоб зробити їх тілесними, щоб вони могли розуміти світ, про що я говорю вже 20 років на своїх конференціях. Що потрібно зробити, так це створити гібриди, інтегрувати нейронні мережі з когнітивними архітектурами та символічний ШІ, заснований на логіці. І результат цього, наділити його тілом.
П.
Без надання ШІ тіла не буде великих досягнень?
В.
ШІ не завжди потрібно знати світ, щоб добре функціонувати. AlphaFold, який приніс Хассабісу Нобелівську премію з хімії, має 32 різних алгоритми. Існують нейронні мережі, машинне навчання та ШІ причинності, що працюють інтегровано. Щоб передбачити форму, в якій згортаються білки, не потрібно мати модель світу, і, отже, не потрібно мати тіло.
П.
У книзі ви скаржитеся, що генеративний ШІ розгортається дуже поспішно та хаотично. Як це слід робити? Яке регулювання ми повинні мати?
В.
Ми перебуваємо в свого роду гонці озброєнь. Першу модель ChatGPT запустили з ідеєю, що вони отримають відгук від сотень мільйонів людей, які нею користуються. Ця динаміка випустити жука і чекати, щоб побачити, що станеться, є фатальною з етичної та навіть юридичної точки зору. Не можна проводити соціальні експерименти у великих масштабах, я вважаю, що потрібно бути обережнішими. Я хвилююся, тому що ми вже бачили, наскільки відомо, пару самогубств у Бельгії та Сполучених Штатах. Емілі Бендер, Тімніт Гебру та Маргарет Мітчелл вже попереджали в статті про наслідки випуску технології, яка змушує людей думати, що вони взаємодіють з людиною.
П.
Чи вважаєте ви правильним спосіб, яким ЄС підходить до цього питання?
В.
Європейський Союз рухається в правильному напрямку, хоча це не регулювання, з яким я згоден на 100%. Я вважаю, що це тягне за собою дуже велике бюрократичне навантаження, що ускладнить добросовісним компаніям можливість дотримуватися його. Як ви збираєтеся вимагати алгоритмічної прозорості, якщо самі розробники програмного забезпечення не знають, що насправді відбувається всередині чорної скриньки, якою є машинне навчання? Ще одне, що я критикую, це те, що вони жодного разу не згадують про застосування автономної летальної зброї.
Але, з цими застереженнями, я вважаю, що основна ідея нормативних актів хороша. Необхідно регулювати небезпечні програми ШІ. Ми говоримо не про те, що він може домінувати над людством, а про реальні небезпеки: маніпулювання інформацією, дезінформація, вплив на результати виборів, упередження, дискримінація, абсолютно нестійке споживання енергії тощо. У нас вже є довгий список реальних проблем. Складається враження, що ті, хто зосереджується на екзистенційних ризиках ШІ, роблять це для того, щоб приховати те, що вже відбувається.