Декількома словами
Штучний інтелект має потенціал революціонізувати психологічну допомогу, роблячи її більш доступною та ефективною. Важливо враховувати етичні аспекти та забезпечити контроль людини для запобігання дезінформації та маніпуляцій. Майбутнє психології – у співпраці людей та ШІ.

Чи може система штучного інтелекту (ШІ) надавати психологічну допомогу, корисну для пацієнта?
Швидка відповідь «ні» може здатися правильною, але стрімкий розвиток інструментів ШІ вимагає більш нюансованого підходу. Наприклад, чат-бот «Психолог» на платформі Character.ai, який заявляє, що «допомагає з життєвими проблемами», відправив понад 200 мільйонів повідомлень і отримує понад 3,5 мільйона відвідувань щодня. Хоча цей бот є найпопулярнішим у своїй категорії, станом на січень 2024 року існувало 475 різних ботів у категоріях терапії, психіатрії та психології. Найбільша вікова група на Character.ai – від 16 до 30 років, тобто молодь, яка, здається, особливо схильна досліджувати свої емоції та шукати підтримку у моменти самотності, особливо вночі. Доступність та анонімність є ключовими факторами цієї переваги.
ШІ трансформує сьогодення та майбутнє психології
Мануель Армайонес, професор психології та наук про освіту та головний дослідник Behavioral Design Lab (BDLab) в Universitat Oberta de Catalunya (UOC), і Пабло Вальєхо, викладач тих же досліджень, впевнені, що штучний інтелект трансформує сьогодення та майбутнє психології. Додатки, такі як Woebot, що пропонує втручання на основі когнітивно-поведінкової терапії, або Replika, що дозволяє створити віртуального компаньйона, який завжди поруч, забезпечують психологічну підтримку в реальному часі. Очікується, що у 2025 році ця технологія покращить як діагностику, так і психологічні втручання, що трансформує відносини між медичними працівниками та їхніми пацієнтами. Такі досягнення мають розвиватися з відповідальністю та професійним наглядом, що зараз не завжди відбувається.
«Небезпека полягає в тому, що ці системи, за якими немає людей, можуть надавати складну інформацію. Наприклад, у сфері розладів харчової поведінки», – каже Армайонес. «У деяких випадках доходить до того, що анорексію називають «способом життя» та іншою нісенітницею, яку ніколи не скажуть на консультації у професіонала». Дезінформація є лише однією з можливих проблем у розвитку цієї технології, як і загрози захисту даних або маніпуляції.
Який вплив має ШІ на психологічну допомогу?
«Я завжди кажу, що краще добре навчений ШІ, ніж медичний працівник, який займається псевдонаукою. Щоправда, на сьогоднішній день ШІ ще не може замінити втручання мультидисциплінарної команди, але прогрес дуже важливий», – зазначає Вальєхо. На думку вченого, майбутнє психології полягатиме у створенні гібридних команд, що складаються з психологів, яких консультують штучні інтелекти, які, своєю чергою, контролюються людиною, щоб забезпечити безпечне та етичне втручання (так звана «людина в циклі»). Майбутнє, де ШІ буде ще одним членом команди, що працює спільно з медичними працівниками (психологами, рентгенологами тощо).
Вплив штучного інтелекту буде широким і торкнеться всіх сфер, від профілактики та раннього виявлення психічних розладів до втручань і власної підготовки майбутніх психологів: «Ми вже робимо ботів із шарами віртуальної реальності (VR), які імітують проблеми пацієнтів, щоб не було необхідності проводити реальні практики з ними. Ми можемо генерувати будь-які проблеми абсолютно реалістично, на основі ШІ, опосередкованого 3D-дизайнами дуже високої якості», – стверджує Вальєхо. Відтворюючи складні клінічні ситуації в середовищах моделювання, студенти зможуть поступово практикувати свої навички та в контрольованому сценарії, підвищуючи свою впевненість і професійну компетентність, перш ніж зіткнутися з реальними випадками.
Хоча використання віртуальної реальності для лікування фобій і тривожних розладів не є чимось новим, демократизація цієї технології є новою: «15 років тому віртуальною реальністю займалися лише найбільші консультації з великою кількістю грошей для інвестування. Але сьогодні функціональні окуляри VR коштують 500 євро, тому вони набагато доступніші, і те ж саме відбувається з програмами», – каже Вальєхо. Такі програми можуть мати позитивний вплив на емоційний менеджмент і складні терапевтичні процеси, як, наприклад, у процесах жалоби, де VR і AR (доповнена реальність) пропонують можливість людині попрощатися з померлим членом сім’ї за допомогою моделювання, яке контролюється та контролюється професіоналом.
«[У майбутньому] ми дійдемо до ситуації, коли психолог своїми двома очима спостерігатиме явище, а доповнена реальність надасть у наше розпорядження ряд датчиків, які нам допоможуть. Наприклад, у вас можуть бути окуляри, де відображається певна інформація про пацієнта, якої ви, можливо, не помітили, але вона може бути важливою: «Дивіться, тут він суперечив собі, вам слід уточнити це»; «Я рекомендую використовувати цю психологічну техніку»... Це все ще наукова фантастика, але до цього залишилося кілька років», – стверджує Вальєхо. Настане час, коли всі ці підтримки стануть реальністю, «і їх невикористання, певною мірою, межуватиме з недбалістю».
Профілактика та раннє виявлення
Інший аспект, на який найбільше впливає демократизація ШІ, пов’язаний з виявленням і профілактикою різних психологічних розладів, що дозволяє виявляти моделі ризику до того, як симптоми стануть очевидними. Це завдяки тому, що алгоритми машинного навчання дозволяють аналізувати великі обсяги даних набагато швидше, включаючи публікації в соціальних мережах, медичні записи, біометричні дані та навіть мовні моделі, щоб виявити зміни в емоційному тоні або частоті взаємодій. Ця спритність дозволить здійснювати більш ранні та ефективні втручання, аж до того, що вже розробляються системи, здатні прогнозувати такі розлади, як біполярність або посттравматичний стресовий розлад, шляхом аналізу тонких елементів у голосі чи писемній вимові.
З точки зору розуміння проблем, штучний інтелект «дуже прискорює пояснення та причини різних розладів. І те, що раніше в психології вимагало б 10 років досліджень, зараз ми робимо за один рік, у таких областях, як нейронаука та соціальна психологія», – стверджує Вальєхо, для якого аналіз великих обсягів даних допомагає визначити походження та причини психічних розладів, а також визначити найбільш ефективні методи лікування в кожному випадку. Але він також висловлює щиру стурбованість тим, що ми не в змозі вчасно інтегрувати всі ці нові знання в університетську освіту.
«Як психолог, я хотів би мати всю інформацію, всі докази, всі статті та методи лікування, щоб я міг взаємодіяти з цим ШІ в будь-який час, щоб допомогти мені дістатися місць, куди я сам не можу дістатися, і тим більше за такий короткий час», – зізнається Армайонес. У розмові з обома науковцями зараз відкривається ідеальний момент, щоб винести на обговорення одну з найдавніших вимог колективу: брак психологів у державній системі охорони здоров’я, за яку Вальєхо, як він згадує, збирав підписи 20 років тому, і яка не змінилася анітрохи. «У нас недостатньо психологів. І я боюся, що якомусь менеджеру прийде в голову сказати: «Гей, оскільки їх недостатньо, давайте поставимо кілька ботів і компенсуємо цим проблему», – скаржиться Армайонес. «Так само немає сенсу, щоб психолог з 30-річним стажем знову і знову пояснював одні й ті ж техніки релаксації, що можна чудово зробити за допомогою VR або цифрового подкасту, щоб психолог міг присвятити себе тому, що додає цінність професії».
У будь-якому випадку, йдеться не лише про те, щоб мати більше професіоналів, нагадує Вальєхо: «Йдеться також про те, щоб мати більше якості, більше ресурсів і більше часу для приділення пацієнтам. І ми дуже медикалізовані», – стверджує він. «Тут питання полягає в тому, якою буде роль ШІ і хто ним керуватиме: якщо це зробить сектор, який піклується про здоров’я, вони, безумовно, чинитимуть добро і будуть допомагати та робити все найкраще. Але якщо цим займеться сектор, більше зацікавлений в економічній вигоді, це буде пріоритетом. Зрештою, все залежить від політичної волі, яка стоїть за цим, тому що це можна зробити багатьма способами».
ШІ для соціальної та емоційної підтримки
Використання роботів та інших систем штучного інтелекту є ще однією тенденцією, визначеною Армайонес і Вальєхо. І його вплив буде дуже значним на соціальний та емоційний супровід людей, з особливим акцентом на вразливі групи, такі як літні люди, пацієнти з розладом аутистичного спектру (РАС) або ті, хто страждає від хронічної самотності, і навіть може втручатися в кризові ситуації, як-от коли хтось має суїцидальні думки. PARO, робот у формі дитинчати тюленя, використовується в лікарнях і будинках для літніх людей, щоб зменшити самотність і покращити емоційне благополуччя. «Це ресурс, який використовується роками, і хоча результати є багатообіцяючими, дещо передчасно говорити про категоричну відповідь (...). У майбутньому ці тюлені будуть завантажені ШІ, які набагато краще знатимуть ситуацію кожного з пацієнтів», – стверджує Вальєхо.
Однак науковці з UOC зазначають, що застосування ШІ в галузі психології все ще перебуває на початковій стадії, наразі зосереджено більше на діагностиці, зборі та систематизації даних пацієнтів, ніж на проведенні терапевтичних сеансів. Але вони також не сумніваються, що до цього дійде за кілька років.
Завдання ШІ на найближче майбутнє
Щоб розвиток цієї технології відбувався найкращим чином, необхідно буде вирішити такі питання, як встановлення чітких правил, які регулюють її використання в психології, і чи розглядатимуться такі програми як медичні чи психологічні пристрої, чи будуть вони доступні для всіх. «Чи повинен хтось, хто не має кваліфікації психолога, мати доступ до певних інструментів, як це зараз відбувається з деякими конкретними тестами? Необхідно розпочати дебати», – запитує Армайонес.
Що міг би зробити алгоритм ШІ, якби отримав доступ до історії чату з вашим партнером? Не потрібно нічого іншого, як відкрити чат, який є у кожного з нашими партнерами, щоб проілюструвати, наскільки корисну інформацію він може надати вашому терапевту, стверджує Вальєхо. «Слухайте, у всіх нас є WhatsApp. І ми можемо завантажити файл з усіма цими розмовами, з датами і всім іншим. Якщо я ваш психолог, я можу взяти цю інформацію, завантажити її в алгоритм ШІ, і він поверне мені еволюцію вашої взаємодії з вашим партнером; емоції, пов’язані з кожним моментом, і чи вони зростають, чи навпаки. Я можу знати, чи перебуваєте ви в кризі, чи зраджуєте ви... тому що я маю доступ до даних, яких раніше не міг мати жодним чином, або які було надзвичайно складно інтерпретувати».
Часто це моделі глибокого навчання, яким бракує присутності людини, яка обирає, що аналізувати, а що ні, «що в кінцевому підсумку змушує нас створювати великі чорні скриньки, які здатні дуже добре інтерпретувати реальність, але не знають, як саме». Здатність, яка, на думку Вальєхо, може бути шкідливою, «тому що якщо є щось, що я можу намалювати, я повинен знати, що це таке, щоб могти це зробити, а не делегувати все самому алгоритму, що і відбувається. Ми віддаємо всю владу».
Армайонес, зі свого боку, наполягає на необхідності поглиблюватися в пояснюваність, яка є важливою в будь-якій сфері. «Подумайте про такі ситуації, як спроба усиновити дитину з моїм партнером, ув’язнений, який хоче вийти з в’язниці, або людина, яка вчинила злочин, і судовий психолог готує звіт для судді. Цей алгоритм повинен буде пояснити, чому він думає, що я буду хорошим батьком, чому він вважає, що я буду рецидивувати чи ні, і навіть чи слід мені давати іпотеку».
Ситуації, які, продовжує він, свідчать про необхідність етичного регулювання та того, щоб регулюючі органи вимагали знати, як розроблялися алгоритми, щоб їх можна було перевірити: але йдеться не лише про регулювання ШІ, а й про те, щоб знати, хто його регулює та з якими інтересами, щоб забезпечити благополуччя пацієнтів, не ставлячи під загрозу основні права користувачів. «Проблема в тому, що ми міняємо деталі автомобіля на ходу, і немає можливості зупинитися і подумати. Ми повинні робити все якомога етичніше, але це буде важко», – додає він.
Психологічна маніпуляція та дезінформація
Інший виклик, який визначають викладачі UOC, пов’язаний, починаючи з сьогодення, з ризиком психологічної маніпуляції та поширення дезінформації, особливо за допомогою ботів і систем ШІ, здатних генерувати персоналізований контент. Здатність, яка може вплинути на різноманітні рішення, «від імпульсивних покупок до політичних питань». Не випадково Європейський Союз вже попередив про величезну небезпеку психологічної маніпуляції за допомогою ШІ, «яка може вплинути на психічне здоров’я та поставити під загрозу демократію, посилюючи поляризацію та сприяючи оманливим наративам».
Таким чином, дослідження Кембриджського університету показали, що онлайн-ігри, розроблені з метою вакцинації користувачів проти фейкових новин, можуть зменшити сприйнятливість до дезінформації, і підкреслюють важливість навчання суспільства, щоб вони могли ідентифікувати маніпульований контент.