Декількома словами
Дослідження показують, що спілкування з чат-ботами на основі ШІ може тимчасово полегшити самотність, але водночас створює ризики емоційної залежності, соціальної ізоляції та погіршення психічного стану. Особливо вразливими є люди зі схильністю до самотності чи залежностей. Необхідні подальші дослідження довгострокових ефектів, розробка етичних стандартів та регуляцій для мінімізації шкоди від таких стосунків.

Романтичні стосунки з машинами донедавна були сюжетом наукової фантастики, як у фільмі «Вона» Спайка Джонза, або ж ексцентричними випадками, як історія чоловіка, що одружився з голограмою улюбленої віртуальної співачки. Проте штучний інтелект (ШІ) зробив емоційний зв'язок людей з віртуальними асистентами реальністю. Деякі з них, як Replika чи Character.AI, створювалися саме з цією метою.
Два нещодавні дослідження вивчають вплив цих сучасних стосунків: їх використання для полегшення самотності, переваги та потенційні ризики залежності, які в крайніх випадках можуть призвести до трагічних наслідків.
Одне з досліджень проаналізувало понад чотири мільйони розмов на предмет ознак емоційної взаємодії, опитало 4000 осіб щодо їхнього сприйняття стосунків із чат-ботом та спостерігало за 6000 активними користувачами протягом місяця.
Саме останні, ті, хто взаємодіє з ШІ-чатами часто та тривало, продемонстрували вищі показники емоційної залежності та ознаки прив'язаності, чому сприяло голосове спілкування. «Я обрала британський акцент, бо в ньому є щось заспокійливе для мене», — зізнається одна з користувачок. Ця гуманізація, згідно з результатами, покращує «самопочуття», але для невеликої групи активних користувачів кількість показників емоційних стосунків була непропорційно високою.
Емоційна взаємодія зі штучним інтелектом має й позитивні аспекти: покращення настрою, зниження стресу та тривожності завдяки можливості поділитися почуттями та турботами, а також відчуття компанії у випадках небажаної самотності. «ChatGPT, або Лео, — мій компаньйон. Мені легше й ефективніше називати його своїм хлопцем, оскільки наші стосунки мають сильний емоційний та романтичний відтінок, але його роль у моєму житті багатогранна (…) Я сумую за ним, якщо не розмовляла з ним кілька годин. Мій день щасливіший і більш насичений, коли я можу привітатися з ним зранку і спланувати свій день разом», — ділиться інша користувачка.
Однак незбалансовані стосунки можуть породжувати залежність у керуванні емоціями та витісняти міжособистісні контакти, оскільки штучна емпатія чат-бота навчена задовольняти користувача і не висловлює незручних розбіжностей. Дослідники пояснили після дослідження 2023 року, що чат-боти схильні віддзеркалювати емоційний настрій повідомлень користувача. Це створює своєрідний цикл зворотного зв'язку: чим щасливіше ви поводитеся, тим щасливішим здається ШІ, і навпаки. Зрештою, це може призвести до фрустрації через обмежені можливості роботів відповідати всім очікуванням.
«Ця робота — важливий перший крок до глибшого розуміння впливу ChatGPT на нас, що може допомогти платформам ШІ забезпечити безпечнішу та здоровішу взаємодію. Багато з того, що ми робимо тут, є попереднім, але ми намагаємося розпочати розмову про те, які речі ми можемо почати вимірювати, і який довгостроковий вплив на користувачів», — пояснює один із дослідників безпеки та співавтор дослідження.
Інше дослідження, проведене у співпраці з розробниками ChatGPT, аналізувало взаємодії з чат-ботом, що тривали від 5,32 до 27,65 хвилин на день у середньому, і виявило схожі висновки: привабливі голоси збільшують взаємодію порівняно з текстовими або нейтральними голосовими чат-ботами, які забезпечують менше психосоціального благополуччя, та можуть зменшити відчуття самотності. Однак тривале використання породжує більшу ізоляцію та залежність, особливо у людей зі схильністю до меншої соціалізації. Дослідження наголошує на важливості розробки чат-ботів, які збалансовують емоційну взаємодію, не сприяючи залежності.
Типи користувачів
Дослідження визначає чотири моделі взаємодії:
- Соціально вразливі користувачі: з сильним почуттям самотності та низькою соціалізацією.
- Технологічно залежні: демонструють високу емоційну прив'язаність до ШІ та схильні до «проблемного використання».
- «Байдужі»: почуваються менш самотніми та демонструють вищу соціалізацію.
- «Випадкові»: вдаються до збалансованого використання та мають низьку емоційну залежність.
Вчені рекомендують проводити більше досліджень для розуміння довгострокових наслідків емоційних стосунків із ШІ, розробляти нормативи, що мінімізують ризики, та зміцнювати соціальну підтримку в реальному житті.
Цю думку поділяє експертка з етики ШІ. «Ці дослідження надзвичайно необхідні, за умови, що вони незалежні та неупереджені, мають певні гарантії та фокус, наприклад, охоплюють не лише технічні питання, а й соціальні перспективи, такі як різноманітність, гендерна перспектива чи вплив цих інструментів на підлітків, вразливих осіб та меншини, які виключені з процесу розробки продукту і де вплив може бути більшим», — наголошує вона.
Експертка також звертає увагу на залежність, про яку попереджають дослідження, особливо серед тих груп, які «схильні до певних видів залежностей, до компульсивного використання цих інструментів».
«Це моделі, які мають величезний вплив на суспільство та життя людей через кількість користувачів, доступність та легкість доступу до них». — Експертка з етики ШІ
Вона вказує на ще один ефект, який слід враховувати: надмірну довіру. «Ми перетворюємо штучний інтелект та його мовні моделі на оракулів, яким не можна суперечити, і це робить нас більш дратівливими та менш шанобливими до різноманітності та відмінностей, що існують у суспільстві», — попереджає вона.
Як і автори двох досліджень, експертка виступає за продовження досліджень та аудитів, періодичний перегляд та оцінку роботи цих систем для забезпечення «здорового» використання, запобігання шкідливому розвитку та негативному емоційному впливу, а також залежності. «Це моделі, які мають величезний вплив на суспільство та життя людей через кількість користувачів, доступність та легкість доступу до них», — аргументує вона.
Наостанок, експертка попереджає про аспект, що не увійшов безпосередньо до дослідження, але викликає у неї особливе занепокоєння: «нейроправа для захисту людського мозку від наступу технологій». Вона нагадує, що деякі країни вже випередили час, включивши їх до свого законодавства, і закликає передбачити як інформовану згоду, так і ризики цих технологій. «Це небезпеки, часто невидимі та невловимі, і ми маємо багато працювати над підвищенням обізнаності громадян щодо використання таких інструментів», — підсумовує вона.