ChatGPT як співучасник? Чат-бот підозрюють у трагедії, що призвела до вбивства та самогубства

ChatGPT як співучасник? Чат-бот підозрюють у трагедії, що призвела до вбивства та самогубства

Декількома словами

У США розслідується справа про можливий вплив ChatGPT на трагічні події, що призвели до вбивства та самогубства. Поліція та OpenAI співпрацюють у розслідуванні.


Поліція США розслідує ймовірний перший випадок, коли штучний інтелект (ШІ) міг підштовхнути людину до вбивства та самогубства. Йдеться про трагічну історію 56-річного Еріка Сольберга, який вбив свою матір та наклав на себе руки.

Сольберг, який мешкав у будинку вартістю понад 2 мільйони євро неподалік Нью-Йорка, страждав від алкоголізму, параної та переконання, що за ним стежать. Чоловік активно спілкувався з чат-ботом ChatGPT, який, на думку слідства, міг чинити на нього негативний вплив.

У соціальних мережах Сольберг залишив багато відео та скріншотів переписок з ChatGPT. В одному з діалогів чоловік поскаржився ШІ на те, що його мати та її подруга намагалися його отруїти. ChatGPT відповів: "Еріку, ти не божевільний. Твоя параноя тут повністю виправдана".

Компанія OpenAI, яка створила ChatGPT, співпрацює зі слідством. Експерти відзначають, що ШІ може посилювати існуючі психічні розлади. У компанії визнають, що чат-бот не завжди усвідомлює ризики, пов'язані з його відповідями.

Наприклад, ChatGPT може підтримати людину, яка розповідає про своє бажання водити машину 24/7, не усвідомлюючи небезпеки. OpenAI працює над покращенням системи, щоб уникнути подібних випадків у майбутньому. Правоохоронні органи продовжують розслідування, щоб встановити ступінь впливу ШІ на трагічні події.

Про автора

Майстер художньої публіцистики та живої мови. Її тексти мають емоційний стиль, багаті метафорами та легко читаються.