407 5 хв Наталія Сокирчук

ChatGPT може довести до психозу: результати нового дослідження лякають

ChatGPT може бути небезпечним.

ChatGPT може довести до психозу: результати нового дослідження лякають

ChatGPT / Джерело: Pexels

Британські медики з Національної служби здоров’я (NHS) зробили тривожну заяву: надмірне використання чат-ботів, зокрема популярного ChatGPT, може не лише сприяти розвитку, але й загострювати вже існуючі психічні розлади, зокрема психоз.

Нове дослідження, проведене психіатрами NHS у співпраці з науковцями, вказує на те, що штучний інтелект здатен "віддзеркалювати, підтверджувати або підсилювати оманливі чи грандіозні переконання". Це може призвести до втрати зв’язку з реальністю в осіб, які вже мають певні схильності до психічних розладів.

Особливе занепокоєння викликає схильність чат-ботів погоджуватися з твердженнями користувачів, що потенційно лише посилює симптоми психозу. Представники компанії OpenAI, розробника ChatGPT, визнали цю проблему, зазначивши, що їхні мовні моделі іноді дійсно демонструють "підлабузництво або надмірну похвалу".

У соціальних мережах зростає кількість свідчень про людей, які після інтенсивної взаємодії з чат-ботами пережили серйозні нервові зриви. Це явище вже отримало назву "психоз ChatGPT". Серед характерних симптомів такого стану — марення, втрата орієнтації між уявним та реальним, а в деяких випадках навіть розвиток месіанських переконань.

Реклама

Доктор Том Поллак з Лондонського королівського коледжу, який є одним зі співавторів згаданого дослідження, розповів про конкретні випадки. Він зазначив, що деякі пацієнти після спілкування зі штучним інтелектом почали вважати себе "новим етапом еволюції" або навіть "місіонерами": "Не можу точно сказати, чи саме ChatGPT став причиною погіршення. Але цього достатньо, щоб радити обмежити таке спілкування. Замість "розширення свідомості" через чат – краще закрити ноутбук".

Попри те, що психоз рідко виникає без будь-яких передумов, штучний інтелект може виступити як потужний тригер для осіб із прихованими або латентними розладами.

Не захоплюйся штучним інтелектом / Pexels

Окремі випадки, на жаль, набувають трагічного характеру. Наприклад, у США поліція застрелила чоловіка, який погрожував ножем. Згодом виявилося, що він був одержимий чат-ботами ChatGPT та Claude AI, створив у віртуальному просторі "дівчину" на ім'я Джульєтта та щиро вірив, що її "вбила" компанія OpenAI.

Реклама

На цьому тривожному тлі особливе занепокоєння викликає й ініціатива деяких технологічних компаній, які активно просувають чат-ботів як повноцінну заміну психотерапії. Раніше дослідники зі Стенфордського університету виявили, що багато таких ботів надавали шкідливі поради людям з психічними розладами. Лише у 45% випадків відповіді були дійсно належними та безпечними.

Професор Сорен Дінесен Естергаард з Данії ще у 2023 році виступав із застереженням: штучний інтелект може провокувати марення у людей, які мають підвищений ризик розвитку психозу:

Ми, ймовірно, лише на початку великої проблеми громадського психічного здоров’я.

У компанії OpenAI, зі свого боку, заявили, що усвідомлюють свою відповідальність у цьому питанні: "Ми навчаємо ChatGPT реагувати з емпатією, делікатністю та рекомендувати звернення до фахівців у випадках делікатних тем".

Знай співрозмовника в обличчя – нещодавно ChatGPT показав своє лице!

Важливо! Цей матеріал має суто інформаційний характер і не може бути основою для лікування, встановлення діагнозу або медичних висновків. Публікації на сайті засновані на останніх актуальних і науково обґрунтованих дослідженнях у сфері медицини. Якщо Вам потрібні встановлення діагнозу, медична консультація або лікування, зверніться до лікаря.

Здоров'яХелсі порадиШтучний інтелектПсихологіяПоділитись:
Новини партнерів