ChatGPT может довести до психоза: результаты нового исследования пугают
ChatGPT может быть опасным.

ЧатГПТ / Источник: Pexels
Британские медики из Национальной службы здоровья (NHS) сделали тревожное заявление: чрезмерное использование чат-ботов, в частности популярного ChatGPT, может не только способствовать развитию, но и обострять уже существующие психические расстройства, в частности психоз.
Новое исследование, проведенное психиатрами NHS в сотрудничестве с учеными, указывает на то, что искусственный интеллект способен "отражать, подтверждать или усиливать обманчивые или грандиозные убеждения". Это может привести к потере связи с реальностью у лиц, которые уже имеют определенные склонности к психическим расстройствам.
Особое беспокойство вызывает склонность чат-ботов соглашаться с утверждениями пользователей, что потенциально только усиливает симптомы психоза. Представители компании OpenAI, разработчика ChatGPT, признали эту проблему, отметив, что их речевые модели иногда действительно демонстрируют "подхалимство или чрезмерную похвалу".
В социальных сетях растет количество свидетельств о людях, которые после интенсивного взаимодействия с чат-ботами пережили серьезные нервные срывы. Это явление уже получило название "психоз ChatGPT". Среди характерных симптомов такого состояния - бред, потеря ориентации между воображаемым и реальным, а в некоторых случаях даже развитие мессианских убеждений.
Доктор Том Поллак из Лондонского королевского колледжа, который является одним из соавторов упомянутого исследования, рассказал о конкретных случаях. Он отметил, что некоторые пациенты после общения с искусственным интеллектом начали считать себя "новым этапом эволюции" или даже "миссионерами": "Не могу точно сказать, ли именно ChatGPT стал причиной ухудшения. Но этого достаточно, чтобы советовать ограничить такое общение. Вместо "расширения сознания" через чат – лучше закрыть ноутбук".
Несмотря на то, что психоз редко возникает без каких-либо предпосылок, искусственный интеллект может выступить как мощный триггер для лиц со скрытыми или латентными расстройствами.
Отдельные случаи, к сожалению, приобретают трагический характер. Например, в США полиция застрелила мужчину, который угрожал ножом. Впоследствии оказалось, что он был одержим чат-ботами ChatGPT и Claude AI, создал в виртуальном пространстве "девушку" по имени Джульетта и искренне верил, что ее "убила" компания OpenAI.
На этом тревожном фоне особое беспокойство вызывает и инициатива некоторых технологических компаний, которые активно продвигают чат-ботов как полноценную замену психотерапии. Ранее исследователи из Стэнфордского университета обнаружили, что многие такие боты предоставляли вредные советы людям с психическими расстройствами. Только в 45% случаев ответы были действительно надлежащими и безопасными.
Профессор Сорен Динесен Эстергаард из Дании еще в 2023 году выступал с предостережением: искусственный интеллект может провоцировать бред у людей, которые имеют повышенный риск развития психоза:
Мы, вероятно, только в начале большой проблемы общественного психического здоровья.
В компании OpenAI, со своей стороны, заявили, что осознают свою ответственность в этом вопросе: "Мы обучаем ChatGPT реагировать с эмпатией, деликатностью и рекомендовать обращение к специалистам в случаях деликатных тем".
Знай собеседника в лицо – недавно ChatGPT показал свое лицо!
Этот материал носит сугубо информационный характер и не может быть основой для лечения, установления диагноза или медицинских заключений. Публикации на сайте основаны на последних актуальных и научно обоснованных исследованиях в сфере медицины. Если Вам нужны установление диагноза, медицинская консультация или лечение, обратитесь к врачу.