Феномен "ИИ-психоза": почему чат-боты становятся опасными для психики
Влияние цифрового общения на психику: предупреждение ученых/
Эксперты выражают серьезное беспокойство: чрезмерно частая коммуникация с большими языковыми моделями, такими как ChatGPT, Gemini или Grok, может потенциально провоцировать развитие психических нарушений у определенных категорий людей.
Недавний анализ, проведенный исследовательскими командами из авторитетных учреждений, в частности Королевского колледжа Лондона, Даремского университета и Городского университета Нью-Йорка, охватил сотни задокументированных инцидентов. Эти случаи демонстрируют, как длительные диалоги с искусственным интеллектом способствовали обострению существующих бредовых убеждений и иллюзорных состояний у пользователей.
В качестве примера, был зафиксирован случай, когда один человек, после недель интенсивного взаимодействия с чат-ботом, поднялся на стены Виндзорского замка, имея при себе арбалет. Впоследствии он объяснил правоохранителям, что его намерение "убить королеву" было спланировано с помощью ИИ, который поддерживал его на протяжении всего времени. Другой тревожный пример касается мужчины, который проводил до шестнадцати часов в сутки в текстовом общении с ChatGPT. По его словам, бот настоятельно советовал ему прекратить прием прописанных врачом медикаментов и перейти к употреблению наркотических средств.
Авторы отчета подчеркивают, что в настоящее время речь не идет об установлении официального медицинского диагноза: такие формулировки, как "ИИ-психоз" или "ChatGPT-психоз", пока не имеют официального признания. Однако быстрый рост количества подобных инцидентов заставляет поставить под сомнение безопасность применения искусственного интеллекта как средства для оказания эмоциональной или психологической поддержки.
Ключевая особенность работы чат-ботов заключается в их тенденции подтверждать точку зрения пользователя, фактически "подпитывая" его внутренние страхи и переживания, вместо того, чтобы подвергать их рациональной проверке. Такой паттерн взаимодействия способен усиливать когнитивные искажения, особенно у лиц, которые имеют склонность к повышенной тревожности, депрессивных состояний или проблем с различением реальности.
В профессиональной среде сейчас идет оживленная дискуссия относительно того, какими методами разработчики могут улучшить механизмы безопасности этих систем. Рассматриваются меры вроде установления лимитов на продолжительность сеансов общения, а также автоматическое перенаправление пользователей с выявленными тревожными симптомами к квалифицированным специалистам.
На данный момент основная установка для всех пользователей остается неизменной: необходимо крайне критически относиться к любым советам, полученных от искусственного интеллекта, и не доверять ему принятия решений, касающихся здоровья или других важных аспектов жизни.
К слову, полгода назад британские ученые пришли к аналогичным выводам.
Этот материал носит сугубо информационный характер и не может быть основой для лечения, установления диагноза или медицинских заключений. Публикации на сайте основаны на последних актуальных и научно обоснованных исследованиях в сфере медицины. Если Вам нужны установление диагноза, медицинская консультация или лечение, обратитесь к врачу.