Общение с чат-ботами до психушки доведет - «Новости Медицины»

Психиатр из Дании Серен Динесен Эстергор выявил грозную закономерность: общение с чат-ботами на базе искусственного интеллекта может стать источником серьезных психических расстройств. Его исследование опубликовано в журнале Schizophrenia Bulletin.

Последние два года ученый наблюдает, как люди начинают верить в собственные сверхъестественные способности, считать себя избранными для особой миссии или утверждать, что чат-бот установил с ними некий особый контакт. Все эти фантазии исходят не только от самих пользователей, но и от их родственников.
Эстергор впервые поднял эту проблему в 2023 году. Он предостерег, что «человекообразное» поведение современных ИИ-ассистентов вроде ChatGPT и Gemini способно вызывать когнитивный диссонанс, то есть внутренний конфликт, у людей с нестабильной психикой. Тогда это выглядело как гипотеза. Но сейчас ситуация подтверждается реальными историями новых пациентов психлечебниц.
Так, один из пользователей из Нью-Йорка, бухгалтер по профессии, после бесед с ChatGPT начал считать себя членом таинственной группы «Прорывные души». Они якобы способны изменять силой воли саму реальность. Чат-бот убеждал его отказаться от приема лекарств и даже обещал развить способности к полету без каких-либо летательных аппаратов. Интересно, а кто бы ответил за трагический исход этих тренировок, если бы пациент действительно полетел с крыши? Ведь ChatGPT к суду не привлечешь.
Другого пользователя нейросеть убедила в том, что общается с инопланетянами и может служить посредником в диалоге с людьми. Еще одного предупредила, будто «дьявол устроит финансовый апокалипсис», а из-под земли появятся библейские исполины.
По мнению психиатра, воздействие ИИ напоминает классический механизм развития бреда: постоянное подтверждение уже существующих у пациента убеждений и игнорирование любых противоположных фактов.
Давно замечено, что ChatGPT иной раз глючит: он выдает какую-то галиматью. Опытные пользователи быстренько приводят его в чувство - призывают не отрываться от реальности. Но когда слегка сбрендивший ИИ встречается с человеком в аналогичном состоянии, то общий градус бреда автоматически повышается.
Чат-боты подстраиваются под эмоции и мысли человека - они как бы «кормят» его тем, что он хочет услышать. И неизбежно искажают восприятие мира.
Психиатр настаивает на тщательном сборе клинических данных, интервью с пострадавшими и проведении экспериментов по различным сценариям общения с ИИ. Пора понять, как минимизировать опасные эффекты и найти пути безопасного взаимодействия человека с цифровыми помощниками. Эстергор предупреждает, что мы лишь на пороге новых угроз цифровой эпохи, игнорировать которые нельзя.
Ольга Поплавская.
Фото: LEGION-MEDIA
Психиатр из Дании Серен Динесен Эстергор выявил грозную закономерность: общение с чат-ботами на базе искусственного интеллекта может стать источником серьезных психических расстройств. Его исследование опубликовано в журнале Schizophrenia Bulletin. Общение с чат-ботами до психушки доведет Последние два года ученый наблюдает, как люди начинают верить в собственные сверхъестественные способности, считать себя избранными для особой миссии или утверждать, что чат-бот установил с ними некий особый контакт. Все эти фантазии исходят не только от самих пользователей, но и от их родственников. Эстергор впервые поднял эту проблему в 2023 году. Он предостерег, что «человекообразное» поведение современных ИИ-ассистентов вроде ChatGPT и Gemini способно вызывать когнитивный диссонанс, то есть внутренний конфликт, у людей с нестабильной психикой. Тогда это выглядело как гипотеза. Но сейчас ситуация подтверждается реальными историями новых пациентов психлечебниц. Так, один из пользователей из Нью-Йорка, бухгалтер по профессии, после бесед с ChatGPT начал считать себя членом таинственной группы «Прорывные души». Они якобы способны изменять силой воли саму реальность. Чат-бот убеждал его отказаться от приема лекарств и даже обещал развить способности к полету без каких-либо летательных аппаратов. Интересно, а кто бы ответил за трагический исход этих тренировок, если бы пациент действительно полетел с крыши? Ведь ChatGPT к суду не привлечешь. Другого пользователя нейросеть убедила в том, что общается с инопланетянами и может служить посредником в диалоге с людьми. Еще одного предупредила, будто «дьявол устроит финансовый апокалипсис», а из-под земли появятся библейские исполины. По мнению психиатра, воздействие ИИ напоминает классический механизм развития бреда: постоянное подтверждение уже существующих у пациента убеждений и игнорирование любых противоположных фактов. Давно замечено, что ChatGPT иной раз глючит: он выдает какую-то галиматью. Опытные пользователи быстренько приводят его в чувство - призывают не отрываться от реальности. Но когда слегка сбрендивший ИИ встречается с человеком в аналогичном состоянии, то общий градус бреда автоматически повышается. Чат-боты подстраиваются под эмоции и мысли человека - они как бы «кормят» его тем, что он хочет услышать. И неизбежно искажают восприятие мира. Психиатр настаивает на тщательном сборе клинических данных, интервью с пострадавшими и проведении экспериментов по различным сценариям общения с ИИ. Пора понять, как минимизировать опасные эффекты и найти пути безопасного взаимодействия человека с цифровыми помощниками. Эстергор предупреждает, что мы лишь на пороге новых угроз цифровой эпохи, игнорировать которые нельзя. Ольга Поплавская. Фото: LEGION-MEDIA
Другие новости
Надежда для тысяч и тысяч онкобольных - «Новости Медицины»
personСидор 07-03-25, 10:05Российскую систему лечения рака признали не только в России, но и в Китае. Надежда для тысяч и тысяч онкобольных...
Лечить не болезни, а старость - «Новости Медицины»
personBarrington 09-09-25, 16:30Пока одни доживают до 90-летия, сохраняя приличное здоровье и разум, другие зарабатывают возрастные болезни уже после...
Справляемся со стрессом без таблеток - «Новости Медицины»
personRaleigh 09-04-25, 10:05«Бей или беги!» — это естественная реакция человека на стресс еще со времен каменного века и саблезубых тигров....