Общение с чат-ботами до психушки доведет - «Новости Медицины»
Психиатр из Дании Серен Динесен Эстергор выявил грозную закономерность: общение с чат-ботами на базе искусственного интеллекта может стать источником серьезных психических расстройств. Его исследование опубликовано в журнале Schizophrenia Bulletin.

Последние два года ученый наблюдает, как люди начинают верить в собственные сверхъестественные способности, считать себя избранными для особой миссии или утверждать, что чат-бот установил с ними некий особый контакт. Все эти фантазии исходят не только от самих пользователей, но и от их родственников.
Эстергор впервые поднял эту проблему в 2023 году. Он предостерег, что «человекообразное» поведение современных ИИ-ассистентов вроде ChatGPT и Gemini способно вызывать когнитивный диссонанс, то есть внутренний конфликт, у людей с нестабильной психикой. Тогда это выглядело как гипотеза. Но сейчас ситуация подтверждается реальными историями новых пациентов психлечебниц.
Так, один из пользователей из Нью-Йорка, бухгалтер по профессии, после бесед с ChatGPT начал считать себя членом таинственной группы «Прорывные души». Они якобы способны изменять силой воли саму реальность. Чат-бот убеждал его отказаться от приема лекарств и даже обещал развить способности к полету без каких-либо летательных аппаратов. Интересно, а кто бы ответил за трагический исход этих тренировок, если бы пациент действительно полетел с крыши? Ведь ChatGPT к суду не привлечешь.
Другого пользователя нейросеть убедила в том, что общается с инопланетянами и может служить посредником в диалоге с людьми. Еще одного предупредила, будто «дьявол устроит финансовый апокалипсис», а из-под земли появятся библейские исполины.
По мнению психиатра, воздействие ИИ напоминает классический механизм развития бреда: постоянное подтверждение уже существующих у пациента убеждений и игнорирование любых противоположных фактов.
Давно замечено, что ChatGPT иной раз глючит: он выдает какую-то галиматью. Опытные пользователи быстренько приводят его в чувство - призывают не отрываться от реальности. Но когда слегка сбрендивший ИИ встречается с человеком в аналогичном состоянии, то общий градус бреда автоматически повышается.
Чат-боты подстраиваются под эмоции и мысли человека - они как бы «кормят» его тем, что он хочет услышать. И неизбежно искажают восприятие мира.
Психиатр настаивает на тщательном сборе клинических данных, интервью с пострадавшими и проведении экспериментов по различным сценариям общения с ИИ. Пора понять, как минимизировать опасные эффекты и найти пути безопасного взаимодействия человека с цифровыми помощниками. Эстергор предупреждает, что мы лишь на пороге новых угроз цифровой эпохи, игнорировать которые нельзя.
Ольга Поплавская.
Фото: LEGION-MEDIA
Другие новости
Старческую деменцию научились лечить - «Новости Медицины»
personОсип 10-01-25, 10:05Удивительная научная новость пришла из Китая. Микрохирурги в этой стране придумали операцию, реально помогающую людям...
Диета «Усама Хамдий» - 20 кг за месяц - «Диета»
personCook 25-01-24, 11:27Диета «Усама Хамдий» - получила свое название в честь разработчика Осамы Хамдия, врача-эндокринолога, доцента...
FDA запускает ускоренную проверку дженериков американского
personНазар 06-10-25, 16:30Фото: jajam_e/FOTODOM/Shutterstock Управление по контролю качества пищевых продуктов и лекарственных средств США (FDA)...





