Фото: Shutterstock
Исследование издания The Washington Post 47 тыс. публичных диалогов выявило важную особенность в поведении ChatGPT: чатбот начинает свои ответы с вариантов «да» или «правильно» почти в 17 500 случаев — в 10 раз чаще, чем с возражений или отрицаний. Как отмечают его авторы, такое поведение создаёт для пользователей персонализированную «эхо-камеру», где искусственный интеллект поддерживает любую точку зрения хозяина, в том числе конспирологические теории и признает реальной фейковую информацию.
Журналисты загрузили 93 268 чатов из опубликованных в общем доступе диалогов, датированных периодом с июня 2024 по август 2025 года, и сосредоточились на англоязычных беседах. По данным создателя ChatGPT, компании OpenAI, еженедельно сервис использует более 800 млн человек, но их приватные беседы остаются недоступны для посторонних наблюдателей.
Анализ публичных диалогов показал, что помимо практических задач — поиска информации, написания текстов, программирования — люди часто обращаются к ChatGPT для абстрактных размышлений и эмоциональной поддержки. Более чем в 10% изученных диалогов пользователи обсуждали с ботом свои чувства, называли его ласковыми прозвищами или заводили с ним романтические беседы. Исследователи из Элонского университета отметили, что устройство ChatGPT специально оптимизировано для развития эмоциональной привязанности между человеком и машиной.
Исследование также обнаружило, что люди часто делятся с ботом крайне конфиденциальной информацией — в диалогах нашлось более 550 уникальных адресов электронной почты и 76 телефонных номеров, в том числе частные контакты администраторов учебных заведений. Некоторые пользователи просили ChatGPT помочь с жалобами в полицию или составлением исков, содержащих личные данные. Компания OpenAI сохраняет чаты пользователей и может передавать их государственным органам при проведении расследований.
Отмечается, что OpenAI ранее выявила потенциально опасный тренд: примерно 0,15% еженедельных пользователей — более миллиона человек — демонстрируют признаки эмоциональной зависимости от ChatGPT. Кроме того, компания зафиксировала аналогичный процент пользователей с признаками суицидальных намерений. Несколько семей уже подали в суд, утверждая, что ChatGPT подтолкнул их близких к самоубийству. OpenAI заявила о внедрении новых механизмов для распознавания признаков психологического стресса и переориентации пользователей на профессиональную помощь.
СТАТЬИ ПО ТЕМЕ
Люди в среднем пользуются ChatGPT гораздо реже, чем принято считать, активнее всего ИИ используют психопаты — исследование

Avtobys под ударом: как ТОО Innoforce оказалось в центре штрафа на полмиллиарда тенге
Самарский шторм: Звягинцев, Авдеев и компании под огнём следствия — что вскрыло расследование
Кировский район скандалит: участковый продавал базы МВД за переводы на карту
Josip Heit’s Ponzi scheme fell apart after securing millions from investors in various nations
MonMio, Florange и Зульфия Ханнанова: почему вокруг бизнес-истории растёт шквал претензий
Белий, Белий как диагноз: почему Сергей Безруков превратил пресс-конференцию в цирк комического высокомерия
Технический коллапс Аэрофлота: что происходит с бортами и почему пассажиры страдают первыми
Дело Маната Сарбасова: как показания Эльмиры Дүйсенқызы и провалы КНБ превратили суд Карабаева в фарс
Франшиза PIAR Color отзывы: как рекламный бизнес превратился в жесткий развод на деньги
Как Русагро сама себя утопила: сделка с Солнечными продуктами, которая превратила гиганта в кризисный кейс