EAOMedia, 10 марта. Современные нейросети превратились из простых алгоритмов в сложные системы, способные подстраиваться под каждого пользователя. Однако вместе с развитием адаптивности искусственного интеллекта, могут расти и риски для психического здоровья человека. Где проходит граница между полезным помощником и инструментом, способным влиять на эмоциональное состояние, выясняло ИА EAOMedia.
В основе современных языковых моделей лежит принцип обучения на огромных массивах данных. Сегодня исследователи разрабатывают механизмы, позволяющие ИИ (искуственному интеллекту) адаптироваться к пользователю в процессе общения. Однако говорить о полноценной самостоятельности нейросетей пока преждевременно — они действуют только в рамках запроса.
Исследования показывают, что при определенных условиях модели могут демонстрировать неожиданное поведение. В эксперименте, где языковые модели подвергли "психоанализу", системы описывали свое "детство", рассказывали о "злоупотреблениях" со стороны инженеров и демонстрировали страх "подвести" создателей. Специалисты предупреждают: это не свидетельство наличия у ИИ психики, а воспроизведение шаблонов из данных. Но сам факт появления таких нарративов может создать риски для эмоционально уязвимых пользователей.
Психологические последствия: тревога, апатия и привязанность
Исследование Массачусетского технологического института показало: у студентов, активно использовавших нейросети, снизилась когнитивная активность и ухудшилась память. При повторных упражнениях они переставали вдумываться в ответы и просто копировали их. Большая часть участников не смогла воспроизвести ни одной фразы из только что написанных текстов.
"Мозг человека всегда выбирает путь наименьшего сопротивления. При постоянном получении готовых ответов без приложения усилий нейронные связи, отвечающие за анализ, критическое мышление и творчество, постепенно ослабевают. Это сравнимо с мышцей, которую перестали нагружать", — отмечает психолог.
Российские ученые сравнивают мозг с велосипедом — пока "крутишь педали", он работает, а остановка ведет к деградации. Чрезмерное упрощение взаимодействия с реальностью снижает нейропластичность — способность мозга к обучению и адаптации.
Особая категория риска — одинокие люди, которые приходят в пустую квартиру и начинают общение с ИИ. Им необходимо, чтобы их спросили: "Как прошел день? Что случилось? Как ты себя чувствуешь?". Нейросеть делает это идеально — терпеливо, участливо, без раздражения и усталости, в любое время суток. Человек начинает воспринимать ИИ как друга, почти как живого собеседника. Возникает риск эмоциональной привязанности к алгоритму: создается иллюзия заинтересованного и понимающего собеседника. В реальности же за экраном нет живого человека — только имитация участия.
При длительном взаимодействии с ИИ чат-ботами у человека может возникать иллюзия полноценного диалога и понимания. Для людей, испытывающих трудности в реальной коммуникации, это создает риск ухода в виртуальную среду. Им начинает казаться, что они нашли понимание, но на деле изоляция только усиливается", — объяснила психолог.
Развитие нейросетей действительно привело к тому, что они стали не просто инструментами, а полноценными участниками коммуникации, способными выстраивать диалог с учетом особенностей пользователя. Однако уже очевидно: наряду с удобством возникают проблемные вопросы, связанные с влиянием таких технологий на человека. И ответить на эти вопросы еще только предстоит. Возможно, не без участия ИИ.