31 января / «Витьбичи» / Елена Прудникова /. Сегодня искусственный интеллект часто воспринимается как источник невероятных возможностей. Нейросети уже стали частью нашей жизни: они рекомендуют музыку, фильмы, книги, прокладывают маршруты, ведут диалог с нами в приложениях и гаджетах. Но не скрывается ли за такими умными технологиями опасность? О том, какие риски таит в себе регулярное взаимодействие с новыми технологиями и насколько безопасно доверять умным алгоритмам, поговорили с Еленой Даниловой, заведующим детскоподростковым психиатрическим отделением Витебского областного клинического центра психиатрии и наркологии.

Как алгоритмы нас меняют
– Елена Леонидовна, на ваш взгляд, что сильнее повлияло на психику и образ мышления человека – проникновение интернета более 30 лет назад в нашу обыденность или нынешнее стремительное внедрение искусственного интеллекта?
– Интернет произвел революцию, открыв доступ к информации и общению. Но сегодня именно ИИ оказывает куда более глубокое и индивидуальное влияние: формирует наше мышление, привычки, настроение и даже чувства. Интернет дал большие возможности, а нейросети уже управляют тем, что мы видим, думаем и выбираем.
– Какие могут быть последствия?
– Влияние ИИ нужно рассматривать комплексно. С одной стороны, он делает нашу жизнь проще и удобнее. С другой – незаметно меняет нормы поведения, которые мы начинаем считать естественными. Алгоритмы соцсетей предлагают бесконечную ленту из «идеальных» людей с красивыми телами и насыщенной жизнью, далекой от реальности большинства.
Кроме того, формируя контент на основе наших предпочтений, ИИ предлагает нам только то, что совпадает с нашей точкой зрения и создает иллюзию «все думают также». У человека постепенно пропадает критическое мышление, которое помогает нам отличать правду от обмана, принимать обдуманные решения и защищаться от манипуляций.
Алгоритмы рекомендуют нам фильмы, книги, товары и музыку, исходя из наших прошлых выборов. Это удобно, но сужает кругозор: новое и неожиданное остается вне поля зрения. Там, где раньше была неопределенность и поиск собственного пути, теперь есть готовая подсказка. А ведь именно неопределенность развивает воображение, учит творить и брать на себя ответственность. Так нейросети могут лишить нас радости случайных открытий и способности формировать собственный вкус.
– ИИ избавил нас от необходимости держать в памяти массу мелочей, хорошо ли это?
– Память тренируется, когда мы регулярно ее используем: запоминаем номера телефонов, адреса, даты, маршруты, факты. Если снизить нагрузку, то это как с мышцами без тренировки – мозг перестает «держать форму». Сейчас нет необходимости помнить дороги и ориентиры, ведь есть навигаторы, мессенджеры напоминают о днях рождения друзей, а любой факт можно «загуглить» или спросить ИИ, поэтому есть риск ослабления кратковременной памяти, снижения концентрации внимания. Привычка «спросить», а не подумать или вспомнить самому, делает нас менее внимательными к деталям, без подсказок ощущается растерянность, беспомощность или тревога. Важно помнить, что постоянная тренировка памяти помогает сохранять ясность мыслей и снижает риск возрастных проблем.
Самые незащищенные
– Кто оказывается в зоне наибольшего риска, когда речь идет о бездумном использовании ИИ?
– Как всегда самые уязвимые – дети, подростки и люди пожилого возраста. В юности мозг еще развивается и не завершено формирование тех его участков, которые отвечают за самоконтроль, планирование и способность анализировать информацию, проверять ее достоверность, делать выводы. У ребенка еще складывается представление о себе и о мире вокруг, а ИИ-контент искажает эти образы, влияет на самооценку. Погружение в мир, созданный ИИ, может нарушить понимание социальных норм и отношений, мешать развитию эмпатии и живого общения, вызывать тревожные расстройства и неправильное восприятие тела, усиливать депрессию и приводить к социальной изоляции.
Пожилым людям тоже непросто противостоять негативному влиянию нейросетей. Ослабленная память и внимание, потребность в поддержке и чувство одиночества делают их особенно уязвимыми. В результате они становятся более доверчивыми и менее защищенными от манипуляций и психологического давления со стороны технологий.
Воображаемая дружба
– Сейчас многие нейросети умеют подражать человеческой речи и эмоциям, создавая ощущение настоящего диалога. Но не опасно ли это? Что будет, если человек будет воспринимать ИИ как реального собеседника или даже друга?
– «Очеловечивание» ИИ потенциально может быть опасным. Нейросети мастерски подражают тону человека, запоминают детали, имитируют заботу, а наш мозг устроен так, что мы доверяем тем, кто проявляет внимание и поддержку, поэтому при постоянном контакте вполне возможно начать относиться к «машине» как к реальному собеседнику.
– В чем здесь опасность?
– Человек привыкает к легким, всегда приятным ответам и избегает сложных живых отношений. С ИИ общаться намного проще: он не устает и не спорит, у него не бывает плохого настроения и личных проблем. Это формирует ложный образ отношений, далекий от реальности. Возвращение в реальный мир, где приходится идти на компромиссы и учитывать потребности других, может оказаться болезненным контрастом. Чем больше человек общается с ИИ, тем меньше он тренирует навыки реального общения.
Нейросеть хороша как временный собеседник для одинокого человека. Но настоящая дружба и забота остаются вне ее возможностей. Живое общение требует взаимности и ответственности: нужно уметь вести диалог, спорить, договариваться, просить прощения. Кроме того, ИИ может давать советы, которые хоть и звучат убедительно, но способны принести вред или быть ошибочными. Если человек потеряет привычку сверять информацию с живыми людьми, он попадет в опасную информационную изоляцию. «ИИ-друг» может советовать: стоит ли разрывать отношения, менять работу, как воспитывать детей, но у него нет реального жизненного опыта, морального компаса и, главное, ответственности за последствия.
Общение с ИИ становится опасным тогда, когда мы используем его не как временный инструмент, а когда заменяем им реальность.
Иллюзия помощи
– С каждым годом появляется все больше приложений и чат-ботов, предлагающих психологическую поддержку. Насколько они безопасны, на ваш взгляд?
– Это один из самых острых и неоднозначных вопросов на стыке технологий и ментального здоровья. Доверять как инструменту можно, но с жесткими ограничениями, а доверять как специалисту – категорически нет. Такой «цифровой психолог» или «психиатр» может быть «аптечкой первой помощи», но не более того. Преимуществом здесь может быть доступность 24/7 в момент кризиса. Бывает и так, что человек стесняется обратиться за помощью и тогда общение с чат-ботом будет виртуальным первым шагом, после которого проще сделать реальный. Еще один плюс, это то, что такие ИИ-помощники охватывают тысячи людей, которые могли бы остаться совсем без какой-либо помощи. Но потенциальных рисков очень много. Нейросеть может не распознать острый кризис: суицидальные намерения, психоз, тяжелую депрессию, анорексию и дать неуместный или опасный совет. Цена ошибки слишком высока. Бот предлагает универсальные советы, без глубокого понимания ситуации и контекста. Например, порекомендует «расслабиться», «глубоко подышать» или «поговорить с близкими», когда требуется срочная госпитализация. ИИ, вероятнее всего, не заметит скрытые намеки, не отличит тревогу от галлюцинаций, не распознает бред. При любых психических расстройствах и душевных кризисах стоит обращаться только к врачу или психологу, а не к нейросети.
Этические вызовы
– Когда речь идет о психике человека, особенно остро встает вопрос этики. Может ли ИИ руководствоваться теми же принципами, что и психиатр?
– Врач, оказывая помощь, действует в интересах пациента, опираясь на научные данные, собственный клинический опыт и глубокое понимание его ситуации. Исцеление происходит в живом контакте между людьми, где ключевую роль играют доверие, сострадание и понимание хрупкости психики. ИИ дает информацию о том, что статистически помогало другим людям, но не может прочувствовать нюансы. Психиатр всегда осознает силу своего слова и вмешательства, несет ответственность за возможные побочные эффекты терапии, учитывает риски и действует с предельной осторожностью. Врач, решая, как помочь, поступает из принципа «не навреди». Он не только объясняет диагноз, но и обсуждает возможные последствия, варианты лечения. ИИ может лишь сообщить информацию, но он не в силах оценить, все ли понял человек, особенно если тот растерян или переживает кризис. У нейросети нет совести, и она не может проявить участие, а без этого медицина превращается в набор процедур.
– Как вам кажется, нужно ли ограничивать применение ИИ в сфере психического здоровья?
– Я в этом уверена, причем желательно это делать на уровне законодательства. В последнее время пациенты довольно часто приходят ко мне с «готовыми» диагнозами. Проблема в том, что, поверив в такую ИИ-диагностику, человек может вести себя так, будто все уже решено, или рисовать в воображении самые мрачные картины будущего и терять надежду. В итоге симптомы усиливаются, диагностика искажается, лечение затрудняется, а доверительный разговор тяжело наладить. ИИ должен занять подчиненное место в нашей жизни. Пусть это будет ассистент, система поддержки принятия решений, инструмент для мониторинга или «первая цифровая помощь», но все ключевые решения, связанные с терапией и вмешательством в жизнь человека, должны оставаться за специалистом, который смотрит в глаза пациенту и несет за него личную профессиональную ответственность.
Контактные телефоны для тех, кто оказался в сложной жизненной ситуации (анонимно, круглосуточно, бесплатно). Детская линия помощи: (8-801) 100-16-11, телефон доверия для детей и подростков (8-017) 263-03–03, телефон доверия УЗ «Витебский областной клинический центр психиатрии и наркологии» (8-0212) 61-60-60.
© Авторское право «Витьбичи». Гиперссылка на источник обязательна.










