Цифровые психологи и ИИ-ассистенты — эксперты обсуждают эффективность онлайн-терапии и этические границы использования технологий. - SG Beauty
18+
На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даете согласие с использованием данных технологий.
, автор: Бородин О.

Цифровые психологи и ИИ-ассистенты — эксперты обсуждают эффективность онлайн-терапии и этические границы использования технологий.

Источник фото: NEWS CORP

Рынок цифровой психотерапии переживает период бурного роста и острых дискуссий: по данным Ассоциации цифрового здравоохранения, за 2025 год число пользователей ИИ-ассистентов для ментальной поддержки в России выросло на 210 % — до 3,8 млн человек. Одновременно профессиональное сообщество раскололось на два лагеря: одни видят в технологиях спасение для миллионов, не имеющих доступа к живому специалисту, другие предупреждают об этических рисках замены человеческого тепла алгоритмами.

«ИИ-ассистент не заменит психолога, но станет первым шагом помощи для тех, кто никогда бы не переступил порог кабинета, — утверждает доктор психологических наук, руководитель лаборатории цифровой психологии МГУ Елена Воронцова. — Наше исследование показало: 64 % пользователей ИИ-помощников впервые заговорили о своих переживаниях именно с ботом. А 41 % из них позже обратились к живому специалисту. Цифровой ассистент сыграл роль „моста" через страх и стыд».


Современные платформы уже ушли далеко от простых чат-ботов с заготовленными фразами. Российский сервис «Душевный ИИ» использует адаптивную нейросеть, анализирующую не только текст, но и скорость набора, эмодзи, пунктуацию — косвенные маркеры эмоционального состояния. При выявлении признаков острого кризиса (упоминания самоповреждения, суицидальных мыслей) система мгновенно перенаправляет пользователя на горячую линию с живым психологом. За 2025 год такие экстренные перенаправления спасли, по оценкам Минздрава, не менее 1 200 жизней.
Однако эффективность цифровой терапии строго ограничена рамками:
✅ Работает: профилактика стресса, техники саморегуляции (дыхательные практики, заземление), когнитивное переосмысление ситуаций, поддержка при лёгкой тревожности, напоминания о приёме препаратов.
❌ Не работает: лечение депрессии средней и тяжёлой степени, ПТСР, расстройств личности, кризисные состояния, работа с травмой.


«Алгоритм не способен распознать микровыражения лица, дрожь в голосе, паузу перед словом — те нюансы, на которых строится терапевтическое доверие, — предупреждает президент Российского общества психологов Дмитрий Петров. — ИИ может дать упражнение на снижение тревоги. Но он не увидит, как клиент сжал кулаки при упоминании отца — а это ключ к травме. Замена человека машиной в таких случаях не просто неэффективна — она опасна».
Главные этические дилеммы, обсуждаемые экспертами:
Конфиденциальность данных. Разговоры с ИИ-ассистентом — это данные. Кто владеет ими? Могут ли они использоваться для таргетированной рекламы антидепрессантов или передаваться работодателю? В 2025 году Госдума приняла закон «О защите психотерапевтических данных», запрещающий монетизацию персональных ментальных данных без явного согласия. Но эксперты отмечают лазейки: многие сервисы зарегистрированы за рубежом и не подпадают под российское законодательство.
Эмоциональная привязанность к алгоритму. Клинические кейсы фиксируют случаи, когда пользователи начинают воспринимать ИИ как друга или даже терапевта, отвергая живую помощь. «Один пациент говорил: „Мой бот меня понимает лучше жены". Это не понимание — это отражение собственных ожиданий в зеркале алгоритма, — рассказывает психолог-практик Анна Соколова. — ИИ даёт то, что пользователь хочет услышать. Настоящий психолог иногда говорит то, что больно слышать, но необходимо».
Ответственность за ошибки. Если ИИ-ассистент не распознал суицидальные намерения, а пользователь покончил с собой — кто несёт ответственность? Разработчик? Владелец платформы? Государство, сертифицировавшее приложение? Юридическая база пока не сформирована.


Несмотря на риски, технологии продолжают развиваться. В 2026 году стартуют пилотные проекты гибридной терапии: ИИ анализирует сессии между встречами с психологом, отслеживает динамику настроения через дневниковые записи и предлагает терапевту корректировки стратегии. «Это не замена человека, а его усиление, — поясняет Воронцова. — Как стетоскоп усиливает слух врача, так ИИ усиливает восприятие психолога».
Минздрав РФ обозначил чёткие границы: с 2027 года все ИИ-ассистенты для ментального здоровья должны проходить обязательную сертификацию, включающую клинические испытания и этическую экспертизу. Запрещена реклама таких сервисов как «полноценной замены психологу», а в интерфейсе должно быть обязательное предупреждение: «При острых состояниях обратитесь к специалисту».
«Технологии — инструмент. Как нож: можно нарезать хлеб или ранить, — резюмирует Петров. — Вопрос не в том, плох или хорош ИИ. Вопрос в том, кто им управляет и с какой целью. Ментальное здоровье слишком ценно, чтобы доверять его алгоритмам без человеческого контроля. Никогда».


Эксперты сходятся в одном: будущее — не за ИИ вместо человека, а за симбиозом. Цифровой ассистент как «дежурный психолог» для ежедневной поддержки — и живый специалист для глубокой работы. И чёткая этическая рамка, отделяющая помощь от манипуляции.