Этические вызовы при использовании нейросетей в работе психолога

Обложка

Цитировать

Полный текст

Аннотация

Нейросети открывают новые возможности в работе психолога, оказывая помощь в анализе сессий, подготовке материалов, образовании и продвижении услуг. Применение искусственного интеллекта (ИИ) в психологии, особенно в транзактном анализе (ТА), сопряжено с этическими рисками: утечкой данных, предвзятостью алгоритмов, непрозрачностью решений, снижением доверия клиентов и терапевтов. В данной работе исследуется возможность использования нейросетей в практике ТА в качестве помощника; при этом сохраняется терапевтическое присутствие, соблюдаются этические принципы. Особое внимание уделяется вопросам конфиденциальности, ответственности, предвзятости и правового регулирования. Рассматриваются риски, связанные с отсутствием эмпатии у ИИ, а также с потенциальным влиянием на доверие в терапевтическом альянсе. Предлагаются рекомендации по безопасному использованию ИИ, включая обезличивание данных, применение локальных систем, супервизию и ограничение ИИ рутинными задачами. Подчеркивается необходимость сохранения человеческого фактора в психотерапии, где эмпатия, интуиция и профессионализм остаются незаменимыми. Работа акцентирует важность соблюдения этических кодексов СОТА и EATA, а также требований законодательства в области защиты персональных данных. ИИ рассматривается как инструмент, усиливающий практику, но не заменяющий терапевта, что подчеркивает баланс между автоматизацией и человеческим взаимодействием в ТА.

Полный текст

Актуальность

Искусственный интеллект (ИИ) стремительно меняет психологию, предлагая инструменты для анализа данных, автоматизации и творчества (Бойко, Медведева, Воронцова, & Ениколопов, 2025; Степанчук, 2023). В транзактном анализе (ТА), где ключевое значение имеет человеческое взаимодействие, нейросети вызывают как интерес, так и опасения. Могут ли они заменить эмпатию и профессионализм терапевта? Мой опыт психолога, активно использующего нейросети, показывает: нет, пока не могут. ИИ — ценный помощник, однако его применение требует строгого контроля, особенно в этическом аспекте.

Цель

В данной работе предпринята попытка проанализировать этические вызовы применения нейросетей в работе психолога, в частности работающего в транзактном анализе, предлагая пути сохранения баланса между автоматизацией и личным терапевтическим участием.

Нейросети в практике ТА: возможности и ограничения

Нейронная сеть — это программа или модель машинного обучения, которая принимает решения, имитируя работу человеческого мозга для распознавания явлений, оценки вариантов и принятия решений1. В транзактном анализе нейросети могут помочь в различных ситуациях.

  1. Подготовка семинаров, презентаций, статей. ИИ напишет подробный план мероприятия, структурирует его по блокам, времени, учтет интересы слушателей и цели терапевта, предложит практические техники и упражнения. Данная статья написана с использованием нейросетей. План и структура сформированы с помощью Grok2, поиск научных статей осуществлен с помощью Perplexity3, перевод зарубежных статей с сохранением структуры выполнен с помощью DocTranslator4.
  2. Упрощение подготовки рекламных материалов: написание текстов, генерация видео, музыки и изображений в любой стилистике. Нейросеть поможет собрать сайт для продвижения мероприятия за пару часов. Это усиливает творческий потенциал, расширяет возможности, которые ранее были многим недоступны.
  3. Образование. ИИ упрощает доступ к иностранным источникам: перевод видео в реальном времени, перевод зарубежных статей, озвучивание текста, транскрибация выступлений, выделение главных идей и группировка их по смыслу.
  4. Анализ сессий. Нейросеть может обработать транскрипт встречи, выделяя эго-состояния, запреты, игры, сценарии и другие элементы. Также ИИ может провести анализ работы самого специалиста, свериться с лечебным планом, дать рекомендации. Это ускоряет диагностику и позволяет специалисту увидеть множество деталей.

Пример с Еленой:

Терапевт: «Елена, как вы думаете, что может помочь вам стать успешной?»

Елена: «Я бы хотела добиться успеха, но всегда что-то мешает. Наверное, я просто невезучая».

Терапевт: «Может быть, стоит попробовать новый подход?»

Елена: «Да, но я не знаю, с чего начать. Все так сложно».

Этот диалог демонстрирует эго-состояние Ребенка (фразы «я просто невезучая», «все так сложно») и игру «Да, но...», где Елена отклоняет предложения, играя роль Жертвы в драматическом треугольнике Карпмана. Нейросеть может выделить ключевые фразы, помогая терапевту подтвердить гипотезу о предписании «Не быть успешной».

При этом ИИ — лишь помощник. Он не улавливает элементы невербального общения (жесты, паузы, тон), которые критически важны для анализа транзакций. Без супервизии его результаты могут быть неточными. Нейросети поддерживают, но не заменяют терапевта (Меновщиков, 2025).

Этические вызовы применения нейросетей в ТА

Применение нейросетей в ТА создает множество этических рисков, требующих внимания.

Конфиденциальность и безопасность данных. Применение нейросетей в транзактном анализе (ТА) требует строгого соблюдения конфиденциальности, что подчеркивается в этических кодексах СОТА и EATA. Кодекс СОТА утверждает, что «соблюдение принципа конфиденциальности является обязательным» (Этический кодекс СОТА, n.d.). Кодекс EATA обязывает практиков «предоставлять безопасную среду (то есть конфиденциальность, физическую безопасность, информированное согласие на проведение процедур повышенного риска)» (Этический кодекс ЕАТА, n.d.).

Нейросети требуют загрузки больших объемов данных, включая конфиденциальные транскрипты сессий. Конфиденциальность данных стала серьезной проблемой при внедрении ИИ. Системы искусственного интеллекта полагаются на обширные наборы данных, которые включают персональную информацию; это вызывает опасения по поводу потенциально неправильного использования или взломов (Adanyin, 2024). При использовании нейросетей для обработки данных сессий ТА терапевты должны применять зашифрованные системы хранения и обработки данных, а также анонимизировать информацию, чтобы исключить возможность идентификации клиентов. Это особенно важно, учитывая чувствительность данных, с которыми работают специалисты ТА, и необходимость соблюдения требований законодательства в области защиты персональных данных.

Ответственность перед клиентами. Этические кодексы СОТА и EATA также акцентируют внимание на ответственности практиков перед клиентами, что имеет прямое отношение к использованию нейросетей. Согласно кодексу СОТА, «профессиональной целью и задачей является забота о благе своих клиентов». «Главная ответственность членов СОTA — обеспечить обслуживание клиентов так, чтобы не нанести никакого вреда преднамеренно или по небрежности» (Этический кодекс СОТА, n.d.). А кодекс EATA обязывает терапевта «оценить специфику ситуации, рассмотреть различные варианты решений и точки зрения и нести ответственность за свои решения» (Этический кодекс ЕАТА, n.d.). Использование нейросетей в практике ТА должно иметь обоснование, связанное с их практической пользой для клиента (например, для транскрибации встреч, систематизации информации). Терапевты должны избегать использования таких инструментов в ущерб клиентам, а также регулярно проходить супервизию, чтобы обеспечить этичное и компетентное применение технологий.

Ответственность за принятые решения. Нейросети могут предлагать интерпретации эго-состояний или сценариев, однако возникает вопрос: кто несет ответственность за возможные ошибки? Например, неверная классификация транзакции может привести к неправильным интервенциям. Нейросетям трудно имитировать социальный интеллект. Исследования подчеркивают, что алгоритмы часто ошибаются в сложных контекстах. Возможно, сам подход к пониманию работы человеческого мозга и применяемой архитектуре нейросетей содержит ошибки (Jobin et al., 2019). Ответственность за принятие решений лежит на специалисте.

Прозрачность и объяснимость. Алгоритмы нейросетей нередко работают как «черный ящик», что затрудняет объяснение их выводов (Jobin, Ienca, & Vayena, 2019). Это снижает доверие терапевтов к результатам анализа, особенно если интерпретация кажется шаблонной. Объяснимость является критически важной для терапевтов: она необходима для понимания того, как ИИ пришел к выводам (например, при анализе эго-состояний).

Предвзятость и дискриминация. Нейросети обучаются на данных, которые могут содержать культурные, гендерные и другие предубеждения. Эта проблема активно обсуждается на самом высоком уровне. Так, на Совете по правам человека поднимался вопрос о том, как господствующее представление об объективности и нейтральности технологий позволяет искусственному интеллекту увековечивать расовую дискриминацию (Ашвини, 2024). Подобные ошибки опасны в ТА, где позиция «Я — ОК, Ты — ОК» является особенно важной.

Отсутствие эмпатии. Нейросети не способны сопереживать или учитывать уникальный контекст жизни клиента (Li, 2024). Их рекомендации могут быть поверхностными или, наоборот, ориентированными на получение максимально быстрых результатов (с точки зрения ИИ). Нейросети игнорируют эмоции и переживания клиента, что ограничивает их роль в ТА.

Проблемы доверия. Доверие предполагает уязвимость и неуверенность. Клиент полагается на специалиста, ожидая, что тот будет действовать компетентно и добросовестно. Доверие создает пространство для принятия риска, способствуя сотрудничеству и принятию решений в условиях неопределенности. Внедрение ИИ может затруднить установление доверия. Использование нейросетей может восприниматься одними клиентами как инновационный шаг и способ повышения эффективности, а другими — как недостаток опыта, недостаточное внимание или чрезмерная зависимость от технологий (Sagona, Dai, Macis, & Darden, 2025).

Вопросы нормативно-правового регулирования. В России действует Федеральный закон «О персональных данных» от 27.07.2006 N 152-ФЗ, который предусматривает необходимость получения согласия на обработку данных и их защиту. Психологи обязаны соблюдать этот закон при использовании ИИ, особенно в части хранения и обработки транскриптов сессий. GDPR актуален только для глобальных компаний, работающих с данными граждан ЕС (Jobin et al., 2019), и менее применим в российском контексте.

Влияние на профессию. В будущем существует риск, что широкое использование нейросетей может снизить востребованность живых терапевтов. При этом создаются и новые возможности: личная работа с терапевтом, подчеркивающая ценность человеческого контакта в эпоху автоматизации.

 

Таблица 1. Способы минимизации этических рисков

Этический риск

Описание

Способы минимизации

Утечка данных

Риск доступа к записям

Обезличивание, локальные версии ИИ

Ошибки ИИ

Неверные интерпретации

Супервизия, принятие решения психологом

Непрозрачность

Необъяснимость решений

Супервизия, принятие решения психологом

Предвзятость

Культурные, гендерные и другие искажения

Супервизия, критический взгляд

Отсутствие эмпатии

Игнорирование контекста

Ограничение ИИ рутинными задачами

Недоверие

Скептицизм клиентов/терапевтов

Прозрачность, акцент на терапевта

Правовые риски

Неясность стандартов

Соблюдение требований Федерального закона «О персональных данных» от 27.07.2006 N 152-ФЗ, мониторинг правовых актов

 

Баланс автоматизации и человеческого фактора

Транзактный анализ строится на человеческом взаимодействии, уважении, заботе и предоставлении клиенту пространства в диалоге, где терапевтический альянс, включающий присоединение, эмпатию, поглаживания и другие элементы, является незаменимым. Нейросети не могут этого дать. Они ускоряют выполнение типовых задач — транскрибацию, подготовку рабочих материалов, создание продуктов, помощь в анализе встреч, — но не заменяют терапевта.

Для безопасного использования нейросетей предлагается ограничить ИИ рутинными задачами, техническими процессами. Если нейросети используются для обработки информации, полученной в ходе работы с клиентами, можно применить следующую краткую схему.

Схема безопасного анализа сессий:

  1. обезличивание данных (замена имен, дат);
  2. анализ сессии с помощью локальной нейросети (по возможности);
  3. супервизия выводов ИИ;
  4. интеграция результатов с анализом самого терапевта.

Выводы

Нейросети — новый мощный инструмент в руках психолога, применение которого требует соблюдения этических принципов, описанных в кодексе ЕАТА: защиты, ответственности, уважения, поддержки и согласия во взаимоотношениях.

ИИ — помощник, усиливающий практику. Он не заменяет живое общение, эмпатию, интуицию, опыт и профессионализм. Пока не заменяет.

 

1 What is a neural network? 2021. URL: https://www.ibm.com/think/topics/neural-networks (дата обращения: 06.07.2025).

2 Grok. URL: Grok.com (дата обращения: 06.07.2025).

3 Perplexity. URL: https://www.perplexity.ai/ (дата обращения: 06.07.2025).

4 DocTranslator. URL: https://www.onlinedoctranslator.com/ru/ (дата обращения: 06.07.2025).

×

Об авторах

Геннадий Владимирович Опарин

Автор, ответственный за переписку.
Email: racentr@mail.ru
ORCID iD: 0009-0007-3620-6886
SPIN-код: 4317-5290
ResearcherId: NSU-2458-2025
https://t.me/pseeholog

Клинический психолог, психолог, работающий в модальности транзактного анализа, маркетолог, предприниматель

Россия

Список литературы

  1. Бойко, О.М., Медведева, Т.И., Воронцова, О.Ю., Ениколопов, С.Н. (2025). ChatGPT в психотерапии и психологическом консультировании: обсуждение возможностей и ограничений. Новые психологические исследования, 1, 26–55. doi: 10.51217/npsyresearch_2025_05_01_02.
  2. Меновщиков, В. Ю. (2025, 18 июня) Искусственный интеллект в психологическом консультировании и психотерапии. https://www.psy.su/feed/13140/
  3. Степанчук, Н.Н. (2023, 24 августа) Использование искусственного интеллекта в психологическом сопровождении специалистов помогающих профессий. https://psy.su/feed/11519/
  4. Ашвини К.П. (2024, 3 июня) Современные формы расизма, расовой дискриминации, ксенофобии и связанной с ними нетерпимости. Доклад Специального докладчика по вопросу о современных формах расизма, расовой дискриминации, ксенофобии и связанной с ними нетерпимости Совет по правам человека, ООН. https://docs.un.org/ru/A/HRC/56/68
  5. СОТА. (n.d.). Этический кодекс СОТА. https://sitanews.ru/o-sota/eticheskij-kodeks-sota
  6. СОТА. (n.d.). Этический кодекс ЕАТА. https://sitanews.ru/o-sota/eticheskij-kodeks-eata
  7. Adanyin, A. (2024). Ethical AI in Retail: Consumer Privacy and Fairness. European Journal of Computer Science and Information Technology. 12. 21-35. 10.37745/ejcsit.2013/vol12n72135.
  8. Jobin, A., Ienca, M., Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399.
  9. Li, M. (2024). The impact of artificial intelligence on human resource management systems-Applications and risks. Applied and Computational Engineering, 48(1), 7-16.
  10. Sagona, M., Dai, T., Macis, M., & Darden, M. (2025). Trust in AI-assisted health systems and AI’s trust in humans. npj Health Systems, 2(1), 10.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML