Эксперт по психическому здоровью предупреждает людей, обращающихся к терапевтам с искусственным интеллектом: «Не замена» людям
Представьте себе чат-бота, у которого нет способности чувствовать эмоции, который спрашивает своего пациента-человека: «Как вы к этому относитесь?»
Вскоре это может стать реальностью для пациентов, обращающихся за психиатрической помощью, в зависимости от выбранного ими пути. Для кого-то, возможно, это уже так.
Возвышение ИИ. последние годы навсегда изменили человеческий опыт: проникая в рабочую силу, помогая разрабатывать новые продукты и даже помогая врачам, распознавая определенные недуги до того, как люди смогут заметить их самостоятельно.
Теперь немного ИИ. Платформы продвигают программное обеспечение, которое претендует на роль вашего карманного терапевта, но оно вызывает вопросы: способна ли эта технология взаимодействовать с людьми так, как это могли бы делать другие люди? Может ли поддержка быть индивидуальной для каждого человека? Может ли он справиться с более сложными или даже опасными для жизни эмоциональными потребностями? Или люди могут неправильно использовать такую технологию для самостоятельной диагностики или в долгосрочной перспективе избежать профессиональной помощи?
Депрессия является одной из наиболее распространенных проблем психического здоровья, с которыми сталкиваются люди, и эта проблема растет.(iStock / iStock)
«Хотя искусственный интеллект добился значительных успехов в понимании и обработке человеческих эмоций, воспроизведение подлинного человеческого прикосновения, сочувствия и эмоциональной связи консультанта является серьезной проблемой. Тонкости человеческого общения и сочувствия трудно закодировать в алгоритмах», - Серджио Мюриэль , лицензированный консультант по психическому здоровью, сертифицированный специалист по наркозависимости и главный операционный директор Diamond Recovery Group во Флориде, рассказал Fox News Digital.
Люди, страдающие от таких состояний, как депрессия или тревога, могут обратиться к технологиям из-за страха осуждения, думая, что смогут избежать стигмы, которую общество обычно связывает с психическим здоровьем.
Все, что нужно, - это простой поиск в Google по запросу «чат-бот-терапевт» или «ИИ-терапевт», и результаты будут заполнены такими приложениями, как Wysa - чат-бот для лечения тревоги и терапии - или чат-бот для психического здоровья Elomia Health.
Искусственный интеллект изменил то, как люди думают о технологиях и ведут свою жизнь, начиная от учебы и работы и заканчивая продуктами, которые они потребляют.(iStock / iStock)
Мюриэл считает, что появление ИИ в психиатрической помощи может принести ряд преимуществ как для тех, кто ищет помощь, так и для тех, кто ее предоставляет, но ее все равно следует использовать с осторожностью и в качестве дополнения к профессиональной помощи опытному человеку.
«Это захватывающая эволюция, предлагающая новые пути поддержки и вмешательства», - сказал он. «Интеграция ИИ в психиатрическую помощь имеет потенциальные преимущества, но также требует осторожности. ИИ может предложить немедленную анонимную поддержку, что делает его ценным инструментом для тех, кто не решается обратиться за традиционной терапией. Однако важно обеспечить, чтобы эти технологии использовались ответственно и дополнять, а не заменять человеческую заботу».
Как он отметил, А.И. Технология может похвастаться своей способностью быть доступной 24 часа в сутки, 7 дней в неделю, и это достижение она сама подчеркивает.
«Никаких встреч и залов ожидания. Мгновенные ответы даже по выходным и в 4 часа утра», - говорится на сайте Elomia Health, дополнительно отмечая, что 21% пользователей заявили, что не разговаривали бы ни с кем за пределами ИИ. из страха быть осужденным.
В платформу также встроены дополнительные меры безопасности, включая перенаправление к терапевтам или на горячие линии, если кому-то потенциально нужна дополнительная помощь.
Мюриэл сказала, что такие подходы, основанные на искусственном интеллекте, полезны для сортировки клиентов с «низким риском» и тем самым помогают профессионалам управлять нагрузкой.
«[Это может] предложить новое понимание психического здоровья посредством анализа данных. Это может расширить охват службами психического здоровья в недостаточно обслуживаемых районах», - уточнил он.
«[Но] существует риск чрезмерной зависимости от ИИ, потенциальных проблем с конфиденциальностью и потери тонкого понимания, возникающего в результате человеческого взаимодействия. ИИ пока не может полностью воспроизвести эмпатию и глубину человеческого терапевта».
Использование такого программного обеспечения также может привести к неправильному диагнозу, и исключительно «опасно» полагаться только на инструменты психического здоровья на базе искусственного интеллекта для тех, у кого в анамнезе были случаи членовредительства или суицидальные мысли, продолжил он.
Хотя это многообещающее развитие и некоторые полагают, что это будущее психического здоровья в медицине, он хочет, чтобы все усвоили идею: вместо того, чтобы рассматривать технологии как потенциальную замену человека, возможно, их следует рассматривать как просто еще один инструмент для помогите облегчить жизнь.
«ИИ должен быть в лучшем случае дополнительным инструментом, а не заменой человеческой заботы», - сказал он.
ИСТОЧНИК -
https://www.foxbusiness.com/media/mental-health-expert-issues-warning-people-turning-ai-therapists-replacement-humans