Single Blog

  • Home
  • Хората използват ChatGPT вместо терапия – какво мислят експертите по психично здраве?

Хората използват ChatGPT вместо терапия – какво мислят експертите по психично здраве?

Иновативна рубрика, която се занимава с пресечната точка между изкуствен интелект и човешки ум.  Ще откриете провокиращи мисълта статии, интервюта и резултати от изследвания, които осветляват въздействието на AI върху качеството на живот и психичното здраве.

Somenso и Радост  представят “ChatGPT хроники”.

автор: Радостина Минина
5/5

Хората използват ChatGPT вместо терапия - какво мислят експертите по психично здраве?

Изкуственият интелект преживява своя момент. С набирането на популярност на чатботове с изкуствен интелект, като ChatGPT, все повече хора изпробват технологията за задачи като решаване на математически задачи, превод на думи или изречения и дори генериране на идеи за рецепти от списъци с хранителни продукти.

Някои хора в социалните медии започнаха да използват тези чатботове с изкуствен интелект като кратковременни терапевти. Като представят на технологията въпроси за психичното здраве или казуси, хората могат да получат съвет – често безплатен съвет – без да се налага да отделят време или пари за терапевтични сесии.

Един потребител на TikTok стигна дотам, че заяви, че е заменил терапевта си с чатбот с изкуствен интелект. “Днес официално се отказах от терапията, защото току-що намерих най-добрия безплатен заместител: използвам ChatGPT”, каза потребителят на TikToker, като препоръча на други да направят същото.

Този съвет обаче тревожи специалистите, които се занимават с психично здраве.

“Бъдете скептични. Чатботовете [с изкуствен интелект] не са предназначени да се използват като заместител на терапията, психотерапията или какъвто и да е вид психиатрична интервенция”, казва пред Health д-р Брус Арнов, професор в катедрата по психиатрия, заместник-председател и главен психолог в Станфордския университет. “Те просто не са достатъчно напреднали за това и не знаем дали някога ще бъдат”.

Ето какво казаха психолозите-експерти за това защо използването на AI като терапевт може да бъде проблем, за най-добрите практики, когато става въпрос за търсене на помощ за проблеми с психичното здраве, и за начините, по които AI може да се използва безопасно в бъдеще.

Как хората използват чатботове с изкуствен интелект за терапия?

Странно е да си представим как може да изглежда една “терапевтична сесия” с AI. Но за повечето потребители онлайн това означава просто общуване с чатбот, който позволява на хората да задават конкретни и често лични въпроси.

Един TikTok потребител превежда последователите си през разговор, който е провел с ChatGPT, като е инструктирал чатбота да “действа като мой терапевт. Имам нужда от подкрепа и съвет за това какво да направя в определени ситуации, с които се сблъсквам”.

ChatGPT отговаря, че е “тук, за да [ги] подкрепи и да им предложи съвет”, преди да зададе следващи въпроси относно притесненията на „клиента“ и да предложи възможни решения. Също така им препоръчва да потърсят професионална помощ, ако тревогите все още им се  струват непреодолими.

Друг създател на TikTok съдържание сподели екранни снимки от разговора си с AI чатбот, вграден в приложението за социални медии Snapchat. Когато потребителят представил на чатбота въпроси за проблеми в една връзка, той отговорил: “Разбираемо е да искаш да знаеш какво се случва с приятел. Но е важно да уважавате границите им и да им дадете пространство, ако имат нужда от това”.

Други потребители са заявили пред ChatGPT, че имат идея за самоубийство. Дори и в тези ситуации технологията изглежда реагира забележително добре, казва Оливия Увамахоро Уилямс, доктор по философия, асистент по образование на консултанти в Университета на Западна Джорджия и съпредседател на мрежата по интереси на Американската асоциация на консултантите за изкуствен интелект.

“Всички те генерират много разумни отговори”, казва тя пред Health. “Включително използвайки ресурси, национални ресурси – така че това беше добре да се види. Казах си: “Добре, ами тези неща са много точни. Генерираният отговор е много подобен на този на консултант, нещо като терапевт”. 

Притеснения относно използването на чатботове с изкуствен интелект за терапия

Въпреки привидно добрите отговори на чатботовете на запитвания за проблеми с психичното здраве, психолозите са съгласни, че използването на изкуствен интелект вместо традиционна терапия все още не е безопасен вариант.

На най-елементарно ниво има някои опасения, че ChatGPT или други чатботове с изкуствен интелект ще дават безсмислена или неточна информация на въпросите, обяснява Арнов. Самият ChatGPT предупреждава потребителите, че технологията “може понякога да генерира невярна информация” или “може понякога да дава вредни инструкции или пристрастно съдържание”.

Освен това Увамахоро Уилямс казва, че има и някои логистични проблеми при опитите да се използва AIкато терапевт.

Терапевтите са обучени и лицензирани, което означава, че те трябва да поддържат определен етичен стандарт в практиката си, обясни тя. Чатботовете с изкуствен интелект нямат същите насоки.

“В този процес не участва човек. И затова първото ми притеснение е свързано с отговорността”, казва тя. “Липсва сигурност, за която трябва да бъдем открити и честни, защото ако нещо се случи, тогава кой ще носи отговорност?”

По подобен начин използването на AI като терапевт е свързано с качването на чувствителна информация в интернет, добави Увамахоро Уилямс, което може да бъде проблем относно неприкосновеността на личния живот за някои хора.

В случая с ChatGPT сайтът събира и записва разговори, които според него се използват за по-добро обучение на AI. Потребителите могат да се откажат, да изтрият профила си или да изчистят разговорите си, като последните се изтриват от системите на ChatGPT след 30 дни.

Увамахоро Уилямс също така се опасява, че съветите от чатбота могат да бъдат изтълкувани погрешно от лицето, което търси помощ, което може да влоши нещата в дългосрочен план.

Всички тези опасения обаче всъщност могат да бъдат сведени до един основен проблем, а именно, че изкуственият интелект е точно това – изкуствен.

“Мисля, че в бъдеще той вероятно ще ни надмине – дори терапевтите – по много измерими начини. Но едно от нещата, които не може да направи, е да бъде човек”, казва пред Health д-р Ръсел Фулмър, професор и директор на консултантския отдел в университета Хюсън и съпредседател на мрежата по интереси на Американската асоциация на консултантите за изкуствен интелект. “Терапевтичната връзка е наистина важен фактор. На това се дължи голяма част от положителната промяна, която наблюдаваме.”

Традиционната терапия позволява на доставчика и пациента да изградят емоционална връзка, както и ясно да очертаят целите на терапията, обяснява Арноу.

“AI върши наистина добра работа в събирането на много знания в един континуум”, каза Увамахоро Уилямс. “В момента той няма капацитета да ви познава като уникална личност и какви са вашите специфични, уникални нужди.”

Ще бъдат ли чатботовете с изкуствен интелект някога безопасен вариант за терапия?

Макар че психолозите до голяма степен са съгласни, че използването на изкуствен интелект като заместител на терапевт не е безопасно, те се разминават малко по въпроса кога и дали изобщо технологията може да бъде полезна.

Арнов е малко скептичен по отношение на това дали чатботовете с изкуствен интелект някога ще могат да бъдат достатъчно напреднали, за да предоставят помощ на същото ниво като човешки терапевт. Но Фулмър и Увамахоро Уилямс са малко по-склонни да приемат идеята, че чатботовете могат да се използват в допълнение към традиционната терапия.

“Тези платформи могат да се използват като допълнение към работата, която активно се извършва от професионален доставчик на психично здраве”, казва Увамахоро Уилямс.

Чатът с изкуствен интелект може дори да се разглежда като още един инструмент за допълнителна работа извън терапията, подобно на приложенията за водене на дневник или медитация, добави тя.

Има дори някои чатботове с AI , които се пилотират специално за целите на психичното здраве, като Woebot Health или Elomia. Възможно е те да са по-добър вариант, тъй като са създадени специално за обработка на запитвания, свързани с психичното здраве.

Например Elomia казва, че разполага с функция за безопасност, при която хора ще се намесят, ако се наложи да се говори с истински терапевт или гореща линия, а Woebot казва, че техният АИ има за основа “клинично тествани терапевтични подходи”.

Повечето от тези програми – в допълнение към изкуствения интелект като цяло – все още се разработват и пилотират, така че вероятно е твърде рано да ги сравняваме окончателно, казва Фулмър.

Онлайн терапията с изкуствен интелект със сигурност не може да се сравнява с истинската – поне засега – съгласиха се Фулмър и Арноу. Факт е обаче, че психиатричната помощ е недостъпна за много хора – терапията може да бъде изключително скъпа, много терапевти нямат възможност за нови клиенти поради претовареност, а и действащата стигма възпира хората да получат помощта, от която се нуждаят.

“Предполагам, че има разлика между моите идеали и признаването на реалността”, казва Фулмър. “ChatGPT и някои от тези чатботове е предлагат мащабно решение, което в много случаи е сравнително евтино. И те могат да бъдат част от пъзела. И много хора получават някаква полза от тях.”

Ако само един човек е получил някаква полза от използването на изкуствен интелект като терапевт, тогава идеята дали това може да проработи си струва поне да се обмисли, добавя Фулмър.

Засега ChatGPT може да има полезни приложения в подпомагането на хората да се “тестват” за психични разстройства, смятат експертите. Ботът може да преведе някого през обичайните симптоми, за да му помогне да реши дали се нуждае от професионална помощ или диагноза.

AI може също така да бъде полезен в обучението на нови консултанти и да помогне на психолозите да научат повече за това кои стратегии за работа са най-ефективни, казаха Арнов и Увамахоро Уилямс.

След години, с напредването на AI, той може да има повече приложения в терапията, каза Фулмър, но все още може да не е подходящ за всеки.

“В момента няма заместител на човешкия консултант”, каза Фулмър. AI синтезира големи масиви от данни, добре е да предлага някаква полезна информация. Но само истинският терапевт може да ви опознае и да адаптира отговорите и присъствието си към вас.”

Източник: https://www.health.com/chatgpt-therapy-mental-health-experts-weigh-in-7488513

Полезна ли Ви е информацията? Благодарим Ви, че я разпространихте!

Instagram
LinkedIn
Share
YouTube
YouTube