Umělá inteligence (AI) je nástroj, který se používá k provádění mnoha úkolů a činností zaměřených na zjednodušení administrativních, logistických a organizačních procesů. Přes její přínos a výhody se v posledních letech ukazuje nebezpečímódy, které podléhá stále více lidí: terapie s pomocí umělé inteligence. Psychologové varují, že terapie založené na této inteligenci postrádají potřebný klinický úsudek pro interpretaci složitých emocí.
Podle Světové zdravotnické organizace (WHO) je duševní zdraví stav duševní pohody, který lidem umožňuje zvládat stresové situace v životě, rozvíjet všechny své schopnosti, řádně se učit a pracovat a přispívat ke zlepšení svého společenství. Dobré duševní zdraví je základem pro zachování našich individuálních i kolektivních schopností rozhodovat se, budovat vztahy a utvářet svět, ve kterém žijeme. „Je základním lidským právem a nezbytným prvkem osobního, komunitního a socioekonomického rozvoje,“ zdůrazňuje WHO. Orgány WHO upozorňují, že jde o víc než jen o absenci duševních poruch. V tomto smyslu poznamenávají, že problémy v této oblasti zahrnují duševní poruchy a psychosociální poruchy, jakož i další duševní stavy spojené s vysokým stupněm tísně, funkční neschopnosti nebo rizika sebepoškozování.
Jaká jsou rizika nové módy pro odvykání psychologů?
Skupina psychologů varuje před riziky spojenými s terapií za pomoci umělé inteligence. V této souvislosti objasňují, že obecní chatboti nemuseli být navrženi s ohledem na duševní zdraví.
Lékaři a psychiatři tvrdí, že boti nemají bezpečnostní parametry a nemohou určit, zda má být otázka předána klinickému lékaři nebo profesionálnímu psychologovi. „Chatovací boti mohou poskytnout nesprávné informace nebo informace, které chce uživatel slyšet, a ne to, co by mohl doporučit terapeut s ohledem na duševní zdraví.“
Jak pracují terapeuti a jakým výzvám čelí při používání umělé inteligence?
Lékař, psychiatr a docent klinické psychiatrie na Kolumbijské univerzitě, vysvětluje, že terapeuti dělají tři hlavní věci.
Za prvé naslouchají tomu, co pacienti říkají, a jsou přítomni v rozhovoru. Poté se snaží propojit to, co pacienti říkají, s obecnějšími výrazy, které tito pacienti použili při jiných sezeních, a dát to do souvislosti s koncepty a teoriemi své profese. „Zatřetí filtrujeme výsledek prostřednictvím našich představ a posuzujeme, co bude pro pacienta nejpřínosnější.“
Na základě této nové módy pro vyřazení psychologů tedy odborník tvrdí, že chatboti by mohli představovat nebezpečí, pokud by tyto kroky nedodržovali a místo toho by pacientovi nabízeli doporučení, na která nemusí být připraven nebo která by nemusela být v dané situaci užitečná.
Generální rada oficiálních rad psychologů varuje před nebezpečím terapie s pomocí umělé inteligence a riziky, která může představovat pro duševní zdraví v důsledku chyb a dezinformací.
Tvrdí zase, že UI není schopna porozumět různým kontextovým faktorům a zvyšuje pravděpodobnost zkreslení údajů. „Pokud jsou data neúplná, nereprezentativní nebo odrážejí existující sociální předsudky, může AI tyto předsudky udržovat a vést k nepřesným nebo diskriminačním diagnózám,“ tvrdí odborníci.
Zmiňují také nebezpečí této nové módy, která bere psychologům možnost vydávat falešně pozitivní a negativní diagnózy při terapii.
Autority v Radě psychologů vyjadřují obavy, že umělá inteligence by mohla vyvolat falešně pozitivní diagnózy tím, že by navrhla konkrétní reakci, například indikovala riziko sebevraždy, i když žádné neexistuje, nebo falešně negativní diagnózy, například neidentifikovala nebezpečí nebo vážnou krizi.
„Problémy duševního zdraví se u každého jedince projevují jinak, v závislosti na subjektivní zkušenosti, kulturním kontextu, faktorech prostředí a osobní historii,“ tvrdí.
Porušení ochrany osobních údajů a únik informací
Dalším nebezpečím, na které upozorňují odborníci z Generální rady oficiálních psychologických asociací, je citlivé využívání osobních údajů a potenciální škody, které mohou být způsobeny nevhodnou správou nebo využitím těchto informací.
V této souvislosti upozorňují, že varování souvisí s rostoucím počtem případů narušení bezpečnosti údajů a neoprávněného přístupu k nim. Na druhé straně poznamenávají, že je to důsledek rostoucí závislosti na digitálních platformách a propojených systémech ve zdravotnictví a sociální péči.
„Umělá inteligence shromažďuje a analyzuje velké množství citlivých osobních údajů, jako jsou lékařské záznamy, poznámky během terapeutických sezení a dokonce i aktivity na sociálních sítích,“ tvrdí.