Jestem osobą, która boryka się z depresją. I nie boję się tego przyznać. Niektóre dni to sinusoida - rollercoaster z wózkami podpisanymi “dobry” albo “zły” dzień. “Mental” to przecież aspekt, który wpływa praktycznie na wszystkie obszary życia - mimo tego, dalej mało mówi się o nim w biznesie, w creator economy, w pracy, na co dzień.
Owszem, w temacie debaty nad zdrowiem psychicznym jest lepiej niż kiedyś, ale to raczej zasługa tego, że tak bardzo przykleiliśmy się do mniejszych i większych ekranów - i w końcu ktoś zauważył, że technologia nie tylko jest super, ale też może przyczyniać się do beznadziejnego samopoczucia. Internet za bardzo każe nam dbać o nasz wizerunek - zamiast o siebie.
W jaki sposób algorytmy mogłyby tutaj pomóc? Po pierwsze usprawniając narzędzia, które są dostępne już teraz (chociażby journaling), ale również między innymi proponując tani i szeroki dostęp do spersonalizowanych chatbotów, które stałyby się swoistymi terapeutami, poprawiając naszą psychikę i generalnie zwiększając dostęp do specjalistycznej pomocy.
Może niekoniecznie miałoby to wyglądać, jak w filmie Her, ale wierzę, że większa personalizacja i “empatia” (jakkolwiek to brzmi) ze strony AI mogłaby przynieść wiele dobrego. Pierwsze kroki w temacie stawia Apple - nowe plotki mówią o tym, iż firma z Cupertino tworzy wirtualnego asystenta, który będzie monitorował nasze zdrowie z poziomu zegarka Apple Watch.
W sam temat kontroli, moderacji i obserwacji pracy tego typu modeli oraz wyzwań stojących za projektowaniem “terapeutycznych algorytmów” nie będę się zagłębiał bo wszyscy wiemy, że to temat rzeka, a problemów do rozwiązania jest ogrom. To też tylko moje luźne dywagacje.
Wspomniany temat jest jednak na tyle ciekawy, że postanowiłem go nieco rozszerzyć i porozmawiać z Piotrem Goliankiem, który na co dzień zajmuje się AI w firmie HearMe - pracując w obszarze cyfrowego zdrowia.
Nie będę przedłużał i po prostu zapraszam do lektury. Jestem również ciekaw Twoich przemyśleń na tematy, które poruszyliśmy z Piotrem.
Cześć! Czy możecie krótko opowiedzieć o tym, czym dokładnie zajmujecie się w HearMe i jakie projekty i technologie rozwijacie na co dzień?
HearMe oraz Emplomind (na rynkach zagranicznych) to aplikacja wellbeingowa łącząca pracowników ze specjalistami m.in. certyfikowani psycholodzy, terapeuci, psychodietetycy, fizjoterapeuci, coachowie finansowi oraz trenerzy biznesu, i zapewniająca najbardziej anonimowe na rynku sesje wideo, audio oraz tekstowe. Dodatkowo stale rozbudowujemy naszą bibliotekę artykułów, audio i wideo zapewniając wysokiej jakości materiały w dziedzinie zdrowia psychicznego, wellbeingu, rozwoju oraz HR i leadershipu.
Jakie są główne korzyści i wyzwania związane z zastosowaniem sztucznej inteligencji w psychoterapii online?
Sztuczna inteligencja potencjalnie może mieć wiele zastosowań w psychoterapii online, od diagnostyki, przez narzędzia wspierające terapeutów, aż po wirtualnych terapeutów.
Wśród korzyści można zaznaczyć wzrost dostępności usług psychoterapeutycznych i większą skalowalność wirtualnych specjalistów tudzież narzędzi AI.
Wpłynie to pozytywnie na obniżenie kosztów, co sprawi, że terapia stanie się bardziej przystępna dla szerokiego grona pacjentów. AI to dane, a więc korzystając z nich, terapie mogłyby być bardziej spersonalizowane i dostosowane do indywidualnych potrzeb i preferencji, co mogłoby zwiększyć ich efektywność.
Niektórzy także mogliby docenić anonimowość, którą gwarantowałyby rozmowy z wirtualnym specjalistą, zamiast z człowiekiem.
W kontekście wyzwań musimy zaznaczyć, że na tym etapie rozwoju, mimo ogromnego postępu w przetwarzaniu języka naturalnego, wirtualni terapeuci nie są w stanie zastąpić ludzkich terapeutów w pełni, szczególnie w przypadku złożonych problemów psychicznych. Dlatego też w najbliższej przyszłości zastosowania AI dostrzegamy w ramach narzędzi wspierających specjalistów i pacjentów.
Kwestiami wciąż do przepracowania jest etyka i prywatność danych przetwarzanych przez AI. Jak również czynniki ludzkie, takie jak brak empatii czy zrozumienia przez AI, wpływ na relacje terapeutyczne czy odpowiedzialność za podjęte diagnozy, czy zalecenia.
Jakie są potencjalne konsekwencje społeczne wprowadzania sztucznej inteligencji jako terapeuty? Czy może to prowadzić do marginalizacji zawodu psychologa i zmiany relacji międzyludzkich?
Istnieje ryzyko, że w przypadku wprowadzenia AI w roli wirtualnych terapeutów, rola ludzkiego psychoterapeuty mogłaby być zmarginalizowana. Jednakże jest to bardzo odległa perspektywa, a obecnie AI należy traktować jako uzupełnienie pracy ludzkich specjalistów.
Jest bardzo prawdopodobne, że rewolucja AI wpłynęłaby na zmianę relacji międzyludzkich, w tym osłabienia więzi społecznych i większego poczucia izolacji.
W obszarze społecznym wirtualni terapeuci byliby na początku dość kontrowersyjni, co może prowadzić do tego, że osoby korzystające z ich pomocy byłyby stygmatyzowane i dyskryminowane przez ludzkich specjalistów uważających, że jedyna terapia to terapia człowieka z człowiekiem.
Nie można też zapomnieć, że taka inicjatywa spowodowałaby wzrost uzależnienia od technologii, co w przyszłości może doprowadzić do nadmiernego wykorzystania narzędzi AI zamiast innych, bardziej tradycyjnych form wsparcia.
Dlatego też traktowałbym AI jako uzupełnienie i wsparcie ludzkich specjalistów, a nie ich zamiennik. Taka symbioza mogłaby przynieść wiele korzyści i pomogłaby zachować równowagę między wykorzystaniem technologii a ludzkim aspektem w psychoterapii.
Jakie są największe osiągnięcia w dziedzinie AI i zdrowia psychicznego, które według Was zrewolucjonizują przyszłość psychoterapii?
Zaawansowane algorytmy AI potrafią analizować dane z różnych źródeł, takich jak historie medyczne, dane demograficzne czy wyniki badań psychometrycznych, aby lepiej zrozumieć potrzeby pacjenta i opracować spersonalizowane plany leczenia.
AI może analizować dane z mediów społecznościowych, urządzeń noszonych oraz innych źródeł, aby wykryć wczesne objawy problemów psychicznych, takich jak depresja, stany lękowe czy zaburzenia odżywiania. Wczesne wykrycie może prowadzić do szybszej interwencji i lepszego wyniku leczenia.
Zastosowanie uczenia maszynowego i analizy danych w badaniach nad zaburzeniami psychicznymi może przyczynić się do lepszego zrozumienia przyczyn, mechanizmów i efektywności leczenia tych zaburzeń. Przykładem takiego podejścia jest identyfikowanie biomarkerów, które mogą przewidywać odpowiedź pacjenta na leczenie farmakologiczne.
AI może pomóc w monitorowaniu pacjentów w czasie rzeczywistym, analizując dane z urządzeń noszonych i aplikacji, a następnie wysyłając alert, gdy zauważy niepokojące zmiany w zachowaniu lub nastroju pacjenta. To może umożliwić szybszą interwencję i lepsze zarządzanie stanami psychicznymi, zwłaszcza w sytuacjach kryzysowych np. wykrywanie syndromu presuicydalnego.
Czy stosowanie AI w terapii zdrowia psychicznego może pomóc w redukcji stygmatyzacji osób dotkniętych zaburzeniami psychicznymi?
Jest to możliwe, biorąc pod uwagę, że korzystanie z AI w terapii online może zapewnić anonimowość i prywatność, co może być atrakcyjne dla osób, które obawiają się stygmatyzacji. Bez konieczności ujawniania swojej tożsamości pacjenci mogą być bardziej otwarci na szukanie pomocy i rozmawianie o swoich problemach psychicznych. Choć warto podkreślić, że w HearMe już teraz mamy najbardziej anonimową terapię na rynku, choć prowadzoną oczywiście przez ludzkich specjalistów.
Dostęp do terapii opartej na AI może ułatwić pierwszy krok w poszukiwaniu pomocy, zwłaszcza dla osób, które mogą czuć się niekomfortowo, rozmawiając o swoich problemach psychicznych twarzą w twarz z terapeutą. Szybsze i łatwiejsze uzyskanie wsparcia może przyczynić się do zmniejszenia stygmatyzacji.
AI może być wykorzystywane do edukacji społeczeństwa na temat zdrowia psychicznego oraz do promowania świadomości na temat zaburzeń psychicznych. Lepsze zrozumienie tych problemów może przyczynić się do zmniejszenia stereotypów i negatywnych postaw wobec osób dotkniętych zaburzeniami psychicznymi.
W miarę jak technologie AI stają się coraz bardziej powszechne, rozmowy na temat zdrowia psychicznego i korzystania z usług opartych na AI mogą stać się bardziej znormalizowane. To może pomóc w zmniejszeniu stygmatyzacji, ponieważ coraz więcej osób będzie otwarcie mówić o swoich doświadczeniach z zaburzeniami psychicznymi i korzystaniu z terapii.
Jakie są potencjalne skutki zastosowania sztucznej inteligencji w kontekście wspierania zdrowia psychicznego społeczeństw na globalnym poziomie? Patrząc szerzej czy AI według Was może pomóc zmniejszyć różnice między krajami rozwiniętymi a rozwijającymi się w dostępie do usług psychoterapeutycznych?
AI może pomóc w zmniejszeniu różnic między krajami rozwiniętymi a rozwijającymi się, umożliwiając szybszy i bardziej skalowalny dostęp do usług psychoterapeutycznych. Chatboty terapeutyczne, aplikacje i inne narzędzia oparte na AI mogą być stosowane na szeroką skalę, oferując wsparcie psychiczne w regionach, w których zasoby są ograniczone lub gdzie istnieją bariery językowe.
Sztuczna inteligencja może być używane do monitorowania i reagowania na sytuacje kryzysowe, takie jak konflikty, katastrofy naturalne czy pandemie, które często mają poważne konsekwencje dla zdrowia psychicznego społeczności. Narzędzia oparte na AI mogą pomóc w identyfikowaniu potrzebujących wsparcia, dystrybucji zasobów oraz organizacji interwencji psychologicznych na szeroką skalę.
Nowe technologie mogą być wykorzystane do szkolenia i wspierania lokalnych specjalistów w zakresie zdrowia psychicznego w krajach rozwijających się. Dzięki dostępowi do zaawansowanych narzędzi diagnostycznych i terapeutycznych, a także możliwości konsultacji z ekspertami z innych krajów, lokalni specjaliści mogą udzielać bardziej efektywnej pomocy swoim pacjentom.
AI może przyczynić się do rozwoju współpracy międzynarodowej w dziedzinie zdrowia psychicznego, umożliwiając globalne inicjatywy badawcze, wymianę wiedzy i najlepszych praktyk, a także koordynację działań mających na celu poprawę zdrowia psychicznego na świecie.
Zastosowanie AI w kontekście zdrowia psychicznego na globalnym poziomie wymaga uwzględnienia kwestii etycznych i prawnych. Obejmuje to m.in. dbanie o prywatność danych pacjentów, zapewnienie bezpieczeństwa cyfrowego oraz regulowanie stosowania AI w celu uniknięcia potencjalnych nadużyć czy negatywnych konsekwencji dla społeczeństw.
W kontekście negatywnych skutków, mimo że, AI może przyczynić się do zmniejszenia różnic w dostępie do usług psychoterapeutycznych, istnieje ryzyko, że technologie te będą dostępne tylko dla tych, którzy mogą sobie na nie pozwolić lub mają dostęp do odpowiedniej infrastruktury technologicznej. Może to pogłębiać nierówności w opiece zdrowotnej.
AI może być mniej skuteczne w obszarach, gdzie istnieją wyraźne różnice kulturowe, etyczne lub językowe. W takich przypadkach dostosowanie terapii do potrzeb lokalnych społeczności może być wyzwaniem i wymagać znacznych wysiłków ze strony twórców tych technologii.
Istnieje też obawa, że zastosowanie AI w terapii zdrowia psychicznego może prowadzić do zmniejszenia bezpośrednich relacji międzyludzkich, które są kluczowe dla skuteczności terapii. Osoby korzystające z terapii opartej na AI mogą być pozbawione wsparcia emocjonalnego, które może zapewnić terapeuta w kontakcie twarzą w twarz.
Chociaż AI może przyczynić się do poprawy jakości terapii poprzez personalizację i analizę danych, istnieje również ryzyko, że niektóre technologie oparte na AI mogą nie być tak skuteczne, jak tradycyjne metody terapeutyczne. Ważne jest, aby dokładnie oceniać i monitorować skuteczność AI w terapii zdrowia psychicznego.
Stosowanie AI w terapii zdrowia psychicznego wiąże się także z szeregiem kwestii etycznych, takich jak prywatność, bezpieczeństwo danych, odpowiedzialność i uczciwość. Potrzebne są odpowiednie ramy regulacyjne i etyczne, aby zagwarantować, że AI będzie wykorzystywane w sposób zrównoważony i odpowiedzialny.
Czy istnieją już jakiekolwiek metody oceny skuteczności sztucznej inteligencji jako terapeuty oparte na danych naukowych? Jak firma może mierzy postęp pacjentów i jakość terapii opartej na AI?
Na rynku są już prowadzone badania kliniczne różnych narzędzi AI. Badania te mogą obejmować randomizowane kontrolowane próby (RCT), w których pacjenci są losowo przydzielani do grupy eksperymentalnej korzystającej z terapii opartej na AI lub grupy kontrolnej stosującej standardowe metody terapeutyczne. Następnie porównuje się wyniki obu grup, aby ocenić skuteczność terapii opartej na AI.
Aby ocenić postępy pacjentów i jakość terapii opartej na AI, można stosować także różne metody pomiaru symptomów, takie jak kwestionariusze samooceny, skalowanie objawów lub raporty postępów od terapeutów. Można również ocenić zmiany w funkcjonowaniu pacjentów, takie jak poprawa jakości.
Opinie i oceny pacjentów są ważnym źródłem informacji na temat skuteczności terapii opartej na AI. Poprzez zbieranie informacji zwrotnych od pacjentów, można uzyskać informacje na temat ich zadowolenia z terapii, postrzeganej skuteczności, a także potencjalnych obszarów do poprawy.
Inną opcją jest porównanie wyników terapii opartej na AI z wynikami innych metod terapeutycznych, takich jak terapia indywidualna, terapia grupowa czy farmakoterapia, może pomóc ocenić skuteczność i wartość dodaną AI jako terapeuty.
Jakie są plany HearMe dotyczące rozwoju i wprowadzania nowych produktów lub usług opartych na sztucznej inteligencji w obszarze zdrowia psychicznego w najbliższej przyszłości? Czy macie już jakąś strategię?
Nowe technologie to obszar, w który mocno inwestujemy. Zgodnie z naszą filozofią, nie będziemy zastępować specjalistów maszynami, ale zapewnimy zarówno im, jak i pacjentom efektywne nowe narzędzia, które będą wspierać terapię.
Obecnie, jako pierwsi na rynku, jesteśmy w trakcie pilotażu innowacyjnego narzędzia AI do diagnostyki parametrów medycznych i zdrowia psychicznego. Będziemy je wykorzystywać do tworzenia spersonalizowanych i holistycznych ścieżek terapeutycznych oraz dostarczania wartościowych informacji dla specjalistów i pacjentów w niezwykle łatwy sposób.
Dzięki temu będziemy w stanie szybciej reagować w sytuacjach kryzysowych, tworzyć i wzmacniać pozytywne nawyki zdrowotne u pacjentów, dostarczając im spersonalizowanych treści i zadań w zgrywalizowany sposób, co przełoży się na wzrost zaangażowania.
Będziemy się koncentrować nie tylko w obszarze zdrowia psychicznego, ale zahaczymy także o zdrowie fizyczne, bo człowiek to całość psychofizyczna, i tylko tak w holistyczny sposób jesteśmy w stanie pomagać rozwiązywać problemy.
Dla pracodawców również będziemy dawać dodatkową wartość, dostarczając im zanonimizowanych raportów o zdrowiu mentalnym i fizycznym pracowników z gotowymi rekomendacjami, jak zachowywać się w przypadku danego problemu.
Mocno wierzymy także w wykorzystanie AI do wczesnego wykrywania depresji, stanów lękowych czy syndromu presuicydalnego. Będziemy z pewnością dalej inwestować w ten obszar.
I na koniec zapytam - czy Waszym zdaniem wdrożenie modeli AI jako wsparcie dla psychoterapii sprawi, że stanie się ona tańsza i bardziej dostępna niż ma to miejsce w obecnej rzeczywistości?
Jest to możliwe. Korzyści widziałbym przede wszystkim w większej skalowalności, automatyzacji i dostępności narzędzi opartych o AI. W naszej wizji w każdym miejscu pracy pracownik będzie miał dostęp do narzędzi i terapii zdrowia psychicznego.
Dostrzegamy duży potencjał sztucznej inteligencji i będziemy go rozsądnie wykorzystywać. Jesteśmy także świadomi, że potrzeba dostępu do terapii jest coraz większa. Nasz produkt nie jest już tylko fajnym benefitem, ale rozwiązuje realne problemy, które wpływają na funkcjonowanie organizacji.
W najbliższej przyszłości widziałbym największe korzyści ze sztucznej inteligencji w obniżaniu bariery wejścia do psychoterapii. Nie dla każdego sesja terapeutyczna to pierwszy krok, niektórzy najpierw muszą się z nią bardziej oswoić, dostać narzędzia z niższą barierą wejścia, aby dopiero później zdecydować się na sesje. Czuwamy, aby każdy został odpowiednio zaopiekowany.
Rozmowa bardzo ciekawa! dorzucę jeszcze filmik od Nauka to lubię (https://youtu.be/bUg2IYlfzNY) nt. polskiego startupu Calmsie