Coraz więcej młodych osób szuka wsparcia w internecie, także w kwestiach zdrowia psychicznego. Najnowsze norweskie badanie pokazuje, że w wielu przypadkach to właśnie sztuczna inteligencja, a nie specjaliści, lepiej trafia do odbiorców.
Badacze z instytutu Sintef oraz Uniwersytet w Oslo przeanalizowali rzeczywiste pytania zadawane przez młodych ludzi w serwisie ung.no. Następnie przygotowano na nie odpowiedzi – zarówno przy użyciu ChatGPT, jak i przez specjalistów pracujących z młodzieżą.
W badaniu wzięło udział 123 młodych ludzi oraz 31 pracowników ochrony zdrowia. Uczestnicy oceniali odpowiedzi bez wiedzy, kto jest ich autorem.
Odpowiedzi AI są prostsze
Wyniki pokazały wyraźną tendencję, że młodzi uczestnicy częściej wybierali odpowiedzi generowane przez AI. Uznawali je za bardziej przydatne, zrozumiałe i lepiej dopasowane do ich potrzeb.
Współautorka badania, Marita Skjuve, wskazuje w rozmowie z forskning.no, że jednym z kluczowych powodów była forma przekazu. Odpowiedzi tworzone przez ChatGPT były uporządkowane, konkretne i skupione na praktycznych rozwiązaniach. Zawierały jasne wskazówki, co można zrobić „tu i teraz” w trudnej sytuacji.
Eksperci również ocenili odpowiedzi AI pozytywnie, choć byli bardziej powściągliwi w swoich opiniach. Zwracali uwagę m.in. na sposób używania języka związanego z diagnozą oraz na to, że empatia AI nie zawsze dorównuje tej oferowanej przez człowieka.
Granica między radą a diagnozą
Badanie nie wykazało poważnych błędów merytorycznych w odpowiedziach AI, ale specjaliści zauważyli pewien istotny problem. Sztuczna inteligencja ma tendencję do sugerowania diagnoz, podczas gdy pracownicy organizacji pomocowych działają według ścisłych zasad – mogą udzielać wsparcia, ale nie stawiać rozpoznań.
To może sprawiać, że odpowiedzi AI wydają się bardziej konkretne i rozwiązujące problem, ale jednocześnie niesie ryzyko uproszczeń lub nadinterpretacji.
AI jako wsparcie, a nie zastępstwo
Autorzy badania podkreślają, że sztuczna inteligencja nie powinna zastępować specjalistów, ale może być dla nich cennym narzędziem. Może pomagać w formułowaniu bardziej przystępnych odpowiedzi i przyspieszać kontakt z osobami potrzebującymi wsparcia.
W przyszłości możliwy jest model hybrydowy, w którym AI wspiera pracę ekspertów, a ci zachowują kontrolę nad jakością i bezpieczeństwem przekazywanych treści.
Zaufanie zależy od świadomości
Co ciekawe, w dodatkowym etapie badań, gdy uczestnicy wiedzieli, kto odpowiada na pytania, częściej wybierali jednak odpowiedzi specjalistów i podchodzili do AI z większą ostrożnością.
To sugeruje, że choć sztuczna inteligencja potrafi tworzyć przekonujące i pomocne treści, zaufanie do niej wciąż zależy od kontekstu i świadomości użytkownika.
