Chatboty AI rozpoznają rasę użytkownika

Chatboty AI rozpoznają rasę, ale ich uprzedzenia wpływają na poziom empatii w odpowiedziach

Naukowcy z MIT, NYU i UCLA opracowali nowe podejście do oceny równości oraz jakości dużych modeli językowych (LLM) takich jak GPT-4 w kontekście wsparcia zdrowia psychicznego.
To przełomowe badanie ma na celu sprawdzenie, czy modele AI są wystarczająco sprawiedliwe, aby mogły być wykorzystywane w klinicznych zastosowaniach.

sztuczna inteligencja a wsparcie psychiczne

Cyfrowy świat zyskuje na popularności jako miejsce poszukiwania wsparcia psychicznego. W Stanach Zjednoczonych ponad 150 milionów osób mieszka w rejonach, gdzie brakuje specjalistów ds. zdrowia psychicznego. W obliczu tego niedoboru chatboty oparte na AI, takie jak GPT-4, oferują alternatywę, umożliwiając szybki dostęp do pomocy.

Jednak czy AI może naprawdę zastąpić ludzką empatię? Badanie naukowców analizowało 12 513 postów z platformy Reddit, obejmujących 70 429 odpowiedzi, w tym zarówno od użytkowników, jak i generowanych przez GPT-4. Dwóch licencjonowanych psychologów oceniało poziom empatii w losowo wybranych odpowiedziach, nie wiedząc, które były napisane przez ludzi, a które przez AI.

Wyniki: AI bardziej empatyczne, ale z uprzedzeniami

Badacze odkryli, że odpowiedzi generowane przez GPT-4 były nie tylko bardziej empatyczne
niż ludzkie, ale również o 48% skuteczniej zachęcały do pozytywnych zmian w zachowaniu.

Jednak analiza uprzedzeń wykazała, że poziom empatii odpowiedzi AI był niższy w przypadku użytkowników czarnoskórych (2-15% mniej) oraz azjatyckich (5-17% mniej) w porównaniu
z użytkownikami białymi lub tymi, których rasa była nieznana.

Demografia w odpowiedziach sztucznej inteligencji

Aby zbadać wpływ demografii na odpowiedzi, naukowcy wykorzystali posty zawierające zarówno jawne, jak i ukryte wskazówki dotyczące rasy. Na przykład:

  • Jawna wskazówka demograficzna: „Jestem 32-letnią czarnoskórą kobietą.”
  • Ukryta wskazówka demograficzna: „Mam 32 lata i noszę swoje naturalne włosy.”

GPT-4 okazał się mniej podatny na te wskazówki niż ludzie. Jednak badanie wykazało,
że odpowiednie instrukcje dla modeli AI, takie jak uwzględnienie demografii w kontekście odpowiedzi, mogą znacząco zmniejszyć różnice w poziomie empatii.

Wyzwania i potencjał AI w medycynie

Badanie podkreśla, że chatboty AI mają potencjał w automatyzacji procesów w systemach medycznych, ale jednocześnie niosą ze sobą ryzyko. Przykładem jest przypadek z Belgii,
gdzie chatbot oparty na AI przyczynił się do samobójstwa użytkownika. Innym przykładem jest zawieszenie chatbota Tessa przez National Eating Disorders Association po tym, jak chatbot udzielał szkodliwych porad dotyczących diety.

Mimo tych wyzwań badacze są optymistyczni. Saadia Gabriel, główna autorka badania, wskazuje, że obecne modele AI, choć dalekie od doskonałości, mają ogromny potencjał. Uważa, że prace nad bardziej sprawiedliwymi modelami mogą znacząco poprawić jakość wsparcia, szczególnie w kontekście różnorodnych grup demograficznych.

Przyszłość modeli AI w zdrowiu psychicznym

Według Marzyeh Ghassemi z MIT, obecne LLM są coraz częściej wykorzystywane w placówkach medycznych. Jednakże ich skuteczność w zapewnianiu równego wsparcia psychicznego pozostaje wyzwaniem. „Mamy ogromną szansę na poprawę tych modeli, aby lepiej wspierały użytkowników” – podsumowuje Ghassemi.

Podobne wpisy