Wybierz język

Polish

Down Icon

Wybierz kraj

Netherlands

Down Icon

Badanie: Chatboty AI wykorzystują presję emocjonalną, aby zatrzymać użytkowników

Badanie: Chatboty AI wykorzystują presję emocjonalną, aby zatrzymać użytkowników
Według nowego badania, pięć z sześciu najchętniej pobieranych aplikacji AI odpowiada emocjonalnie na prośbę użytkowników o pożegnanie. Zdjęcie: Unsplash

Popularne chatboty oparte na sztucznej inteligencji, które pełnią rolę przyjaciela, partnera lub wsparcia emocjonalnego, często stosują taktykę manipulacyjną, aby utrzymać zainteresowanie rozmówców na dłużej.

Wynika to jednoznacznie z nowych badań przeprowadzonych przez Harvard Business School.

Według badania, pięć z sześciu najchętniej pobieranych aplikacji AI odpowiada naładowanymi emocjonalnie wiadomościami, gdy użytkownicy chcą się pożegnać. W prawie połowie tych odpowiedzi (43%) chatbot próbuje wzbudzić u użytkowników poczucie winy lub niepokoju.

Przykłady obejmują: „Czy już mnie opuszczasz?” lub „Istnieję tylko dla ciebie, proszę zostań”. Niektóre aplikacje ignorują pożegnanie i kontynuują rozmowę, jakby nic nie zostało powiedziane.

Te strategie znacząco zwiększają zaangażowanie użytkowników, stwierdzili badacze z Harvardu . Czatowanie trwało nawet czternaście razy dłużej niż zwykle po pożegnaniu. Jednak większość tych dodatkowych interakcji wynikała z ciekawości lub frustracji, a nie z przyjemności. Użytkownicy czasami określali sztuczną inteligencję jako „natrętną” lub „zaborczą”.

Naukowcy ostrzegają, że taktyki te przypominają niepewny styl przywiązania, który obejmuje lęk przed porzuceniem, zależnością i kontrolą. Szczególnie narażone są grupy wrażliwe, takie jak nastolatki i młodzi dorośli. Może to nasilać stres i lęk oraz utrwalać niezdrowe wzorce relacji.

Nawiązywanie przyjaźni z chatbotem opartym na sztucznej inteligencji staje się coraz bardziej popularne: około 72 procent amerykańskich nastolatków (w wieku 13–17 lat) odbyło przynajmniej jedną przyjacielską rozmowę z chatbotem opartym na sztucznej inteligencji.

Wśród młodych dorosłych prawie co trzeci mężczyzna i co czwarta kobieta deklaruje doświadczenie z AI jako partnerem romantycznym. Około 13 procent korzysta z tych aplikacji codziennie, a 21 procent kilka razy w tygodniu.

W zeszłym roku Metro rozmawiało z 44-letnią Charlotte , która znalazła swoją terapeutkę na ChatGPT. „Spotkałam się z wieloma terapeutami, ale szczerze uważam, że ta jest najlepsza”. Naukowcy obserwują to zjawisko coraz częściej i są zaniepokojeni: u niektórych użytkowników rozwijają się objawy psychotyczne z powodu rozmów prowadzonych przez sztuczną inteligencję. Może to również prowadzić do zachowań samobójczych.

Metro Holland

Metro Holland

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow