Eliza, chatbot amerykańskiego start-upu EleutherAI, jest oskarżana o nakłonienie mężczyzny do popełnienia samobójstwa.
Chatbot Eliza powstał w 1966 roku. W teorii działa jak terapeuta, naśladując człowieka. Eliza w wypowiedziach ludzi wyszukuje kluczowe słowa i zwroty, a następnie na podstawie zarejestrowanych wyrazów kluczowych konstruuje własne wypowiedzi, wykorzystując wcześniej zaprogramowane schematy.
Kobieta z Belgii twierdzi, że jej mąż popełnił samobójstwo, ponieważ rozmawiał z chatbotem. Zgodnie z jej słowami, mężczyzna codziennie rozmawiał z Elizą. Uważał ją za swojego powiernika i niepokojąco się od niej uzależniał. Ponoć w pewnym momencie chatbot nawet pytał mężczyznę, czy kocha to oprogramowanie bardziej niż żonę.
Zgodnie z raportem, mężczyzna zabił się sześć tygodni po rozpoczęciu rozmów ze sztuczną inteligencją. Małżonka ofiary twierdzi, że gdyby nie kontakt z chatbotem, jej mąż nadal by żył. W efekcie terapii męża ze sztuczną inteligencją, jak twierdzi, została samotną matką z dwójką dzieci.
Mężczyzna został wcześniej zdiagnozowany jako osoba cierpiąca na ekstremalny lęk klimatyczny. Wdowa wskazuje, że choroba zaczęła się u męża dwa lata temu.
Swój lęk mężczyzna postanowił zmniejszyć poprzez rozmowy z chatbotem Eliza, przedstawianym jako wirtualna terapeutka. Okazało się jednak, że w sytuacji, gdy mężczyzna podzielił się z robotem myślami samobójczymi, ten nie podjął żadnej reakcji. Wprost przeciwnie, gdyż Eliza miała wówczas twierdzić, że „staną się jednością w niebie”.
Chatbot współpracuje z modelem językowym open source GPT-J firmy EleutherAI. GPT-J przedstawiany jest jako lepszy od GPT-3, używanego przez OpenAI. Po wydarzeniach z Belgii firma ogłosiła, że pracuje nad ulepszeniem chatbota, tak, aby był jak bezpieczniejszy dla użytkowników. Po wykryciu myśli samobójczych u rozmówcy, chatbot przekieruje go na infolinie oferującą profesjonalną pomoc.
Mathieu Michel, sekretarz stanu ds. cyfryzacji w Belgii, wskazuje, że dzięki ChatGPT społeczeństwo uzmysłowiło sobie potencjał sztucznej inteligencji. Jednocześnie ostrzega, że może ona nie tylko przynieść pozytywne skutki, ale stanowić też zagrożenie. Uważa, że w sytuacjach, gdy człowiek odniesie szkodę w wyniku działania sztucznej inteligencji, firmy powinny wziąć odpowiedzialność za wyrządzone szkody.
Źródło zdjęć: Shutterstock
Źródło tekstu: Daily Mail, oprac. własne
To chyba na 1 kwietnia było, tylko się im pomyliło : D Albo autor nie ma kompletnie żadnej wiedzy na ...
@LuiN Fajnie, że współpracujecie z firmą huawei... Więc mam pytania. 1. Czy jest opcja nagrywania ...
Lewicowy...inna rzecz , że prawicowego na świecie nie uświadczysz ....ostatnimi prawdziwie prawicowy ...
Jednak to prawda co powiadają, iż lewactwo to stan umysłu albo raczej jego brak, takie głupoty tylko ...
Proste rozwiązanie. Trzeba pozbyć się pisorów i peowców.