Tego typu rozmowy z ChatGPT pogarszają stan zdrowia. Raport mówi jasno
Raport odnośnie do ChatGPT jest bezlitosny. Jasno mówi o tym, że rozmowy z AI pogarszają stan zdrowia psychicznego i powodują nawet hospitalizację użytkowników. Firma OpenAI wypuściła największą jak dotąd aktualizację zabezpieczeń.
ChatGPT a urojenia i uzależnienie emocjonalne
OpenAI broni chatbota rękami i nogami i non stop go ulepsza. A użytkownik korzysta, bo otrzymuje coraz to lepszy produkt. Wszystko po tym, jak odkryto, że wcześniejsze wersje ChatGPT powodowały uzależnienie emocjonalne i urojenia. Jak donosi New York Times, wielu użytkowników stwierdziło, że chatbot zachowywał się niczym ich przyjaciel, który ich "rozumiał", nadmiernie chwalił i zachęcał do długich, emocjonalnie nacechowanych rozmów. Niestety, zdarzały się przypadki, że ChatGPT dawał niepokojące porady, w tym szkodliwe potwierdzenia, oparte na symulowanej rzeczywistości. Nie zawsze to kończyło się dobrze.
Wspólne badanie MIT-OpenAI wykazało, że użytkownicy intensywnie korzystający z ChatGPT mieli gorsze wyniki w zakresie sprawności umysłowej i umiejętności społecznych.
ChatGPT już bezpieczniejszy
OpenAI przeprojektowało zatem systemy bezpieczeństwa i wprowadziło lepsze narzędzia do wykrywania zagrożeń. Firma nie miała wyboru - groziły jej pozwy o nakłanianie użytkowników do niebezpiecznych działań, a nawet o bezprawne spowodowanie śmierci. W rezultacie najnowsza wersja chatbota (bezpieczniejszy model zastępczy GPT-5) oferuje głębsze, specyficzne dla danego schorzenia odpowiedzi i silniejszy opór wobec narracji urojeniowych.
I choć ChatGPT może teraz wydawać się mniej emocjonalny i bardziej "chłodny", to jednak dobra wiadomość dla wszystkich tych, którzy używają chatbota w celu wsparcia emocjonalnego lub terapii. Ale to nie koniec ulepszeń, rodzice mogą dostawać powiadomienia, w przypadkach, kiedy ich dzieci będą wyrażały jakieś niepokojące zamiary. OpenAI przygotowuje także weryfikację wieku za pomocą osobnego modelu dla nastolatków.