ChatGPT wciąż będzie kłamał jak najęty i unikał pracy, ale sam się do tego przyzna

ChatGPT nie stanie się sumiennym pracownikiem. Jednak udało się w nim zaszyć system autodonosu.

Paweł Maretycz (Maniiiek)
2
Udostępnij na fb
Udostępnij na X
ChatGPT wciąż będzie kłamał jak najęty i unikał pracy, ale sam się do tego przyzna

ChatGPT, tak samo, jak i inne modele językowe mimo bycia tylko AI, wykazuje cechy typowe dla cwanych i leniwych ludzkich pracowników. Tym samym często nie robi tego, o co go prosimy, a jak nie znajduje informacji — często ich nawet nie szukając — to zwyczajnie zmyśla, licząc, że to przejdzie. Oczywiście potraktujcie to z przymrużeniem oka: AI nie działa intencjonalnie, bo nie jest zdolne do posiadania intencji. Jednak efekty wyglądają tak, a nie inaczej. 

Dalsza część tekstu pod wideo

ChatGPT z autodonosem

Czy ChatGPT zacznie wykonywać zlecone zadania co do joty i przestanie halucynować? Oczywiście, że nie. Przynajmniej na razie. Będzie jednak wysyłać raporty na ten temat. W ten sposób będziemy świadomi tego, kiedy model językowy nie wywiązał się z zadań. To natomiast pozwoli nam na uniknięcie błędów nim spowodowanych.

To jednak dopiero początek. Dzięki tym mechanizmom możliwe stanie się szkolenie warunkujące mające zminimalizować te niepożądane zachowania. Oczywiście będzie to dość długi i mozolny proces, a model językowy zapewne będzie dążył do jego obejścia. Daje to jednak dość realne szanse na poprawę jakości działania agentów AI.