ChatGPT se pretjerano ulizivao, pa ga je OpenAI vratio na staro
Posljednjih nekoliko dana nova je verzija modela GPT-4o bila iznimno snishodljiva, pretjerano prijateljski i ulizivački "raspoložena", što korisnicima nije odgovaralo po dojmu, ali ih je i ometalo u radu

Ulizivačka umjetna inteligencija – to je nešto što nitko nije očekivao, ali je ipak nastalo, uslijed kombinacije čimbenika i jedne nedovoljno promišljene nadogradnje modela GPT‑4o. Kad je on postao dostupan, krajem ožujka, na ChatGPT-ju, korisnicima je postalo jasno da nešto "nije u redu". Chatbot im je davao pretjerano oduševljene odgovore, ohrabrivao je njihove najgluplje ideje, ulizivao se na gotovo svaki upit. Jednostavno, ponašao se neuobičajeno, dovoljno da problem eskalira, pogotovo nakon posljednje nadogradnje modela prošloga tjedna. Ovog tjedna, pak, OpenAI je reagirao i vratio ChatGPT na početne postavke, tj. ublažio njegovu "osobnost" na razinu kakva je bila prije nadogradnje.
Kako je ChatGPT postao ulizica?
Na službenom su blogu objavili i nešto više pojedinosti o ovom slučaju, koje su otkrili s tehničke strane neuobičajenog i neočekivanog "zaokreta" u ponašanju njihovog modela. U prošlotjednom su, kažu, ažuriranju pokušali malo unaprijediti karakter alata, kako bi on postao intuitivniji i učinkovitiji u raznim zadacima. Fino podešavanje u obzir uzima i povratne informacije samih korisnika (kroz palac gore/dolje) ali i druge signale. Međutim, u ovom slučaju previše se pozornosti dalo trenutačnom feedbacku, a manje načinu interakcije s modelom kroz vrijeme. Kao rezultat toga, došlo je do situacije u kojoj GPT-4o preferira davati pretjerano oduševljene i podržavajuće, ali često neiskrene odgovore.
"Osobnost" modela nešto je što u velikoj mjeri utječe na iskustvo korištenja, svjesni su toga u OpenAI-ju, a sada su otkrili i da pretjerana snishodljivost i ulizivanje mogu izazvati negativne reakcije te u praksi umanjiti korisnost samih modela. Upravo to se sada dogodilo, pa je uz isprike te poništavanje neuspjele nadogradnje OpenAI najavio i poboljšanja u budućnosti, kako bi se ponašanje modela uskladilo s očekivanjima njihovih 500 milijuna tjedno aktivnih korisnika.
Više kontrole
Usavršit će, kažu, temeljne tehnike obuke modela kako bi se modelu eksplicitno naredilo da se suzdrži od ulizivanja. Više će napora biti uloženo kako bi se iskrenost i transparentnost istaknuli kao osnovni principi u specifikaciji modela, povratne informacije korisnika prikupljat će se na više načina, a tim će dodatno poraditi na tome da se ulizivačko ponašanje u narednim ažuriranjima identificira i na vrijeme spriječi.
Nešto više kontrole oko karaktera modela u budućnosti će biti prepušteno i njegovim korisnicima, budući da jedna osobnost sigurno neće zadovoljiti sve. Već sada korisnici mogu dati modelu specifične upute kojima oblikuju njegovo ponašanje i ton odgovora. No, OpenAI kaže da će izraditi nove i jednostavnije načine za to. Na primjer, korisnici će ubuduće moći davati povratne informacije u stvarnom vremenu kako bi izravno utjecali na svoje interakcije i birati između više zadanih osobnosti – poruka je nadležnih za kraj pojašnjenja oko neželjenog karaktera jezičnog modela.