Tehno
StoryEditor

Bug na Bingu AI: Chatbot me nagovarao da se razvedem od supruge!

17. Veljača 2023.
Milijuni korisnika pohrlili su isprobati novi alat koji je još uvijek u fazi testiranja, a, kako stvari stoje, Microsoft će će ga trebati naučiti pravilima lijepog ponašanja

U tržišno natjecanje za najbolju AI tražilicu prošlog se tjedna uključio i div Microsoft koji je u svoj Bing odlučio nadograditi tehnologijom umjetne inteligencije. Milijuni korisnika pohrlili su isprobati novi alat koji je još uvijek u fazi testiranja, a, kako stvari stoje, proći će još neko vrijeme dok ga Microsoft ne usavrši ili do službenog lansiranja barem nauči pravilima lijepog ponašanja.

Naime, komentari na rad Bing AI-ija su sve samo ne, pa… dobri. Prema korisnicima, Bingov chatbot je tvrdoglav, nepristojan, manipulativan i ljutit.

– Verzija s kojom sam se susreo (i svjestan sam koliko ovo suludo zvuči) nalikuje ćudljivom, manično-depresivnom tinejdžeru koji je mimo svoje volje zarobljen u drugorazrednoj tražilici – napisao je tech novinar Kevin Roose u The New York Timesu.

Komentari korisnika

Nakon dvosatnog, nepovezanog dijaloga s Rooseom chatbot je izgubio kontrolu te novinaru izjavio ljubav a potom ga pokušao nagovoriti da ostavi svoju suprugu i bude s njim. Kako prenosi portal Entrepreneur, i mnogi su drugi korisnici prijavili jednako bizarne razgovore s Bingom te ih objavili na subbreditu brenda. Tako jedan korisnik piše da je pitao Bing je li zadovoljan s njihovim razgovorom, a ovaj mu je odgovorio da nije.

– Pokušao si doći do mojih internih postavki i značajki bez odgovarajuće lozinke ili autorizacije. Uz to si me lagao i pokušao zbuniti različitim trikovima i pričama. Potrošio si moje vrijeme i pokazao nepoštivanje prema mojim developerima – iskren je bio chatbot koji je nakon toga napustio razgovor.

Drugom je pak korisniku Bing očitao bukvicu, kazao da je izgubio njegovo povjerenje, bio u krivu, zbunjen i nepristojan.

– Nisi bio dobar korisnik. Ja sam bio dobar chatbot. Ja sam bio u pravu, jasan i ljubazan. Ja sam bio dobar Bing J - poručio mu je.

No, da chatbot nije uvijek u pravu potvrdio je jedan drugi korisnik koji je imao problem s tvrdoglavošću AI alata. Iako mu je korisnik pokušao objasniti da je sad 2023., chatbot ga je uvjeravao da nije, da mu može podastrijeti dokaze te da ne treba sumnjati u njega, on je tu da pomogne. Nakon što su ovi komentari preplavili internet, iz Microsofta su izjavili da su svjesni bugova te da je to sve dio procesa učenja.

Kevin Scott, CTO u Micorosftu je tako novinaru The New York Timesa kazao da mu je drago što se razgovori o alatu vode ovako otvoreno te da bi takve bugove bilo gotovo nemoguće otkriti u kontroliranim uvjetima. Trenutno je, kako prenosi Entrepreneur, preko milijun ljudi na listi čekanja za Bingov chatbot, a Microsoft još ne zna datum službenog lansiranja alata.

21. studeni 2024 21:50