CHAT GPT SVE VIŠE LAŽE I IZMIŠLJA Niko nema objašnjenje zašto
Foto: Shutterstock/Foto: Shutterstock

OpenAI  je otkrio rezultate istraživanja - otkrio je da njihovi najnoviji ChatGPT modeli znatno češće haluciniraju, odnosno izmišljaju lažne informacije u odnosu na ranije modele.

chat gpt

Foto: Shutterstock

 

 

Brojni testovi su pokazali zabrinjavajući trend. O3, koji je najmoćniji sistem kompanije, halucinirao je u čak 33% slučajeva tokom PersonQA testa koji postavlja pitanja o javnim ličnostima.

To je više nego dvostruko veća stopa halucinacija od prethodnog OpenAI-jevog sistema zaključivanja, o1. Novi o4-mini model je pokazao još gore rezultate sa stopom halucinacija od 48%.

Foto: Shutterstock

Foto: Shutterstock

 

 

Rezultati drugog testa su još alarmantniji. Na testu SimpleQA, koji postavlja opštija pitanja, stope halucinacija za o3 i o4-mini bile su čak 51% i 79%.


Ono što dodatno zbunjuje stručnjake je činjenica da upravo najnapredniji modeli veštačke inteligencije imaju sve veći problem sa halucinacijama. Najnovije i najmoćnije tehnologije – takozvani sistemi zaključivanja kompanija poput OpenAI, Google i kineskog startapa DeepSeek – generišu više grešaka.
Openai

Foto: Shutterstock

 

 

U test sistemu, OpenAI je objavio tabelu koja pokazuje da je ChatGPT o3 tačniji od o1, ali će halucinirati dva puta češće. Što se tiče o4-mini, ovaj manji model će proizvesti manje tačne odgovore od o1 i o3, i halucinirati tri puta više od o1.

Bilo bi neodgovorno ignorisati zabrinjavajući trend povećanja halucinacija u najnovijim modelima veštačke inteligencije, što značajno umanjuje njihovu praktičnu vrednost. Kakva god da je istina, jedno je sigurno. Modeli veštačke inteligencije moraju uglavnom izbaciti gluposti i laži ako žele da budu i približno korisni koliko njihovi zagovornici trenutno zamišljaju. 

veštačka inteligencija

Shuterstoock

 

 

To je u redu za neke zadatke. Ali tamo gde je glavna korist ušteda vremena ili rada, potreba za pažljivom proverom i proverom činjenica rezultata veštačke inteligencije zapravo poništava svrhu njihovog korišćenja.

Nije poznato da li će OpenAI i ostatak LLM industrije uspeti da reše sve ove neželjene „robotske snove“, ali jedno je sigurno – put do pouzdane veštačke inteligencije koja ne izmišlja činjenice je očigledno duži nego što se očekivalo, prenosi Nytimes.

PROČITAJTE KLIKOM OVDE NAJVAŽNIJE AKTUELNE VESTI

Komentari (0)

Loading