CHAT GPT SVE VIŠE LAŽE I IZMIŠLJA Niko nema objašnjenje zašto
OpenAI je otkrio rezultate istraživanja - otkrio je da njihovi najnoviji ChatGPT modeli znatno češće haluciniraju, odnosno izmišljaju lažne informacije u odnosu na ranije modele.
Foto: Shutterstock
Brojni testovi su pokazali zabrinjavajući trend. O3, koji je najmoćniji sistem kompanije, halucinirao je u čak 33% slučajeva tokom PersonQA testa koji postavlja pitanja o javnim ličnostima.
To je više nego dvostruko veća stopa halucinacija od prethodnog OpenAI-jevog sistema zaključivanja, o1. Novi o4-mini model je pokazao još gore rezultate sa stopom halucinacija od 48%.
Foto: Shutterstock
Rezultati drugog testa su još alarmantniji. Na testu SimpleQA, koji postavlja opštija pitanja, stope halucinacija za o3 i o4-mini bile su čak 51% i 79%.
Foto: Shutterstock
U test sistemu, OpenAI je objavio tabelu koja pokazuje da je ChatGPT o3 tačniji od o1, ali će halucinirati dva puta češće. Što se tiče o4-mini, ovaj manji model će proizvesti manje tačne odgovore od o1 i o3, i halucinirati tri puta više od o1.
Bilo bi neodgovorno ignorisati zabrinjavajući trend povećanja halucinacija u najnovijim modelima veštačke inteligencije, što značajno umanjuje njihovu praktičnu vrednost. Kakva god da je istina, jedno je sigurno. Modeli veštačke inteligencije moraju uglavnom izbaciti gluposti i laži ako žele da budu i približno korisni koliko njihovi zagovornici trenutno zamišljaju.
Shuterstoock
To je u redu za neke zadatke. Ali tamo gde je glavna korist ušteda vremena ili rada, potreba za pažljivom proverom i proverom činjenica rezultata veštačke inteligencije zapravo poništava svrhu njihovog korišćenja.
Nije poznato da li će OpenAI i ostatak LLM industrije uspeti da reše sve ove neželjene „robotske snove“, ali jedno je sigurno – put do pouzdane veštačke inteligencije koja ne izmišlja činjenice je očigledno duži nego što se očekivalo, prenosi Nytimes.
PROČITAJTE KLIKOM OVDE NAJVAŽNIJE AKTUELNE VESTI

Komentari (0)