Според компанијата што го создаде популарниот четбот ChatGPT, новите модели на вештачка интелигенција сè уште халуцинираат.
OpenAI неодамна ги лансираше моделите со вештачка интелигенција o3 и o4-mini, кои се ремек-дела во своите области. Сепак, новите модели на вештачка интелигенција сè уште халуцинираат, или измислуваат работи, и наводно овие халуцинации се почести отколку кај постарите модели на OpenAI.
Според интерните тестови спроведени од OpenAI, o3 и o4-mini (исто така наречени модели на расудување) халуцинираат почесто од претходните модели на компанијата – o1, o1-mini и o3-mini, како и од традиционалните модели на компанијата кои не расудуваат, како што е GPT-4o.
Она што е особено загрижувачко е што OpenAI не знае што ги предизвикува овие проблеми.
Во својот технички опис за o3 и o4-mini, OpenAI вели дека се потребни повеќе истражувања за да се разбере зошто халуцинациите се влошуваат со секој нов модел на расудување. O3 и O4-mini имаат подобри перформанси во некои области, вклучувајќи задачи поврзани со кодирање и математика. Но, бидејќи тие изнесуваат повеќе тврдења генерално, честопати се наведуваат да изнесуваат „поточни тврдења, како и неточни/халуцинантни тврдења“, според извештајот.
Во изминатата година, пошироката индустрија за вештачка интелигенција го префрли својот фокус на модели на расудување откако техниките за подобрување на традиционалните модели на вештачка интелигенција почнаа да покажуваат намалување на продуктивноста. Расудувањето ги подобрува перформансите на моделот на различни задачи без да бара огромни количини на пресметување и податоци за време на обуката.
Сепак, се чини дека расудувањето може да доведе и до повеќе халуцинации – што претставува дополнителен предизвик.
Поврзани артикли