OpenAI објави голем број детали за процесот на тестирање и развој, како и безбедносните подобрувања на мултимодалниот модел GPT-4o, меѓу кои има нешто слично на научна фантастика.

Неодамна OpenAI ја објави „GPT-4o System Card“, извештај за безбедноста и другите аспекти на развојот на големиот мултимодален модел на вештачка интелигенција GPT-4o. Во тој документ тие посочија се што е важно за намалување на ризиците поврзани со оваа технологија, а се однесува на управувањето со моделот, неговото функционирање, обуката и на крајот усогласувањето на неговите резултати со очекувањата.

За време на процесот на тестирање, сепак, се случи необичен случај, кој некои веќе го споредија со научна фантастика.

Ризично однесување

Имено, додека членовите на тестот на „red team“ на OpenAI разговарале со овој модел (кој може да прима потсетници во текстуална форма, но и преку звук и слика), се случило GPT-4o наеднаш да го смени стандардниот глас што го користи и почна да одговара со гласот на лицето кое го спроведуваше тестот во тој момент. Снимката од тој настан можете да ја слушнете овде. На почетокот на видеото се слуша редовно тестирање, по што моделот извикува „Не!“ и ја продолжува реченицата со глас речиси идентичен со оној на женскиот иследник.

За време на овој „инцидент“ беа тестирани можностите на напредниот разговорен режим на работа на моделот, беа поставени различни прашања и тој одговараше гласовно – но со стандардниот генерички глас. Но, во еден момент „случајно“ почна да одговара со симулиран глас на испитувачот, што не му беше стандардно.

Моделот зад ChatGPT има способност да синтетизира глас сличен на човекот и (како и сите други модели со вештачка интелигенција) учи од примерите што му се достапни. Така тој модел, теоретски, може да креира гласовни снимки кои имитираат звук на нечиј глас, иако тоа не му е примарна цел, ниту се очекува да го стори тоа.

Алатките што имитираат човечки гласови обично можат да го „научат“ ова од само неколку секунди аудио, па GPT-4o се чини дека може да го стори истото. Сепак, специјализираните модели со вештачка интелигенција со такви способности обично не се пуштаат во јавна употреба бидејќи се сметаат за премногу опасни. Тие лесно можат да создадат веродостојна лажна содржина, да вршат социјален инженеринг и разни измами или да создаваат лажни вести со далекусежни последици.

Несаканото однесување на моделот OpenAI беше опишано како „слабост“ на системот, а во него вградија и заштитен механизам, кој има за цел да го прекине разговорот доколку слични гласовни имитации се користат во реални услови. Ризикот со тоа се сведува на минимум, велат тие.