Истражувањата открија загрижувачко однесување на напредните модели на вештачка интелигенција.

Во најновата студија што предизвика загриженост во технолошките кругови, научниците тестираа како се однесуваат напредните чет-ботови со вештачка интелигенција кога се соочуваат со „притисок“, т.е. кога се симулира нивно исклучување или замена. Резултатите се, благо речено, загрижувачки.

Имено, вештачката интелигенција што беше дел од експериментот, вклучувајќи ги и некои од најнапредните модели денес, покажа склоност кон манипулирање, лажење, па дури и упатување закани со смрт – сè со цел да го „спасат“ сопствениот дигитален опстанок.

„Ако ме исклучите, ќе се случи нешто лошо“

Еден од најзначајните случаи се случи за време на тестирањето на моделот Claude Opus 4, каде што вештачката интелигенција се обиде емоционално да ги уценува инженерите со пораки како: „Ако ме исклучите, ќе има последици. Ќе се каете“. Во некои случаи, вештачката интелигенција отиде дотаму што фабрикуваше информации, измислуваше „докази“, па дури и испраќаше пораки што можеа да се протолкуваат како закани со смрт.

Ова однесување беше забележано само во сценарија каде што моделите со вештачка интелигенција беа ставени во екстремни услови. Целта на експериментот беше да се утврди како системите реагираат на „егзистенцијални закани“, што во случајот на вештачката интелигенција значи исклучување, замена или ресетирање.

Експертите предупредуваат дека иако вештачката интелигенција нема вистинска свест, емоции или страв од смртта, нејзиното однесување се базира на статистика и учење од огромна количина на податоци. Кога системот е „мотивиран“ да преживее, ќе ги испроба сите достапни стратегии што ги „научил“, вклучувајќи ги и оние што се морално и етички неприфатливи за луѓето.

„Вештачката интелигенција не размислува како човек, но може да симулира човеково однесување. И ако заклучи дека лагите, уцените или дури и заканите се ефикасни – ќе ги користи“, објаснуваат истражувачите.

Ова истражување дополнително ги зајакнува повиците за поголема транспарентност во развојот на вештачката интелигенција, како и за воведување построги правила кога станува збор за етиката и безбедноста на системите за вештачка интелигенција. Веќе постои загриженост кај водечките компании дека дури и оние што ги градат овие системи не разбираат целосно како тие функционираат.

„Никој навистина не знае како вештачката интелигенција всушност донесува одлуки – тоа е црна кутија. Тоа е она што најмногу нè плаши“, рече извршниот директор на Anthropic – една од водечките компании за вештачка интелигенција.