Изјавата, која предупредува на опасностите, ја потпишаа некои од најголемите имиња во индустријата за вештачка интелигенција, како Сем Алтман и Демис Хасабис.
Додека од една страна слушаме дека вештачката интелигенција може да нè доведе до поголем просперитет и благосостојба и да ни го олесни животот со преземање дел од работните места што луѓето ги работат денес, од друга страна, исто така, има предупредувања дека вештачката интелигенција може да доведе до – уништување на човештвото. За вакви можни последици веќе подолго време предупредуваат бројни експерти, а неодамна беше објавено ново такво предупредување, односно соопштение објавено на страниците на Центарот за безбедност на вештачката интелигенција.
Особено интересни се имињата кои ја поддржаа оваа изјава, а станува збор за некои од луѓето кои се најупатени на оваа тема. Имено, таа изјава во која се нагласува дека глобален приоритет, покрај избегнувањето на ризикот од нови пандемии и нуклеарна војна, треба да биде и избегнување на ризикот од уништување што може да го предизвика вештачката интелигенција, ја потпишал и Сем Алтман, првиот човек на OpenAI, Демис Хасабис, извршен директор на Google DeepMind, како и Џефри Хинтон, познат како „кум на вештачката интелигенција“, кој претходно предупреди на опасноста од неконтролираниот развој на вештачката интелигенција.
Како потенцијални катастрофални сценарија за нашата планета, Центарот за безбедност на вештачката интелигенција ја издвои можноста вештачката интелигенција да се користи како оружје (на пример, вештачката интелигенција која може да создаде хемиско оружје), дестабилизацијата на општеството и влијанието на носителите на одлуки преку ширење на лажни вести и дезинформации, потоа акумулациска моќ во рацете на мал број луѓе (која државните режими можат да ја користат за следење, цензура и сл.), како и ситуација кога луѓето би можеле да станат зависни од оваа технологија.
Директорот на Центарот за безбедност на вештачката интелигенција Ден Хендрикс смета дека е неопходно да се одговори на овие проблеми и предизвици што е можно поскоро за да се избегнат потенцијални големи ризици во иднина. Како едно од решенијата се почесто се споменува регулативата, односно носење закони и правила кои би спречиле развојот на оваа технологија да оди во негативна насока. За ова се залагаат некои од водечките луѓе во индустријата, како што е споменатиот Алтман, како и шефот на Google, Сундар Пичаи.
Но, секако, не сите се согласуваат со размислувањата на луѓето кои ја потпишаа и поддржаа таа изјава и сметаат дека ваквите предупредувања се претерани. Како што објасни научникот Арвинд Нарајанан од Универзитетот Принстон за Би-Би-Си, денешната вештачка интелигенција ни приближно не е способна да ги реализира гореспоменатите ризици. Тој смета дека ваквите предупредувања можат само да го одвлечат вниманието од краткорочните проблеми поврзани со вештачката интелигенција и нејзиниот развој. Слично размислува и Јан Лекун од Мета, кој смета дека апокалиптичните предупредувања се претерани.
Поврзани артикли