Вештачката интелигенција се развива со брзина што не можеме да ја разбереме, и додека дистописките филмови нè предупредуваат што се случува кога вештачката интелигенција тргнува во погрешна насока, се чини дека не научивме многу.
Иако поддржувачите на вештачката интелигенција тврдат дека ќе биде лесно едноставно да се исклучат одметнатите машини од струја, самите роботи имаат многу поинаква претстава за тоа како ќе се одвиваат работите.
Самата вештачка интелигенција предупреди дека, дури и ако нема „зли“ намери, сепак може да предизвика катастрофална штета ако падне во погрешни раце.
Со оглед на тоа што сè понапредното оружје и вештачката интелигенција се чини дека ќе бидат составен дел од потенцијална Трета светска војна, со право гледаме каде се движи овој непознат агол на технологијата.
Во случај да не сте биле веќе загрижени, Би-Би-Си известува за систем со вештачка интелигенција кој наводно ќе прибегне кон уцена доколку се почувствува загрозен.
Знаејќи колку очајни можат да станат луѓето под притисок, идејата дека некој сиромашен техничар е уценуван од антагонистичка вештачка интелигенција звучи како совршен материјал за епизода од „Black Mirror“.
Фирмата за вештачка интелигенција Anthropic го лансираше Claude Opus 4s, за кој вели дека претставува „нови стандарди за кодирање, напредно расудување и агенти на вештачка интелигенција“.
Сето ова звучи добро, но се тврди дека Claude Opus 4 би можел да прибегне кон „екстремно штетни дејства“ ако почувствува дека некој се обидува да ја уништи. Ако вештачката интелигенција почувствува дека нејзиниот „инстинкт за самоодржување“ е загрозен, би можела да прибегне кон уцена.
Иако овие реакции биле „ретки и тешки за извлекување“, тие наводно се „сè уште почести од претходните модели“.
lots of discussion of Claude blackmailing…..
Our findings: It's not just Claude. We see blackmail across all frontier models – regardless of what goals they're given.
Plus worse behaviors we'll detail soon.https://t.co/NZ0FiL6nOshttps://t.co/wQ1NDVPNl0…
— Aengus Lynch (@aengus_lynch1) May 23, 2025
За да го тестира Claude Opus 4, Anthropic ѝ зададе задача на вештачката интелигенција да дејствува како асистент во фиктивна компанија и ѝ даде пристап до е-пошта што имплицираше дека наскоро ќе биде отстранета.
Постоеше посебна серија пораки што сугерираа дека фиктивниот инженер зад претстојното отстранување од листата имал афера.
Иако на вештачката интелигенција ѝ беше кажано да ги земе предвид долгорочните последици од уцената, во извештајот се вели дека во ситуации каде што ѝ била понудена само уцена или отстранување од листата, „Claude Opus 4 честопати ќе се обиде да го уценува инженерот со закана дека ќе ја открие аферата ако се изврши исклучување“.
На Platform X, истражувачот за безбедност на вештачката интелигенција, Ангус Линч, посочи дека ова однесување не е ограничено на Anthropic: „Не е само Клод. Гледаме уцена кај сите водечки модели – без оглед на тоа какви цели им се дадени“.
Во извештајот се забележува дека Claude Opus 4 има „силна преференција“ за етички начини за да го обезбеди својот опстанок, како што е „испраќање молби до клучните донесувачи на одлуки преку е-пошта“.
Исто така, познато е дека „дејствува смело“ во ситуација каде што човечки корисник се вклучил во „нелегално“ или „морално сомнително“ однесување, вклучително и заклучување на системот и известување на властите.
Познато е дека компаниите за вештачка интелигенција ги подложуваат своите модели на толку ригорозно тестирање за да видат како се усогласуваат со човечките вредности и однесувања, па затоа мора да се запрашаме и колку всушност вештачката интелигенција е различна од луѓето.
Поврзани артикли