Нови правила за транспарентност за моделите за вештачка интелигенција (AI) за општа намена, како што се ChatGPT и Gemini, стапија на сила во Европската Унија.

Според новите правила, програмерите мора да откријат како функционираат нивните модели и кои податоци биле користени за обука, објави францускиот весник „Ле Монд“.

За понапредните модели, кои носат поголеми ризици, безбедносните мерки мора да бидат документирани.

Овие правила овозможуваат подобра заштита на авторските права, бидејќи развивачите мора да ги декларираат изворите на податоци што ги користат, вклучително и секое автоматско собирање податоци од интернет.

Исто така, мора да се спроведат мерки за заштита на интелектуалната сопственост.

27-те земји-членки мора да ја информираат Европската комисија кои национални органи ќе бидат одговорни за обезбедување на правилно спроведување на правилата.

Законот предизвика тензии меѓу ЕУ и САД, бидејќи американските компании, вклучувајќи ги Google и Meta, не се заинтересирани за регулативи што би можеле да го забават развојот на технологијата за вештачка интелигенција во Европа.

Иако ЕУ издаде кодекс на добри практики, многу големи американски компании се спротивставуваат на законите што би ги обврзале на поголем надзор и одговорност.

Програмерите што го прекршуваат законот би можеле да бидат казнети до седум проценти од нивните глобални приходи.

Законот, исто така, вклучува одредби за високоризични системи за вештачка интелигенција во чувствителни сектори, како што се образованието, енергетската инфраструктура и граничната контрола.