Европейският законодателен акт за изкуствения интелект (ИИ) влиза в сила от днес, 01.08.2024 г. Това е първият в света всеобхватен регламент, свързан с ИИ, който има задачата да гарантира, че разработеният и използваният в ЕС ИИ е надежден и осигурява защита на основните човешки права.
С регламента се създава хармонизиран вътрешен пазар за ИИ, като се насърчава внедряването на тази технология и се способства благоприятна среда за иновации и инвестиции.
В Акта за ИИ се въвежда определение за технологията, основано на:
- Минимален риск – повечето системи с ИИ (напр. системите за препоръчване и филтрите за спам) попадат в тази категория. Те не са обект на задължения по Закона за ИИ поради минималния риск за правата и безопасността на гражданите. Дружествата могат доброволно да приемат допълнителни кодекси за поведение;
- Специфичен риск за прозрачността – системите с ИИ като чатботовете трябва ясно да съобщават на потребителите, че взаимодействат с машина;
- Висок риск – системите с ИИ, определени като високорискови, ще трябва да отговарят на строги изисквания, вкл. за намаляване на риска, високо качество на наборите от данни, регистриране на дейностите, подробна документация, ясна информация за потребителите, човешки надзор и високо ниво на надеждност, точност и киберсигурност. Такива високорискови системи включват напр. системи, които се използват за набиране на персонал, за оценка на това дали някой има право да получи заем, или за управление на автономни роботи;
- Неприемлив риск – системите с ИИ, за които се счита, че представляват явна заплаха за основните човешки права, ще бъдат забранени. Това включва системи или приложения на ИИ, които манипулират човешкото поведение, за да заобиколят свободната воля на потребителите, като напр. играчки, използващи гласова помощ, насърчаващи опасно поведение на непълнолетни лица, системи, които позволяват “социално точкуване” от страна на правителства или компании, и някои приложения на прогнозната полицейска дейност.
Законът за ИИ въвежда и правила за т.нар. модели на ИИ с общо предназначение, които представляват високоспособни модели на ИИ, предназначени да изпълняват голямо разнообразие от задачи, напр. генериране на текст, подобен на човешкия. Моделите на ИИ с общо предназначение все по-често се използват като компоненти на приложенията на ИИ. Актът за ИИ ще осигури прозрачност по веригата на стойността и ще адресира възможните системни рискове на най-способните модели. Консултация на Европейската комисия във връзка с Кодекса на добрите практики за доставчиците на модели на ИИ с общо предназначение можете да попълните тук.
В срок до 02.08.2025 г. държавите-членки имат задължение да определят националните компетентни органи, които ще следят за прилагането на правилата за системите с ИИ и ще извършват дейности по надзор на пазара. Службата за ИИ на Европейската комисия ще бъде основният орган за прилагане на Акта за ИИ на ниво ЕС, както и органът, който ще следи за прилагането на правилата за моделите с ИИ с общо предназначение.
На дружествата, които не спазват правилата, ще бъдат налагани глоби. Глобите могат да достигнат до 7% от глобалния годишен оборот за нарушения на забранените приложения на ИИ, до 3% за нарушения на други задължения и до 1,5% за предоставяне на невярна информация.
По-голямата част от правилата на Закона за ИИ ще започнат да се прилагат на 02.08.2026 г. Въпреки това забраните за системи с ИИ, за които се счита, че представляват неприемлив риск, ще се прилагат още след 6 месеца, а правилата за т.нар. модели с ИИ с общо предназначение ще се прилагат след 12 месеца.