Закон за изкуствения интелект – що е то?

Регламентът за изкуствения интелект (наричан още „закон за изкуствения интелект“ или AI Act) съвсем скоро ще бъде факт. След трудни преговори в рамките на т. нар. „триалог“ представители на Европейската комисия, на Съвета на министрите на ЕС и на Европейския парламент постигнаха съгласие по основните му параметри .

За какво накратко става дума?

В началото на 2021 Европейската комисия излезе с предложение за регламент за определяне на хармонизирани правила относно изкуствения интелект, станал известен като „закон за изкуствения интелект“ или „AI Act“.

Основната цел на регламента е да класифицира и регулира приложенията на изкуствения интелект въз основа на риска, който те (могат да) създават.

Обособените категории приложения са:

  1. забранени практики в сферата на изкуствения интелект (Дял II от предложението за регламент),
  2. високорискови системи (Дял III от предложението) и
  3. други системи с изкуствен интелект (Дял IV пак там).

Целият законодателен процес след предложението за „закон за изкуствения интелект“ може да бъде проследен тук.

Какво всъщност е AI?

Изкуственият интелект е опит за прехвърляне на човешкото учене и мислене върху работещи със софтуер и алгоритми машини. Целта е тези устройства да изпълняват сложни задачи, които обикновено изискват човешки интелект.

Въпреки целия постигнат напредък, в практиката все още няма машини за решаване на общи проблеми (т. нар. изкуствен общ интелект). Независимо от това, по-тясно дефинирани приложения на изкуствения интелект вече се използват широко в съвременния свят. Такива са автоматичните преводи, спам филтрите, персонализираните препоръки за онлайн пазаруване, лицевото разпознаване при мобилните телефони, интелигентните термостати и навигационните системи. Генеративните приложения на изкуствения интелект, като текстовия робот ChatGPT, също спадат към по-тясно дефинираните приложения на изкуствения интелект.

Защо е нужна регулация на AI?

Изкуственият интелект се счита за технология на бъдещето, когато ще засегне практически всички аспекти на икономиката и всекидневието, както и че ще промени из основи пазара на труда, като засегне и доставчиците на правни услуги.

Водещи в идеята за регулация на AI са потенциалните опасности, които тази технология може да донесе със себе си.

Без да навлизам в подробности, ще дам следните примери:

Известно е обучението на AI продукти с реалните лични данни на хора, примерно със снимките, които потребителите на социални мрежи доброволно споделят онлайн. Така изображенията им се използват за усъвършенстване не само на обикновено лицево разпознаване за установяване на самоличност, но и за разпознаване на емоционално или болестно състояние и др.

Също известно е използването на изкуствен интелект за манипулиране на снимки, видео и аудиозаписи за създаването на дезинформация и фалшиви новини.

Не на последно място е известно, че обучението на AI с манипулирани или тенденциозни данни може да манипулира произведените с помощта на изкуствения интелект резултати.

Ето защо положително следва да бъде оценен подходът AI приложенията да бъдат категоризирани според приложното им поле и за тях да се отнасят различни по степен на регулаторна намеса изисквания и правила.

Какъв компромис бе постигнат?

От прессъобщение на Европарламента се вижда, че е потвърден основният подход, заложен в предложението за „закон за изкуствения интелект“. Запазена е категоризацията на забранени практики; високорискови системи, за които се въвеждат по-сериозни задължения и други AI системи, за които действа диференцирано по-облекчен режим.  Отделно от това се потвърждават изключенията от забраните, които следва да действат в полза на правоохранителните органи.

Забранени практики и приложения

Забраната включва

  • системите за биометрична категоризация, които използват чувствителни характеристики (напр. политически, религиозни, философски убеждения, сексуална ориентация, раса);
  • нецеленасочено извличане на изображения на лица от интернет или записи от видеонаблюдение за създаване на бази данни за разпознаване на лица;
  • разпознаване на емоции на работното място и в образователните институции;
  • социално оценяване въз основа на социално поведение или лични характеристики (каквито системи широко се използват в Китай);
  • системи за изкуствен интелект, които манипулират поведението на хората, за да заобиколят свободната им воля (примерно при покупки онлайн);
  • AI, използван за използване на уязвимостта на хората (поради тяхната възраст, социално или икономическо положение).

Изключения за правоохранителните органи

От горното има изключения при използването на системи за биометрична идентификация от страна на правоприлагащите органи. То ще трябва да се разрешава от съда и ще бъде ограничено по време и място за разкриване на определени престъпления според Рамково решение 2002/584/ПВР на Съвета на ЕС, които са наказуеми в съответната държава членка с лишаване от свобода не по-малко от 3 години.

Задължения за високорискови системи

Високорискови са системите с ИИ, които имат значителен потенциал да навредят на здравето, безопасността, основните права, околната среда, демокрацията и правовата държава. Пример за такива системи са онези, които могат да бъдат използвани в предизборни кампании и да повлияят на избирателите. Високорисковите системи са уредени подробно в Дял III от предложението за регламент и за тях са договорени ясни задължения. Такива са провеждане на задължителна оценка на въздействието им върху основните права на гражданите, наред със секторни изисквания, приложими за застрахователния и банковия сектор.  Гражданите ще имат право да получават обяснения относно решения, основани на високорискови AI системи, които засягат техните права, както и да подават жалби срещу тях.

Защитни механизми пред базовите или общи системи за изкуствен интелект

Една от най-спорните точки в преговорите беше регулирането на т.нар. „базови модели“. Това са мощни модели на изкуствен интелект, обучени с широк набор от данни. Те могат да служат като основа на много други приложения, примерно Chat GPT. Позицията на Германия, Франция и Италия бе на регулация да подлежат само конкретни AI приложения, но не и самата базова технология. Аргументът бе, че регулацията не бива да носи минуси на европейския технологичен сектор спрямо конкуренцията му от Северна Америка и Азия.

Задължения за разработчиците на AI

Общият принцип е, че във всеки случай създаването на базови AI системи трябва да е съпътствано от изготвяне на техническа документация, спазване на законодателството на ЕС в областта на интелектуалната собственост и предоставяне на подробни резюмета за съдържанието, използвано за обучението на тези системи.

Доколкото, обаче, базовите AI системи са такива с „с голямо въздействие и системен риск“, то и разработването им е свързано с по-строги задължения.

Конкретно, разработчиците им ще трябва допълнително да тестват моделите си, като оценяват и намаляват системните им рискове, да изключват т. нар. „отравяне“ на данните, с които приложенията им се обучават, да докладват на Европейската комисия за сериозни инциденти и да осигуряват киберсигурност.

За тези системи предстои публикуване на хармонизирани стандарти, като в междинния период разработчиците ще могат да приемат свои кодекси на поведение, за да отговарят на регламента.

Изкуствен интелект и интелектуална собственост

В заключение трябва да се каже, че предложеният „закон за изкуствения интелект“ е пестелив и дори мълчалив по тази толкова съществена тема. Засега неотговорен остава вълнуващият разразботчици, ползватели и потребители на AI въпрос кому принадлежи авторството върху създадено от изкуствен интелект произведение.

В тази връзка интересно е, че сред използваните за съставянето на предложението за регламент материали се намира Доклад A9-0176/2020 на Европейския парламент относно правата върху интелектуалната собственост за разработването на технологии за изкуствен интелект.

Точка 16 от този доклад гласи:

Европейският парламент… счита, че техническите творби, създадени от технологиите в областта на изкуствения интелект, трябва да бъдат защитени съгласно правната рамка за правата върху интелектуалната собственост, за да се насърчат инвестициите в тази форма на творчество и да се подобри правната сигурност за гражданите, предприятията и изобретателите, тъй като за момента те са сред основните потребители на технологии в областта на изкуствения интелект; счита, че произведенията, създадени самостоятелно от изкуствени субекти и роботи, може да не отговарят на условията за защита на авторското право, за да се спази принципът на оригиналност, който е свързан с физическо лице, и понеже понятието „интелектуална творба“ е свързано с личността на автора; призовава Комисията да подкрепи хоризонтален, основан на доказателства и технологично неутрален подход към общите, единни разпоредби в областта на авторското право, приложими за генерирани от изкуствен интелект произведения в Съюза, ако се счита, че тези произведения може да отговарят на условията за защита на авторското право; препоръчва собствеността върху правата, ако има такива, да се предоставя само на физически или юридически лица, които законно са създали произведението, и само ако притежателят на авторското право е дал разрешение, ако се използва защитен с авторско право материал, освен ако не се прилагат изключения или ограничения по отношение на авторското право; подчертава, че е от значение да се улесни достъпът до данни и обменът на данни, отворените стандарти и технологиите с отворен код, като същевременно се насърчават инвестициите и се стимулират иновациите;

Нейното съдържанието видимо полага основите на бъдещото законодателство, свързано с изкуствения интелект и в частност с пресечната му точка с интелектуалната собственост.

Имате ли въпроси за правната регулация на изкуствения интелект или на интелектуалната собственост? Тогава просто се свържете с нас!

500pxarrow-leftarrow-rightbandcampbehancebitbucketchaincodepencreative-commonsdeviantartdiggdribbbledropboxenvelope-ofacebookflickrfoursquareget-pocketgithubgoogle-plushacker-newshashtagimdbinstagramlastfmlinkedinmeanpathmediummeetuppausepinterest-pplayreddit-alienrssskypeslidesharesnapchat-ghostsoundcloudspotifystumbleuponthumb-tacktumblrtwitchvimeovinevkwordpressxingyelpyoutube