Co Vás zrovna
zajímá.

Regulace umělé inteligence (AI)

Umělá inteligence (artificial intelligence, AI), je téma, které aktuálně hýbe světem a není tomu jinak ani v České republice. Díky rychlému technologickému pokroku přicházejí změny dříve, než na ně stíhají legislativci reagovat.

AI Akt
Prvním pokusem toto změnit se stal návrh nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) a mění určité legislativní akty unie (dále „AI Akt“).

Původním záměrem na poli EU bylo spíše soft-law řešení, jak bylo ostatně nastíněno roku 2020 vydáním Bílé knihy o umělé inteligenci, avšak nakonec byl zvolen legislativní přístup, který vyvrcholil právě zveřejněním návrhu AI Aktu, který spatřil světlo světa už v dubnu roku 2021.

Od té doby došlo k mnohým změnám, zejména byly široké veřejnosti zpřístupněny některé generativní systémy typu ChatGPT, což nutně vedlo k potřebě změny reflektovat, k čemuž došlo 11. 5. 2023 přijetím pozměňovacích návrhů Výborem pro vnitřní trh a Výborem pro občanské věci.

Další posun na sebe nedal dlouho čekat a v polovině června letošního roku schválili poslanci Evropského parlamentu návrh AI Aktu, který bude pokračovat do trialogu s Evropskou komisí a Radou EU. Pokud vše bude postupovat dle plánu, očekává se, že finální znění AI Aktu by mohlo být již koncem tohoto roku.

Obecně
Vzhledem k tomu, že jde o první právní rámec umělé inteligence vůbec, je třeba postupovat při jeho výkladu značně opatrně. Kladenými cíli AI Aktu jsou především zajištění bezpečnosti AI systémů, jež budou uváděny na trh EU, právní jistoty, jejíž nastolení podpoří potřebné investice a inovace v oblasti AI a samozřejmě zlepšení správy a účinného vymáhání stávajících právních předpisů, které upravují základní práva a bezpečností požadavky.

Přestože je EU aktuálně považována za průkopníky právní regulace umělé inteligence není zdaleka velmocí, co se vývoje spojeného s umělou inteligencí týče. V této oblasti vynikají především Spojené státy spolu s Čínou, přičemž EU investuje do výzkumu mnohonásobně méně a pokud bude AI Akt příliš omezující, je možné že se nebudou členské státy EU podílet na technologické revoluci, kterou s sebou umělá inteligence přináší.

Definice umělé inteligence
AI Akt především definuje samotný termín umělé inteligence, který byl doposud spíše vágním pojmem široce využívaným, avšak bez právního podkladu, což by mohlo do budoucnosti činit problémy zejména v otázkách odpovědnosti.

Komise tak přináší definici vycházející z již používané definice Organizací pro hospodářskou spolupráci a rozvoj (OECD), jejíž znění je poměrně technologicky neutrální, aby bylo umožněno její použití i pro budoucí systémy umělé inteligence.

Zkráceně je umělá inteligence definována jako autonomně fungující software, který je schopen generovat obsah, predikce, doporučení nebo rozhodnutí, které ovlivňují prostředí, ve kterém je software nasazený.

Nedílnou součástí definice je i příloha 1 návrhu obsahující seznam technologických přístupů k vývoji umělé inteligence, přičemž s postupnými inovacemi by měl být seznam Komisí doplňován přijímáním aktů v přenesené působnosti.

Jaké novinky AI Akt přináší?
Klasifikaci systémů podle míry rizika
Přestože většina systémů umělé inteligence vykazuje minimální riziko, je třeba provádět kategorizaci rizik a dodržovat povinnosti dle zařazení.

Nařízení pracuje s celkem čtyřmi míry rizik:
(i)    nepřijatelné,
(ii)   vysoké,
(iii)  omezené a
(iv)  nízké nebo minimální.

Systémy umělé inteligence s nepřijatelnou mírou rizika budou zakázané, a to z důvodu jejich rozporu s hodnotami Evropské unie.

Explicitně by mělo být AI Aktem zakázáno uvádět na trh nebo do provozu systémy, které zjevně ohrožují život, zdraví, bezpečnost nebo práva jednotlivců a vytváří nepřijatelné riziko. Konkrétně jde o systémy umělé inteligence, které kognitivně manipulují s chováním lidí či používají tyto podprahové techniky na zranitelné skupiny (např. hlasem ovládané hračky podporující násilí u dětí), slouží orgánům veřejné moci k přidělování sociálního kreditu nebo jsou používané k rozpoznávaní emocí či biometrické identifikaci na dálku v reálném čase.

AI Akt však předpokládá výjimku ze zákazu využívání umělé inteligence na biometrickou identifikaci, a to za účelem stíhání závažných trestných činů (např. terorismu), kdy po schválení soudem bude možné její využití ke zpětné biometrické identifikaci pachatelů.

Pro systémy vykazující vysoké riziko v oblasti života, zdraví a práva fyzických osob navrhuje AI Akt dva odlišné režimy v závislosti na vykonávané funkci ale také konkrétním účelu systému umělé inteligence.

Obecně je možné vysoce rizikové systémy rozdělit do 2 režimů:

(i)    systémy využívané jako součást výrobků regulovaných evropskými předpisy zajištujícími jejich bezpečnost (např. automobily, hračky) a
(ii)   systémy používané v osmi specifických oblastech, kam mimo jiné patří vzdělávání, kritická infrastruktura, zaměstnanost, vymáhání práva a ochrana hranic.

Při využívání systémů umělé inteligence vykazujících vysoká rizika mají být na poskytovatele kladeny přísnější požadavky, mezi které budou patřit zejména:

  • zavedení, uplatňování, zdokumentování a udržování systému řízení rizik, který bude podléhat systematickým aktualizacím a na základě něhož budou přijímána potřebná opatření;
  • vypracování technické dokumentace a její průběžná aktualizace;
  • transparentnost používaného systému umělé inteligence, které je dosaženo mimo jiné opatřením stručného, úplného, věcně správného návodu obsahujícího totožnost a kontaktní údaje poskytovatele, vlastnosti, schopnosti systému včetně zamýšleného účelu a úrovně spolehlivosti a kybernetické bezpečnosti; a
  • potřeba lidského dohledu zaměřeného na prevenci nebo minimalizaci rizik.

Mezi další povinnost poskytovatele systému umělé inteligence, který vykazuje vysoké riziko, by se měla zařadit povinná registrace před samotným uvedením na trh nebo do provozu ve veřejně přístupné databázi spravované Komisí, jež prozatím není dostupná.

Poslední dvě kategorie rizikovosti systémů umělé inteligence jsou bez zásadních požadavků.

V případě systémů umělé inteligence rozpoznávajících emoce, manipulující s obrazovým, zvukovým nebo video obsahem (tzv. deepfakes) či typu chatbot, má být uživatelům známo, že používají systém umělé inteligence a umožněno se rozhodnout v jeho dalším využíváním.

Zbytková kategorie systémů s nízkým nebo minimálním rizikem by neměla být limitována žádnými specifickými požadavky a bude moci být uváděna na trh EU téměř bez potíží. AI Akt však předpokládá vznik kodexů chování, které budou motivovat k dobrovolnému plnění požadavků kladených na systémy umělé inteligence s vysokým rizikem a případně přidají některé další dílčí požadavky v souvislosti s udržitelností životního prostředí.

Kategorii tzv. foundation models
Nově bylo po projednání Evropským parlamentem přidáno odvětví foundation models, čímž parlament reagoval na technologický vývoj spojený s úspěchem ChatGPT.

Základní charakteristikou foundation models je jejich testování na velkém množství dat, schopnost zpracovávat a pochopit různorodé informace, o kterých následně podají obecný výstup a také přizpůsobivost široké škále odlišných úloh.

Vzhledem k potřebě právní regulace za účelem zajištění bezpečnosti, důvěryhodnosti a podpory inovací a celkové konkurenceschopnosti, došlo i ke zveřejnění nových požadavků, které mají být kladeny na poskytovatele. Nově budou muset poskytovatelé tyto modely registrovat v databázi, vytvořit technickou dokumentaci a srozumitelný návod k použití.

Pokud však jde o specifický foundation model známý pod názvem generativní systém umělé inteligence, který je určený k vytváření obsahu, jako je text, obrázky, video i audio, okruh požadavků kladený na poskytovatele se rozšiřuje. Za účelem zachování transparentnosti mají mít poskytovatelé povinnost uvádět, že daný obsah byl vygenerován generativním systémem umělé inteligence a také implementovat dostatečné záruky k zajištění generování obsahu v souladu s právními předpisy.

Nejdiskutovanější je bezesporu požadavek na zveřejňování přehledu dat podléhajících ochraně autorského práva, které generativní systém využívá ke svému vývoji a učení za účelem poskytnutí co nejrelevantnějších informací uživatelům. Tato povinnost má za cíl předcházet porušování autorských práv, kdy generativní systémy často vytvářejí obsah velmi podobný uměleckým dílům, avšak není možné prokázat, zda systém vygeneroval obsah samostatně nebo se ve velké míře inspiroval jiným dílem.

Regulační pískoviště
AI Akt předpokládá zřízení tzv. regulačního pískoviště (sandbox), kontrolovaného prostředí, ve kterém bude umožněno systém umělé inteligence otestovat v reálných podmínkách před jeho uvedením na trh.

Poskytovatelé budou moci v testovacím prostředí využívat osobní údaje, aniž splňují podmínky dle Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (GDPR).

Nové instituce
Další novinkou je plánované zřízení Evropské rady pro umělou inteligenci složené ze zástupců členských států a Komise, jejíž agendu bude tvořit především usnadnění provádění AI Aktu a harmonizace. Na vnitrostátní úrovni budou členské státy povinny zřídit libovolné množství dozorových orgánů, které budou dohlížet na správné provádění AI Aktu.

Výhody/nevýhody a vliv na běžný život
Umělá inteligence je čím dál více využívanou technologií a zasahuje do většiny oblastí každodenního života. Vzhledem k čím dál frekventovanějšímu investování do vývoje umělé inteligence se budeme se systémy umělé inteligence setkávat častěji, přičemž již delší dobu se s nimi setkáváme například v podobě chatbotů, které radí zákazníkům na některých webových stránkách, své využití našla umělá inteligence i při personalizaci reklam, v medicíně, automobilovém průmyslu a mnoha dalších oblastech.

Aktuálně dle publikované zprávy OECD o dopadu umělé inteligence na trh práce jejích členských států[1] spadá přibližně 27 % všech pracovních pozic do kategorie vysoce ohrožených automatizací, přičemž v České republice je procento vyšší, a to 35 %.

Mezi nejvíce ohrožené pozice patří povolání vyžadující vysokou kvalifikaci a léta zkušeností, tj. lidé pracující v oblasti medicíny, financí, práva, strojírenství a obchodu. Paradoxně výzkumy ukazují, že lidé vykonávající povolání v těchto odvětvích využívají umělou inteligenci nejvíce a její přínos hodnotí velmi pozitivně. Přínosy umělé inteligence na pracovní trh pak jsou spojeny nejen se snížením nákladů, ale také se zvýšením produktivity a spokojenosti zaměstnanců, jelikož dojde ke snížení únavných a životu nebezpečných úkolů, což však bude mít podstatný vliv na zrychlení pracovního tempa a kumulaci stresových situací. Mimo výhod spojených s pracovním trhem nabízí umělá inteligence nové možnosti ve veřejné dopravě, energetice, školství a zelené ekonomice.

Na druhou stranu má samozřejmě i umělá inteligence některá negativa. Vzhledem k tomu, že se systémy umělé inteligence neustále vyvíjí a učí, osvojují si nežádoucí vzorce chování a je riziko neobjektivních závěrů ovlivněných diskriminací žen, osob se zdravotním postižením, etnických či jiných menšin. Mimo to bude využívání systémů umělé inteligence znamenat postupný nárůst propuštěných zaměstnanců, zásahů do soukromí jedinců, který je třeba minimalizovat, a dále narušení hospodářské soutěže v situaci, kdy dojde ke kumulaci významných informací pouze některými soutěžiteli.

Jaká je situace u nás?
Česká republika, konkrétně Ministerstvo průmyslu a obchodu, zveřejnila v květnu 2019 schválenou Národní strategii umělé inteligence[2] jako jedna z prvních evropských zemí. Strategie si kladla za cíl podpořit vývoj a využívání umělé inteligence a regulovat případné dopady na některá odvětví. Vzhledem k celkové modernizaci a rozšíření umělé inteligence do mnoha sfér každodenního života dochází aktuálně k veřejné konzultaci, jejíž závěry se mají promítnout na aktualizované verzi strategie, která se již připravuje.

Závěr
Umělá inteligence je na vzestupu a bude čím dál více zasahovat do životů široké veřejnosti. Je proto klíčové se vývoji přizpůsobit a těžit z benefitů, které s sebou umělá inteligence přináší, spíše než podlehnout jejím negativům. Zásadním tématem je pak právní regulace a právní konsekvence užití technologií umělé inteligence v podnikatelských a dalších aktivitách.

V dnešní době dochází při využívání systémů umělé inteligence k situacím, které nejsou právními předpisy blíže řešeny a dostávají se tak poskytovatelé, uživatelé i jiné osoby do právního vakua, které je třeba vyplnit. Přestože je regulace umělé inteligence ještě ve svých začátcích, zveřejněné znění AI Aktu napovídá, jakým směrem se bude EU ubírat.

Vývoj v oblasti regulace umělé inteligence, zejména legislativní proces a následnou implementaci AI Aktu na národní úrovni pro Vás budeme v PEYTON legal sledovat.

 


[1] OECD, OECD Employment Outlook 2023, ARTIFICAL INTELLIGENCE AND THE LABOUR MARKET. V: OECD Publishing. [online]. 11. 07. 2023. [cit.2023-28-07]. Dostupné z: OECD Employment Outlook 2023: Artificial Intelligence and the Labour Market | READ online (oecd-ilibrary.org)

[2] Ministerstvo průmyslu a obchodu, Národní strategie umělé inteligence v České republice. V: mpo.cz. [online]. 06. 05. 2019. [cit.2023-28-07]. Dostupné z: NAIS_kveten_2019.pdf (vlada.cz)

 

Tereza Benešová, právní asistentka – benesova@plegal.cz

Mgr. Jakub Málek, managing partner – malek@plegal.cz

 

www.peytonlegal.cz

 

09.08. 2023

Zpět na články