Co Vás zrovna
zajímá.

Evropa na cestě k jednotnému právnímu rámci pro regulaci umělé inteligence

Současná situace koronavirové pandemie nás přirozeně přiměla zamyslet se mimo jiné nad otázkou, zdali jako společnost stojíme na hranici rapidního vzestupu v užívání umělé inteligence (AI), a to zejména pokud jde o její využití při výkonu práce. Události posledních měsíců ukázaly, že i díky zavedeným krizovým opatřením v souvislosti se šířením koronaviru se AI velmi rychle včlenila do každodenního života každého z nás. Je zřejmé, že její užívání na denní bázi s sebou přináší velmi výrazná pozitiva zejména ve spojitosti se zvýšením efektivity práce. Na straně druhé přináší zapojení AI do života každého z nás řadu rizik a mnoho dosud ne zcela zodpovězených otázek z právního hlediska, na které se tímto článkem budeme snažit odpovědět.

Bílá kniha o umělé inteligenci

Přestože se užívání AI rapidně rozšířilo zejména v době koronavirové pandemie, vzestup jejího užívání je široce diskutovaným tématem na domácí i zahraniční půdě již několik let. Tyto diskuse již dříve vygenerovaly řadu důležitých otázek, pokud jde o AI a její zapojení do soukromého i pracovního života. Základ pro odpovědi na ně můžeme najít v tzv. Bílé knize o umělé inteligenci (celým názvem Bílá kniha o umělé inteligenci – evropský přístup k excelenci a důvěře), kterou vydala Evropská komise počátkem letošního roku („Bílá kniha“).[1] Bílá kniha deklaruje, že ve věcech AI je zapotřebí jednotného evropského přístupu, který bude vycházet z evropské strategie pro umělou inteligenci, která byla představena v dubnu 2018.[2]

Ačkoliv je Bílá kniha převážně dokumentem obecné povahy, tedy nepřináší konkrétní odpovědi na konkrétní otázky, pokud jde o rizika spojená se zapojením AI do každodenního života, představuje kvalitní základní rámec pro možné řešení těchto rizik. V Bílé knize jsou představeny možnosti politiky, které umožní důvěryhodný, a především bezpečný rozvoj umělé inteligence v Evropě. Bílá kniha zdůrazňuje, že hlavním stavebním kamenem je politický rámec, jehož cílem je spolupráce soukromého a veřejného sektoru a vytvoření správné pobídky k rapidnějšímu přijímání řešení problémů souvisejících s užíváním AI.

Bílá kniha obecně shrnuje problémy, kterým Evropská unie (EU) ve vztahu k AI čelí, včetně nutnosti zabezpečit přístup k potřebným datům a uvádí pět možných konkrétních přístupů:

  1. dobrovolné označení (např. oficiální označení etická či důvěryhodná AI);
  2. sektorové požadavky pro veřejnou správu a rozpoznávání obličejů (v nich je zmíněna právě překvapivá možnost plošného zákazu využití těchto systémů);
  3. povinné požadavky na aplikaci ve vysoce rizikových odvětvích (např. zdravotnictví či doprava);
  4. revidovaná právní úprava bezpečnosti a odpovědnosti; a
  5. systém přísného dohledu státní správy.

Bílá kniha obecně pracuje s konceptem rizikovosti odvětví, ve kterém má být AI implementována a podle míry rizika by se pak měla zavádět odpovídající opatření její regulace – přístup založený na posouzení míry rizika.

Bílá kniha současně představuje cesty, které mohou umožnit důvěryhodný a bezpečný rozvoj AI v Evropě při plném respektování hodnot a práv občanů EU.

Dle Bílé knihy rozvoj AI vyžaduje, aby se právní předpisy zavádějící její regulaci zaměřily na následující klíčové aspekty k pokrytí všech rizik v souvislosti s bezpečností a odpovědností:

  1. lidské působení a dohled;
  2. technická adekvátnost a bezpečnost;
  3. ochrana soukromí a dat;
  4. transparentnost;
  5. rozmanitost, nediskriminace a spravedlnost;
  6. společenský a environmentální blahobyt; a
  7. odpovědnost.

Bílá kniha se nyní nachází ve veřejném konzultačním procesu, který je otevřen až do 14. 6. 2020.

Definice AI

Ačkoliv je AI skloňována všemi možnými způsoby, zásadní otázkou zůstává, jak ji definovat.

Podle dokumentu vydaného seskupením High-Level Expert Group on Artificial Intelligence (AI HLEG) s názvem A definition of AI: Main capabilities and scientific disciplines je definice AI následující: „Systémy umělé inteligence (AI) jsou softwarové (ale také hardwarové) systémy vytvořené lidmi, kterým je dán komplexní úkol jednat ve fyzické nebo digitální dimenzi za pomoci vnímání svého okolí sběrem dat, interpretace sbíraných strukturovaných nebo nestrukturovaných dat, odůvodňování znalostí nebo zpracovávání informací získaných z dat a vybírání nejlepšího jednání za účelem dosažení stanoveného cíle. Systémy AI mohou využívat symbolická pravidla nebo se učit číselné modely a mohou také přizpůsobit své chování na základě analýzy toho, jak jejich předcházející chování ovlivnilo jejich prostředí.“.[3]

Bílá kniha pak přichází s vlastní zjednodušenou definicí AI, podle které je AI „soubor technologií, které kombinují data, algoritmy a výpočetní sílu“, a s níž budeme v našem článku dále pracovat.

Rizika spojená s používáním umělé inteligence

I když AI může přinést mnoho pozitiv, například větší bezpečnost výrobků a přesnost postupů, může rovněž v důsledku jejího užití vznikat újma. Tato újma může být jak fyzická, tak nehmotná, a může souviset s celou řadou rizik.

Hlavní rizika spojená s používáním AI se týkají uplatňování pravidel, jejichž účelem je ochrana základních práv člověka, jakož i otázek souvisejících s bezpečností a odpovědností. Zásadní změnou ve fungování lidské společnosti v tomto ohledu je, že AI nyní může zastávat řadu funkcí (tj. profesí), které dosud mohli vykonávat pouze lidé. V důsledku toho se mohou osoby stále více setkávat s opatřeními a rozhodnutími přijatými systémy AI, nebo s jejich pomocí, která mohou být někdy obtížně srozumitelná, a proti kterým může být v případě nutnosti obtížné se právně účinně bránit. Je nutné podotknout, že stávající právní předpisy v oblasti bezpečnosti výrobků již podporují rozšířenou koncepci bezpečnosti, která chrání před všemi druhy rizik plynoucích z produktu podle jeho použití.

Domníváme se tedy, že pro zvýšení právní jistoty osob by bylo vhodné zavést takovou právní regulaci, která by se výslovně vztahovala na nová rizika. Specifické vlastnosti mnoha technologií AI, včetně neprůhlednosti (tzv. efekt černé skříňky), složitosti, nepředvídatelnosti a částečného autonomního chování, mohou totiž vést ke ztížené možnosti ověření dodržování právních předpisů.

Odpovědnost za používání AI a nynější praxe

Pokud jsou technologie AI součástí výrobků a služeb, mohou pro uživatele představovat nová bezpečnostní rizika. Například v důsledku chyby v technologii rozpoznávání předmětů může autonomní automobil nesprávně identifikovat objekt na silnici a způsobit nehodu, při níž dojde ke zranění a materiální, ale i nemateriální, újmě. Evropská komise se zprvu přikláněla k pokrytí právního rámce pro odpovědnost prostřednictvím Směrnice o odpovědnosti za (vadné) výrobky (směrnice 85/374/EHS), nyní se však jeví, že se vydá cestou vytvoření nové samostatné právní úpravy pro odpovědnost, a to zejména kvůli specifické charakteristice AI, která mění vlastnosti nejen mnoha výrobků ale i služeb.

Jak již bylo řečeno, Bílá kniha v tomto ohledu představuje pouze obecný rámec pro možnou budoucí regulaci, avšak staví člověka do středu dění a nastavení AI. K Bíle knize je připojena tzv. „Zpráva o dopadech umělé inteligence, internetu věcí a robotiky na bezpečnost a odpovědnost“[4], která se zabývá mimo jiné i otázkou odpovědnosti a směry obsažené v této zprávě budou jistě předmětem mnoha dalších diskusí na toto téma.

Domníváme se, že nyní, kdy je rámec pro právní regulaci odpovědnosti AI pouze obecný, je třeba ve vztahu k vyřešení otázky odpovědnosti za újmu způsobenou AI užít stávajících právních předpisů. Vnitrostátní režim, který lze aplikovat na odpovědnost v souvislosti s umělou inteligencí podle českého právního řádu, nalezneme v zákoně č. 89/2012 Sb., občanský zákoník, ve znění pozdějších předpisů (dále jen „Občanský zákoník“).

Pokud zohledníme přístup Bíle knihy, který staví člověka v rámci AI do centra dění, jelikož každou AI technologii nastavuje člověk a při užívání AI je stále do určité míry potřeba lidského působení ve formě dohledu, lze na odpovědnost aplikovat ustanovení § 2937 Občanského zákoníku, podle kterého způsobí-li škodu věc sama od sebe, nahradil by škodu ten, kdo nad věcí měl mít dohled; nelze-li takovou osobu určit, platí, že touto sobou je vlastník věci. Kdo by pak prokázal, že náležitý dohled nezanedbal, zprostí se povinnosti k náhradě.

Za předpokladu, že dojde k úplné autonomizaci AI, pak lze na odpovědnost aplikovat ustanovení § 2939 Občanského zákoníku, podle kterého by škodu způsobenou vadou movité věci určené k uvedení na trh jako výrobek za účelem prodeje, nájmu nebo jiného použití nahradil ten, kdo výrobek nebo jeho součást vyrobil nebo jinak získal, a společně a nerozdílně s ním i ten, kdo výrobek nebo jeho část označil svým jménem, ochrannou známkou nebo jiným způsobem.

Je zřejmé, že s ohledem na vysokou rizikovost implementace AI do každodenního života bude otázka odpovědnosti za AI pravděpodobně nejvíce palčivá. Odpovědnost za lidské životy, ať už při dopravních nehodách způsobených autonomními vozidly či odpovědnost za AI při poskytování zdravotní péče, bude jistě znamenat povinnost úhrady vysokých náhrad. To může být pro některé společnosti likvidační, a proto bude třeba do budoucna jistě zvážit možnosti zavedení pojistného systému právě s ohledem na užívání AI.

Závěr

Právní rámec pro AI má stále celou škálu otevřených otázek, které se odvíjí od míry rizik spojených s užíváním AI. K právní úpravě AI, či začlenění AI do stávajících právních úprav, je a bude třeba přistupovat komplexně, jelikož užívání AI se dotýká více právních oblastí, a to mimo jiné zejména institutu odpovědnosti, ochrany soukromí a osobních údajů, lidských práv a také kyberbezpečnosti. Právní úprava odpovědnosti se nejspíše bude odvíjet od míry lidského působení a dohledu nad AI.

Kromě toho je třeba zdůraznit, že navzdory všem výše zmíněným rizikům je AI strategickou technologií, která nabízí mnoho výhod pro občany, obchodní společnosti a občanskou společnost jako celek. O to víc výhod v ní může svět vidět po situaci způsobené koronavirovou epidemií, kdy se významná část života přesunula do virtuálního světa. Mnozí zaměstnavatelé (podnikatelé) využívající AI si tak mohou uvědomit, že AI nabízí významné zvýšení účinnosti a produktivity práce, a mimo jiné také to, že AI může rovněž přispět k nalezení řešení některých problémů spojených s udržitelností a demografickými změnami.

 

Pokud byste měli k předmětnému tématu jakékoli dotazy, neváhejte se na nás obrátit.

 

JUDr. Jáchym Stolička, advokátní koncipient – stolicka@plegal.cz

Tereza Pšenčíková, LL.B., LL.M., právník – psencikova@plegal.cz

Mgr. Jakub Málek, partner – malek@plegal.cz

 

www.peytonlegal.cz

 

02. 06. 2020

 

[1] Bílá kniha o umělé inteligenci – evropský přístup k excelenci a důvěře, dostupné z: https://op.europa.eu/cs/publication-detail/-/publication/aace9398-594d-11ea-8b81-01aa75ed71a1

[2] Umělá inteligence pro Evropu, dostupné z: https://ec.europa.eu/transparency/regdoc/rep/1/2018/CS/COM-2018-237-F1-CS-MAIN-PART-1.PDF

[3] HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE. A Definition of AI: Main Capabilities and Disciplines: Definition developed for the purpose of the AI HLEG’s  [online]. 2019 [cit. 2019-04-26]. Dostupné z: https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=56341

[4] ZPRÁVA KOMISE EVROPSKÉMU PARLAMENTU, RADĚ A EVROPSKÉMU HOSPODÁŘSKÉMU A SOCIÁLNÍMU VÝBORU, Zpráva o dopadech umělé inteligence, internetu věcí a robotiky na bezpečnost a odpovědnost ze dne 19.2.2020. Dostupné z: https://op.europa.eu/en/publication-detail/-/publication/4ce205b8-53d2-11ea-aece-01aa75ed71a1/language-cs

 

 

Zpět na novinky
Odebírejte naše publikace