Zákon o umělé inteligenci (AI Act)

Zákon o umělé inteligenci (AI Act)

AI Act EU je první globální právní rámec věnovaný umělé inteligenci, zajišťující bezpečnou, etickou a transparentní AI díky třídění systémů podle rizika a nastavení přísných standardů souladu.

Přehled zákona o AI

Zákon o umělé inteligenci (AI Act) je zásadní regulační rámec představený Evropskou unií (EU) pro dohled nad vývojem a využíváním technologií umělé inteligence. Schválený v květnu 2024 je prvním globálním právním rámcem věnovaným AI. Hlavním cílem zákona je zajistit bezpečné a spolehlivé prostředí pro AI řešením etických, společenských i technických výzev. Směřuje vývoj AI v souladu s evropskými hodnotami a klade důraz na transparentnost, spravedlnost a odpovědnost.

AI Act se vyznačuje širokým záběrem – reguluje AI systémy na základě úrovně rizika a způsobu využití. Platí pro AI systémy vytvořené v EU i ty, které jsou uváděny na trh, používány, nebo jejichž výstupy ovlivňují EU. Tento přístup zajišťuje, že každá AI ovlivňující občany nebo podniky EU splňuje stejně vysoké standardy bez ohledu na místo vývoje.

EU protected against AI

Rozsah a působnost zákona o AI

AI Act se vztahuje na různé účastníky AI ekosystému, včetně:

  • Poskytovatelé: Organizace, které vyvíjejí a dodávají AI systémy pod svou značkou. Musí zajistit, že jejich AI systémy splňují požadavky zákona před vstupem na trh EU.
  • Uživatelé (nasazovatelé): Firmy nebo jednotlivci využívající AI systémy. Jejich využití musí být v souladu s regulací, zejména u systémů s vysokým rizikem.
  • Dovozci a distributoři: Subjekty, které uvádějí AI systémy do EU nebo je v regionu distribuují, musí dodržovat konkrétní pravidla pro zajištění souladu.
  • Výrobci: Firmy, které integrují AI do svých produktů, podléhají zákonu, pokud jsou jejich produkty prodávány v EU.

Zákon definuje AI systémy široce, včetně strojových systémů, které autonomně vytvářejí výstupy jako předpovědi, doporučení či rozhodnutí. Některé kategorie AI, například používané pro vědecký výzkum a vývoj (R&D) či v kontrolovaných testovacích prostředích před nasazením, jsou ze zákona vyjmuty.

Klíčové rysy zákona o AI

Přístup založený na riziku

AI Act využívá klasifikační systém podle rizika při regulaci AI systémů. Rozděluje je do čtyř úrovní rizika:

  1. Nepřijatelné riziko: AI systémy, které jsou škodlivé nebo odporují hodnotám EU, jsou zakázány. Patří sem například technologie jako sociální skórování nebo AI manipulující lidským chováním za účelem škody.
  2. Vysoké riziko: Do této kategorie spadají například biometrické identifikační nástroje, zdravotnická zařízení a řízení kritické infrastruktury. Musí splňovat přísné požadavky, jako je testování, vedení dokumentace a zajištění lidského dohledu.
  3. Omezené riziko: Tyto systémy, často využívané pro vzdělávání nebo zábavu, musí splnit požadavky na transparentnost, například informovat uživatele, že komunikují s AI.
  4. Minimální nebo žádné riziko: Většina AI aplikací, například doporučovací systémy v e-commerce, spadá do této kategorie a podléhá malým či žádným regulacím.

Správa a dodržování

AI Act zavádí systém správy pro zajištění souladu, který zahrnuje:

  • Evropská rada pro umělou inteligenci: Koordinuje uplatňování AI Act napříč členskými státy EU, zajišťuje jednotnost a poskytuje metodické vedení.
  • Národní dozorové orgány: Každý členský stát EU musí určit orgány dohlížející a vymáhající dodržování zákona na svém území.
  • Exteritoriální působnost: Zákon platí na každý AI systém ovlivňující EU, i když byl vyvinut mimo oblast Unie.

Pravidla pro generativní AI

Zákon obsahuje speciální pravidla pro generativní AI systémy jako ChatGPT. Vývojáři těchto systémů musí splnit požadavky na transparentnost a bezpečnost, například zveřejnit metody trénování, použité datové sady a možné předsudky.

Klasifikace AI: Systém založený na riziku

Klasifikační systém podle rizika

Evropský zákon o umělé inteligenci (AI Act) využívá systém klasifikace podle rizika pro regulaci AI technologií. Tento systém přizpůsobuje míru regulace potenciálním rizikům spojeným s využitím AI. Rozdělením AI systémů do čtyř konkrétních úrovní – Nepřijatelné, Vysoké, Omezené a Minimální nebo žádné riziko – se EU snaží vyvážit technologický pokrok s bezpečností veřejnosti a etickými standardy. Každá kategorie zahrnuje specifické požadavky a odpovědnosti pro vývojáře, uživatele i další aktéry v oblasti AI.

Úrovně rizika a jejich dopady

Nepřijatelné riziko

AI systémy zařazené do kategorie „Nepřijatelné riziko“ jsou považovány za přímou hrozbu základním právům, bezpečnosti nebo hodnotám EU. Tyto systémy jsou podle zákona zakázány kvůli své škodlivosti. Příklady zahrnují:

  • Subliminální manipulace: Systémy skrytě ovlivňující lidské chování za účelem škody, například manipulace s rozhodnutím voličů bez jejich vědomí.
  • Zneužití zranitelnosti: AI zaměřená na jednotlivce kvůli zranitelnosti (věk, postižení, ekonomická situace) s cílem způsobit škodu. Například interaktivní hračky vybízející děti k nebezpečnému jednání.
  • Sociální skórování: Systémy hodnotící jednotlivce na základě chování či charakteristik, například posuzování úvěruschopnosti podle aktivit na sociálních sítích, což vede k nespravedlivým důsledkům.
  • Biometrická identifikace v reálném čase na veřejnosti: Systémy rozpoznávání obličeje využívané k dohledu, s výjimkou specifických případů (například policejní zásahy se soudním povolením).
  • Rozpoznávání emocí a biometrická kategorizace: AI odhadující citlivé údaje jako etnický původ či politické názory, zejména v citlivém prostředí jako jsou školy či pracoviště.

Tato omezení odrážejí závazek EU k etické AI respektující lidská práva.

Vysoké riziko

AI systémy s vysokým rizikem významně ovlivňují zdraví, bezpečnost nebo základní práva. Nejsou zakázány, ale musí splnit přísné požadavky na transparentnost a odpovědnost. Příklady zahrnují:

  • Kritická infrastruktura: AI spravující klíčové systémy jako doprava, kde selhání může ohrozit životy.
  • Vzdělávání a zaměstnanost: Systémy ovlivňující přístup ke vzdělání nebo práci, například algoritmy pro hodnocení testů či filtrování žádostí o zaměstnání.
  • Zdravotnictví: AI začleněná do lékařských zařízení nebo rozhodovacích procesů, třeba při robotické chirurgii.
  • Veřejné služby: Nástroje určující nárok na půjčky nebo sociální dávky.
  • Právo a pohraniční kontrola: AI využívaná při vyšetřování trestných činů nebo zpracování víz.

Vývojáři a uživatelé AI s vysokým rizikem musí dodržovat přísné standardy, jako je vedení podrobné dokumentace, zajištění lidského dohledu a provádění posouzení shody ke snížení rizik.

Omezené riziko

AI systémy s omezeným rizikem mají střední potenciál rizika. Musí splnit požadavky na transparentnost, aby uživatelé věděli, že komunikují s AI. Příklady zahrnují:

  • Chatboti: Systémy povinné informovat uživatele, že nejsou člověkem.
  • Doporučovací algoritmy: AI navrhující produkty, zábavu nebo obsah uživatelům.

Ačkoli jde o méně rizikové systémy, AI Act stanovuje základní etické standardy pro budování důvěry a odpovědnosti.

Minimální nebo žádné riziko

Většina AI aplikací, včetně obecných nástrojů jako překladače či vyhledávače, spadá do této kategorie. Tyto systémy podléhají minimálním nebo žádným regulačním omezením a umožňují svobodný rozvoj inovací. Příklady: AI pro zvyšování produktivity, virtuální asistenti pro osobní užití.

Pravidla pro generativní AI systémy

AI Act zavádí zvláštní opatření pro generativní AI systémy jako ChatGPT či DALL-E, které vytvářejí text, obrázky či kód. Tyto systémy se klasifikují podle zamýšleného využití a možného dopadu. Klíčové požadavky zahrnují:

  • Požadavky na transparentnost: Vývojáři musí zveřejnit použité datové sady pro trénování a označovat obsah generovaný AI.
  • Bezpečnostní a etické zásady: Generativní AI musí snižovat předsudky, bránit dezinformacím a odpovídat etickým standardům.
  • Odpovědnostní opatření: Společnosti musí poskytovat podrobnou dokumentaci o architektuře modelu, zamýšleném využití a omezeních.

Zajištění souladu: Rámec správy

Úloha správy v evropském AI Actu

Evropský zákon o umělé inteligenci (AI Act) zavádí rámec správy pro zajištění dodržování pravidel. Tento rámec podporuje transparentnost, odpovědnost a jednotné uplatňování napříč členskými státy. Chrání také základní práva a současně podporuje vývoj důvěryhodných AI technologií. Klíčovými institucemi jsou Evropská rada pro umělou inteligenci (EAIB) a Evropský úřad pro AI, které spolupracují s národními orgány na vymáhání a monitorování AI Actu.

Evropská rada pro umělou inteligenci (EAIB)

Evropská rada pro umělou inteligenci (EAIB) je hlavním orgánem správy zákona o AI. Působí jako poradní a koordinační autorita, aby bylo právo uplatňováno jednotně v celé EU.

Hlavní odpovědnosti

  • Koordinace a dohled:
    EAIB slaďuje úsilí národních orgánů zodpovědných za vymáhání AI Act. Jejím cílem je, aby členské státy regulovaly AI jednotně a snižovaly rozdíly ve výkladu a prosazování pravidel.
  • Pokyny a doporučení:
    Rada poskytuje rady k aplikaci AI Act. Vytváří pokyny, návrhy delegovaných aktů a další regulační nástroje. Tyto zdroje upřesňují pravidla zákona a usnadňují jejich pochopení i provádění.
  • Tvorba politik:
    EAIB se podílí na formování evropské AI politiky. Poskytuje vedení v oblasti inovačních strategií, mezinárodní spolupráce a dalších iniciativ, které mají udržet EU konkurenceschopnou v oblasti AI.

Struktura správy

EAIB tvoří zástupci z každého členského státu EU, podporovaní Evropským úřadem pro AI, který funguje jako její sekretariát. Jednání rady se účastní také pozorovatelé (například Evropský inspektor ochrany údajů a zástupci zemí EHP-EFTA). Pracovní skupiny v rámci EAIB se zaměřují na konkrétní oblasti politiky, podporují spolupráci a sdílení osvědčených postupů.

Evropský úřad pro AI

Evropský úřad pro AI je hlavní centrum EU pro správu AI. Úzce spolupracuje s EAIB a členskými státy na podpoře implementace AI Actu. Jeho úlohou je zajistit, aby AI technologie byly vyvíjeny bezpečně a odpovědně.

Klíčové funkce

  • Expertíza a podpora:
    Úřad slouží jako znalostní centrum EU pro AI. Poskytuje technickou a regulační podporu členským státům. Také posuzuje AI modely obecného určení, zda splňují bezpečnostní a etické standardy.
  • Mezinárodní koordinace:
    Úřad podporuje globální spolupráci při správě AI prosazováním evropského regulačního přístupu jako mezinárodního standardu. Spolupracuje i s vědci, průmyslem a občanskou společností na tvorbě politik.
  • Vymáhání:
    Úřad má pravomoc hodnotit AI systémy, požadovat informace a ukládat sankce poskytovatelům AI modelů obecného určení, kteří nedodrží AI Act.

Exteritoriální působnost AI Actu

AI Act platí jak pro subjekty v EU, tak pro ty mimo Unii, které dodávají AI systémy na trh EU nebo používají AI ovlivňující občany EU. Exteritoriální ustanovení zajišťuje dodržování vysokých standardů zákona i na globální úrovni a stanovuje model pro mezinárodní správu AI.

Srovnání s GDPR

Rámec správy AI Actu má podobné rysy jako obecné nařízení o ochraně osobních údajů (GDPR), zejména ve struktuře a cílech.

  • Centralizovaný dohled:
    Stejně jako Evropský sbor pro ochranu osobních údajů dle GDPR poskytuje EAIB centralizovaný dohled nad správou AI. To zajišťuje jednotnost v celé EU.
  • Exteritoriální dosah:
    Oba předpisy – AI Act i GDPR – rozšiřují svou působnost mimo hranice EU, což podtrhuje snahu Unie nastavit globální standardy digitální regulace.
  • Důraz na základní práva:
    Oba předpisy chrání základní práva. Kladou důraz na transparentnost, odpovědnost a etické aspekty ve svých oblastech.

AI Act však řeší výzvy specifické pro AI, jako je kategorizace rizik a regulace generativních AI systémů.

Regulace AI v globálním měřítku

AI Act jako globální vzor

Evropský zákon o umělé inteligenci (AI Act) stanovuje globální příklad, jak účinně regulovat AI. Jako první detailní právní rámec pro AI nabízí návod dalším regionům, jak čelit etickým, právním a společenským výzvám spojeným s AI technologiemi. Zavádí systém klasifikace podle rizika, podporuje transparentnost a klade důraz na ochranu základních práv, čímž vytváří silný a moderní regulační přístup.

AI Act se zabývá příležitostmi i riziky AI. Zakazuje například praktiky jako sociální skórování či určité využití biometrické identifikace, čímž stanovuje jasné etické standardy pro využívání AI. Tento rámec již ovlivnil diskuse v zemích jako USA, Kanada či Japonsko, kde zákonodárci zvažují podobné strategie pro správu AI technologií.

Zákon navíc obsahuje i exteritoriální ustanovení. To znamená, že firmy po celém světě – bez ohledu na sídlo – musí splnit požadavky zákona, pokud jejich AI systémy ovlivňují trh EU nebo jeho občany. Díky tomu má AI Act vliv i mimo Evropu a motivuje mezinárodní firmy k souladu s jeho standardy.

Mezinárodní spolupráce při správě AI

EU si uvědomuje, že zvládnutí výzev AI vyžaduje globální spolupráci. Spolupracuje s mezinárodními organizacemi i dalšími státy na podpoře jednotné regulace AI a etických standardů. Programy jako zásady OECD pro AI a iniciativy G7 již obsahují prvky evropského rámce.

Události, jako nedávný summitu v Bletchley Parku, zdůrazňují potřebu celosvětového dialogu o správě AI. Tyto akce spojují politiky, odborníky z průmyslu i občanskou společnost ke sdílení hodnot a strategií pro řízení AI technologií. Aktivní účast EU v těchto debatách dokládá její odhodlání formovat globální regulaci AI.

Díky mezinárodní spolupráci se EU snaží předcházet roztříštěné regulaci AI v různých zemích. Místo toho podporuje jednotný přístup, aby AI technologie byly bezpečné, etické a přínosné pro všechny.

Budoucnost AI v Evropě

AI Act není jen o regulaci AI, ale také o podpoře inovací a konkurenceschopnosti evropského AI sektoru. Podporují jej iniciativy jako AI Innovation Package a AI Pact, které stimulují vývoj AI zaměřené na člověka a zároveň podporují investice i výzkum.

Do budoucna EU očekává, že AI technologie se stanou přirozenou součástí společnosti. Cílem je využívat AI k vyšší produktivitě a řešení složitých problémů bez kompromisu v oblasti etiky. Zaměření zákona na transparentnost a odpovědnost pomáhá zajistit důvěryhodnost AI systémů a posiluje důvěru veřejnosti.

Vzhledem k pokračujícímu globálnímu soupeření o vedoucí pozici v AI kombinuje EU silnou regulaci s podporou inovací, čímž se staví do čela etického vývoje AI. Tato strategie prospívá evropským občanům a slouží jako vzor pro další státy, podporující celosvětový posun k odpovědné správě AI.

Podporou AI Actu jako globálního vzoru a prosazováním mezinárodní spolupráce dává EU jasně najevo své odhodlání vytvářet etické a důvěryhodné AI systémy. Tento rámec reaguje na současné výzvy v oblasti AI a vytváří předpoklady pro celosvětový rozvoj AI, která bude bezpečná i udržitelná.

Často kladené otázky

Co je evropský zákon o AI (AI Act)?

AI Act je komplexní regulační rámec zavedený Evropskou unií pro řízení vývoje a používání technologií umělé inteligence. Jde o první globální právní rámec věnovaný AI, zaměřený na transparentnost, bezpečnost a etické standardy.

Jak AI Act klasifikuje AI systémy?

AI Act používá klasifikační systém založený na riziku a dělí AI systémy do čtyř kategorií: Nepřijatelné riziko (zakázané využití), Vysoké riziko (přísné požadavky), Omezené riziko (povinnost transparentnosti) a Minimální nebo žádné riziko (málo či žádná omezení).

Kdo musí AI Act dodržovat?

Všichni účastníci AI ekosystému – včetně poskytovatelů, uživatelů, dovozců, distributorů a výrobců – musí jednat v souladu s AI Actem, pokud jejich AI systémy jsou používány v EU nebo ovlivňují občany EU, bez ohledu na místo vývoje.

Co požaduje AI Act pro generativní AI?

Vývojáři generativní AI, jako je ChatGPT, musí splnit požadavky na transparentnost a bezpečnost, včetně zveřejnění způsobů tréninku, datových sad a potenciálních předsudků, a také označovat obsah generovaný AI.

Platí AI Act i mimo EU?

Ano, AI Act má exteritoriální dosah. Platí pro každý AI systém, který má vliv na trh EU nebo jeho občany, i když byl vyvinut či nasazen mimo EU.

Viktor Zeman je spolumajitelem QualityUnit. I po více než 20 letech vedení firmy zůstává především softwarovým inženýrem, specializuje se na AI, programatické SEO a backendový vývoj. Přispěl k řadě projektů, včetně LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab a mnoha dalších.

Viktor Zeman
Viktor Zeman
CEO, AI inženýr

Připraveni vytvořit vlastní AI?

Chytré chatboty a AI nástroje pod jednou střechou. Propojte intuitivní bloky a proměňte své nápady v automatizované toky.

Zjistit více

EU AI Act
EU AI Act

EU AI Act

Zákon o umělé inteligenci Evropské unie (EU AI Act) je první komplexní regulační rámec na světě, který má za cíl řídit rizika a využít přínosy umělé inteligence...

3 min čtení
AI Regulation EU AI Act +3
Regulační rámce pro AI
Regulační rámce pro AI

Regulační rámce pro AI

Regulační rámce pro AI jsou strukturované směrnice a právní opatření navržené k řízení vývoje, nasazení a používání technologií umělé inteligence. Tyto rámce ma...

6 min čtení
AI Regulation +6
Chatboti podle evropského zákona o AI
Chatboti podle evropského zákona o AI

Chatboti podle evropského zákona o AI

Zjistěte, jak evropský zákon o AI ovlivňuje chatboti, včetně rozdělení podle rizikovosti, požadavků na soulad, termínů a sankcí za nedodržení, abyste zajistili ...

9 min čtení
AI Act Chatbots +5