Zákon o umelej inteligencii (AI Act)
AI Act EÚ je prvý globálny právny rámec venovaný umelej inteligencii, ktorý zaručuje bezpečnú, etickú a transparentnú AI rozdelením systémov podľa rizika a nastavením vysokých štandardov súladu.

Prehľad o AI Act
Zákon o umelej inteligencii (AI Act) je kľúčovým regulačným rámcom, ktorý zaviedla Európska únia (EÚ) na dohľad nad vývojom a používaním technológií umelej inteligencie. Schválený v máji 2024, ide o prvý globálny právny rámec venovaný AI. Hlavným cieľom zákona je zabezpečiť bezpečné a spoľahlivé prostredie pre AI riešením etických, sociálnych a technických výziev. Zákon zosúlaďuje vývoj AI s európskymi hodnotami, so zameraním na transparentnosť, spravodlivosť a zodpovednosť.
AI Act je výnimočný svojím širokým rozsahom, keď reguluje AI systémy na základe úrovní rizika a spôsobu použitia. Platí pre AI systémy vytvorené v EÚ aj pre tie, ktoré sú uvádzané na trh, používané alebo ktorých výstupy ovplyvňujú EÚ. Tento prístup zabezpečuje, aby každá AI ovplyvňujúca občanov alebo podniky EÚ spĺňala rovnaké vysoké štandardy, bez ohľadu na miesto jej vývoja.

Rozsah a pôsobnosť AI Act
AI Act sa vzťahuje na rôznych aktérov v AI ekosystéme vrátane:
- Poskytovatelia: Organizácie, ktoré vyvíjajú a dodávajú AI systémy pod vlastnou značkou. Poskytovatelia musia zabezpečiť, že ich AI systémy spĺňajú požiadavky zákona pred vstupom na trh EÚ.
- Nasadzovatelia: Podniky alebo jednotlivci využívajúci AI systémy. Musia používať AI v súlade s regulačným rámcom, najmä pri aplikáciách s vysokým rizikom.
- Dovozcovia a distribútori: Subjekty, ktoré privádzajú AI systémy do EÚ alebo ich distribuujú v regióne, musia dodržiavať špecifické pravidlá na zabezpečenie súladu.
- Výrobcovia: Spoločnosti, ktoré integrujú AI do svojich produktov, podliehajú zákonu, ak sa ich produkty predávajú v EÚ.
Zákon definuje AI systémy široko, vrátane strojových systémov pracujúcich autonómne s cieľom vytvárať výstupy ako predikcie, odporúčania alebo rozhodnutia. Niektoré kategórie AI, napríklad tie používané na vedecký výskum a vývoj (R&D) alebo v kontrolovaných testovacích prostrediach pred nasadením, sú zo zákona vyňaté.
Kľúčové črty AI Act
Prístup založený na riziku
AI Act využíva klasifikačný systém založený na riziku na reguláciu AI systémov. Kategorizuje ich do štyroch úrovní rizika:
- Neprijateľné riziko: AI systémy, ktoré sú škodlivé alebo protirečia hodnotám EÚ, sú zakázané. Patria sem napríklad technológie ako systémy sociálneho skórovania alebo AI manipulujúca ľudským správaním s cieľom spôsobenia škody.
- Vysoké riziko: Do tejto kategórie patria nástroje na biometrickú identifikáciu, zdravotnícke zariadenia a manažment kritickej infraštruktúry. Musia spĺňať prísne požiadavky, ako je testovanie, vedenie dokumentácie a zabezpečenie ľudského dohľadu.
- Obmedzené riziko: Tieto systémy, často používané na vzdelávacie či zábavné účely, musia spĺňať požiadavky na transparentnosť, napríklad informovať používateľov, že interagujú s AI.
- Minimálne alebo žiadne riziko: Väčšina AI aplikácií, napríklad odporúčacie systémy pre e-shopy, patrí do tejto kategórie a podlieha malej alebo žiadnej regulácii.
Správa a súlad
AI Act zavádza systém správy na zabezpečenie súladu, ktorý zahŕňa:
- Európska rada pre umelú inteligenciu: Koordinuje aplikáciu AI Act naprieč členskými štátmi EÚ, zabezpečuje jednotnosť a poskytuje usmernenia.
- Národné dozorné orgány: Každý členský štát EÚ musí vymenovať orgány na monitorovanie a vynucovanie súladu na svojom území.
- Exteritoriálna pôsobnosť: Zákon sa vzťahuje na každý AI systém ovplyvňujúci EÚ, aj keď bol vyvinutý mimo regiónu.
Ustanovenia pre generatívnu AI
Zákon obsahuje špecifické pravidlá pre generatívne AI systémy ako ChatGPT. Vývojári týchto systémov musia spĺňať požiadavky na transparentnosť a bezpečnosť, ako je zverejnenie metód trénovania, použitých dátových súborov a možných zaujatostí.
Kategorizácia AI: Systém založený na riziku
Systém klasifikácie rizika
Európsky zákon o umelej inteligencii (AI Act) využíva systém klasifikácie rizika na reguláciu AI technológií. Tento systém priraďuje úroveň regulačného dohľadu potenciálnym rizikám vyplývajúcim z AI aplikácií. Rozdelením AI systémov do štyroch konkrétnych úrovní rizika – neprijateľné, vysoké, obmedzené a minimálne alebo žiadne riziko – sa EÚ snaží vyvážiť technologický pokrok s verejnou bezpečnosťou a etickými štandardmi. Každá kategória zahŕňa špecifické regulačné požiadavky a povinnosti pre vývojárov, nasadzovateľov a ďalších zainteresovaných aktérov.
Úrovne rizika a ich dôsledky
Neprijateľné riziko
AI systémy v kategórii „neprijateľné riziko“ sú vnímané ako priame hrozby pre základné práva, bezpečnosť alebo hodnoty EÚ. Tieto systémy sú podľa AI Act zakázané pre ich škodlivú povahu. Príklady zahŕňajú:
- Subliminálna manipulácia: Systémy, ktoré skryto ovplyvňujú ľudské správanie s cieľom spôsobiť škodu, napríklad manipulácia voličov bez ich vedomia.
- Využívanie zraniteľností: AI zameraná na jednotlivcov s cieľom uškodiť na základe zraniteľnosti, ako je vek, zdravotné postihnutie alebo ekonomický status. Napríklad interaktívne hračky, ktoré podnecujú deti k nebezpečnému správaniu.
- Sociálne skórovanie: Systémy hodnotiace jednotlivcov na základe správania alebo charakteristík, napríklad hodnotenie úverovej bonity podľa aktivity na sociálnych sieťach, čo vedie k nespravodlivým výsledkom.
- Biometrická identifikácia v reálnom čase na verejných miestach: Systémy rozpoznávania tváre na sledovanie, okrem špecifických prípadov, ako je činnosť polície so súdnym povolením.
- Rozpoznávanie emócií a biometrická kategorizácia: AI, ktorá odhaduje citlivé údaje ako etnický pôvod či politickú príslušnosť, najmä v citlivom prostredí ako pracoviská či školy.
Tieto zákazy odrážajú záväzok EÚ k etickej AI rešpektujúcej ľudské práva.
Vysoké riziko
AI systémy s vysokým rizikom významne ovplyvňujú zdravie, bezpečnosť alebo základné práva. Tieto systémy nie sú zakázané, no musia spĺňať prísne požiadavky na transparentnosť a zodpovednosť. Príklady zahŕňajú:
- Kritická infraštruktúra: AI riadiaca základné systémy ako doprava, kde zlyhanie môže ohroziť životy.
- Vzdelávanie a zamestnanie: Systémy ovplyvňujúce prístup ku vzdelaniu alebo práci, napríklad algoritmy na hodnotenie testov či filtrovanie žiadostí o zamestnanie.
- Zdravotná starostlivosť: AI integrovaná do zdravotníckych zariadení alebo rozhodovacích procesov, napríklad pri robotickej asistovanej operácii.
- Verejné služby: Nástroje určujúce nárok na úvery či verejné príspevky.
- Presadzovanie práva a kontrola hraníc: AI používaná pri vyšetrovaní trestných činov alebo pri spracovaní víz.
Vývojári a nasadzovatelia AI s vysokým rizikom musia dodržiavať prísne štandardy, ako je vedenie podrobnej dokumentácie, zabezpečenie ľudského dohľadu a vykonávanie posúdenia zhody na zníženie rizík.
Obmedzené riziko
AI systémy s obmedzeným rizikom majú mierny potenciál rizika. Tieto systémy musia spĺňať požiadavky na transparentnosť, aby používatelia vedeli, že interagujú s AI. Príklady zahŕňajú:
- Chatboty: Systémy povinné informovať používateľov, že nie sú ľuďmi.
- Odporúčacie algoritmy: AI navrhujúca produkty, zábavu alebo obsah používateľom.
Aj keď ide o nižšie riziká, AI Act stanovuje základné etické štandardy na budovanie dôvery a zodpovednosti.
Minimálne alebo žiadne riziko
Väčšina AI aplikácií vrátane všeobecných nástrojov, ako sú preklad jazykov či vyhľadávače, spadá do tejto kategórie. Tieto systémy čelia minimálnym alebo žiadnym regulačným obmedzeniam, čo umožňuje voľný rozvoj inovácií. Príklady zahŕňajú produktívne nástroje podporované AI či virtuálnych asistentov na osobné použitie.
Ustanovenia pre generatívne AI systémy
AI Act obsahuje špecifické opatrenia pre generatívne AI systémy, ako ChatGPT a DALL-E, ktoré vytvárajú text, obrázky alebo kód. Tieto systémy sú klasifikované podľa svojho určenia a potenciálneho vplyvu. Kľúčové ustanovenia zahŕňajú:
- Požiadavky na transparentnosť: Vývojári musia zverejniť použité tréningové dátové súbory a označiť, kedy je obsah generovaný AI.
- Bezpečnostné a etické usmernenia: Generatívna AI musí minimalizovať zaujatosti, predchádzať dezinformáciám a byť v súlade s etickými štandardmi.
- Opatrenia zodpovednosti: Spoločnosti musia poskytovať podrobnú dokumentáciu o architektúre modelu, určenom použití a obmedzeniach.
Zabezpečenie súladu: Rámec správy
Úloha správy v AI Act EÚ
Európsky zákon o umelej inteligencii (AI Act) zavádza rámec správy na zabezpečenie dodržiavania jeho pravidiel. Tento rámec podporuje transparentnosť, zodpovednosť a jednotnú aplikáciu naprieč členskými štátmi. Zároveň chráni základné práva a podporuje rozvoj spoľahlivých AI technológií. Ústrednými orgánmi v tomto rámci sú Európska rada pre umelú inteligenciu (EAIB) a Európsky úrad pre AI, ktoré spolupracujú s národnými orgánmi pri vynucovaní a monitorovaní AI Act.
Európska rada pre umelú inteligenciu (EAIB)
Európska rada pre umelú inteligenciu (EAIB) je hlavný orgán riadiaci AI Act. Pôsobí ako poradný a koordinačný orgán s cieľom zabezpečiť jednotné uplatňovanie zákona v celej EÚ.
Hlavné zodpovednosti
- Koordinácia a dohľad:
EAIB zosúlaďuje úsilie národných orgánov zodpovedných za vynucovanie AI Act. Jej cieľom je zabezpečiť, aby členské štáty regulovali AI jednotným spôsobom, čím sa znižujú rozdiely vo výklade a vynucovaní. - Usmernenia a odporúčania:
Rada poskytuje poradenstvo k aplikácii AI Act. Vypracúva usmernenia, návrhy delegovaných aktov a ďalšie regulačné nástroje. Tieto zdroje objasňujú pravidlá zákona a zjednodušujú ich dodržiavanie a vynucovanie. - Tvorba politík:
EAIB sa podieľa na formovaní európskych AI politík. Poskytuje usmernenia k inovačným stratégiám, medzinárodnej spolupráci a ďalším iniciatívam na udržanie konkurencieschopnosti EÚ v oblasti AI technológií.
Štruktúra správy
EAIB tvoria zástupcovia každého členského štátu EÚ a podporuje ju Európsky úrad pre AI, ktorý funguje ako jej sekretariát. Na zasadnutiach rady sa zúčastňujú aj pozorovatelia, ako je Európsky dozorný úradník pre ochranu údajov a zástupcovia krajín EEA-EFTA. Pracovné skupiny v rámci EAIB sa zameriavajú na špecifické oblasti politiky, čím podporujú spoluprácu a zdieľanie osvedčených postupov.
Európsky úrad pre AI
Európsky úrad pre AI je hlavné centrum EÚ pre správu AI. Úzko spolupracuje s EAIB a členskými štátmi na podpore implementácie AI Act. Jeho úlohou je zabezpečiť, aby boli technológie AI vyvíjané bezpečne a zodpovedne.
Kľúčové funkcie
- Odbornosť a podpora:
Úrad pre AI slúži ako centrum vedomostí EÚ v oblasti AI. Poskytuje technickú a regulačnú podporu členským štátom. Taktiež posudzuje modely všeobecného použitia AI, či spĺňajú bezpečnostné a etické štandardy. - Medzinárodná koordinácia:
Úrad pre AI podporuje globálnu spoluprácu v správe AI presadzovaním regulačného prístupu EÚ ako medzinárodného štandardu. Spolupracuje aj s vedcami, zástupcami priemyslu a občianskou spoločnosťou pri formovaní svojich politík. - Vynucovanie:
Úrad má právomoc hodnotiť AI systémy, požadovať informácie a udeľovať sankcie poskytovateľom modelov všeobecného použitia AI, ktoré nie sú v súlade s AI Act.
Exteritoriálna pôsobnosť AI Act
AI Act sa vzťahuje na subjekty v EÚ aj mimo Únie, ktoré dodávajú AI systémy na trh EÚ alebo používajú AI systémy ovplyvňujúce občanov EÚ. Toto exteritoriálne ustanovenie zabezpečuje, že vysoké štandardy zákona sú dodržiavané globálne a stáva sa tak vzorom pre medzinárodnú správu AI.
Porovnanie s GDPR
Rámec správy AI Act sa v štruktúre a cieľoch podobá Všeobecnému nariadeniu o ochrane údajov (GDPR).
- Centralizovaný dohľad:
Podobne ako Európsky výbor pre ochranu údajov podľa GDPR, EAIB poskytuje centralizovaný dohľad nad správou AI, čím zabezpečuje jednotnosť naprieč členskými štátmi. - Exteritoriálny dosah:
AI Act aj GDPR rozširujú svoje pravidlá za hranice EÚ, čo dokazuje odhodlanie Únie nastavovať globálne štandardy v digitálnej regulácii. - Dôraz na základné práva:
Obe regulácie uprednostňujú ochranu základných práv. Zdôrazňujú transparentnosť, zodpovednosť a etické aspekty vo svojich oblastiach.
AI Act však rieši výzvy špecifické pre AI, ako je kategorizácia rizík a regulácia generatívnych AI systémov.
Regulácia umelej inteligencie v globálnom meradle
AI Act ako globálny vzor
Európsky zákon o umelej inteligencii (AI Act) predstavuje globálny príklad efektívnej regulácie AI. Ako prvý podrobný právny rámec pre AI ponúka návod pre ďalšie regióny, ktoré chcú zvládnuť etické, právne a spoločenské výzvy, ktoré AI prináša. Zákon zavádza klasifikačný systém založený na riziku, podporuje transparentnosť a kladie dôraz na ochranu základných práv, čím vytvára silný a moderný regulačný prístup.
AI Act rieši príležitosti aj riziká AI. Napríklad zakazuje praktiky ako sociálne skórovanie a niektoré použitia biometrickej identifikácie, čím stanovuje jasné etické štandardy pre využívanie AI. Tento rámec už ovplyvnil diskusie v krajinách ako Spojené štáty, Kanada či Japonsko, kde tvorcovia politík zvažujú podobné stratégie správy AI technológií.
Zákon zároveň obsahuje exteritoriálne pravidlá. To znamená, že spoločnosti po celom svete, bez ohľadu na to, kde sídlia, musia plniť požiadavky zákona, ak ich AI systémy ovplyvňujú trh EÚ alebo jej občanov. Tým je zabezpečené, že vplyv zákona presahuje Európu a povzbudzuje medzinárodné podniky, aby sa zosúladili s jeho štandardmi.
Medzinárodná spolupráca v správe AI
EÚ si uvedomuje, že riešenie výziev AI si vyžaduje globálnu spoluprácu. Spolupracuje s medzinárodnými organizáciami a ďalšími krajinami, aby podporila jednotné regulácie AI a etické štandardy. Programy ako princípy AI OECD a iniciatívy G7 už odrážajú prvky európskeho rámca.
Podujatia ako nedávny samit v Bletchley Parku zdôrazňujú potrebu globálnych diskusií o správe AI. Tieto stretnutia spájajú tvorcov politík, odborníkov z priemyslu a občiansku spoločnosť, aby diskutovali o spoločných hodnotách a stratégiách riadenia AI technológií. Aktívna úloha EÚ v týchto diskusiách dokazuje jej odhodlanie formovať globálnu reguláciu AI.
Prostredníctvom medzinárodnej spolupráce sa EÚ snaží predísť fragmentácii AI politík v rôznych krajinách. Namiesto toho podporuje jednotný prístup, ktorý zaručí, že AI technológie budú bezpečné, etické a prospešné pre všetkých.
Budúcnosť AI v Európe
AI Act nie je zameraný len na reguláciu AI, ale aj na podporu inovácií a konkurencieschopnosti európskeho AI sektora. Podporujú ho iniciatívy ako AI Innovation Package a AI Pact, ktoré podporujú vývoj na človeka orientovanej AI a zároveň podnecujú investície a výskum.
Do budúcnosti EÚ predpokladá, že technológie AI sa stanú prirodzenou súčasťou spoločnosti. Cieľom je využívať AI na zvýšenie produktivity a riešenie zložitých problémov bez kompromisov v oblasti etiky. Dôraz zákona na transparentnosť a zodpovednosť zabezpečuje, že AI systémy zostanú dôveryhodné, čo posilňuje dôveru verejnosti v tieto technológie.
Ako pokračuje globálna súťaž o vedúce postavenie v AI, prístup EÚ – vyvážená silná regulácia a podpora inovácií – ju stavia do pozície kľúčového hráča v etickom vývoji AI. Táto stratégia prospieva európskym občanom a slúži ako vzor pre ostatné krajiny, čím podporuje celosvetový posun k zodpovednému riadeniu AI.
Tým, že EÚ propaguje AI Act ako globálny model a podporuje medzinárodnú spoluprácu, dokazuje svoje odhodlanie vytvárať etické a dôveryhodné AI systémy. Tento rámec rieši súčasné výzvy AI a zároveň pripravuje pôdu pre globálny vývoj AI, ktorý bude bezpečný a udržateľný.
Najčastejšie kladené otázky
- Čo je AI Act EÚ?
AI Act EÚ je komplexný regulačný rámec zavedený Európskou úniou na riadenie vývoja a používania technológií umelej inteligencie. Je to prvý globálny právny rámec venovaný AI, ktorý sa zameriava na transparentnosť, bezpečnosť a etické štandardy.
- Ako AI Act klasifikuje systémy umelej inteligencie?
AI Act využíva systém klasifikácie založený na riziku, ktorý rozdeľuje AI systémy do štyroch kategórií: Neprijateľné riziko (zakázané použitia), Vysoké riziko (prísne požiadavky), Obmedzené riziko (povinnosti transparentnosti) a Minimálne alebo žiadne riziko (málo alebo žiadne obmedzenia).
- Kto musí dodržiavať AI Act?
Všetci aktéri AI ekosystému – vrátane poskytovateľov, nasadzovateľov, dovozcov, distribútorov a výrobcov – musia dodržiavať zákon, ak sú ich AI systémy používané v EÚ alebo ovplyvňujú občanov EÚ, bez ohľadu na to, kde bol systém vyvinutý.
- Čo vyžaduje AI Act pre generatívnu AI?
Vývojári generatívnej AI, ako je ChatGPT, musia spĺňať požiadavky na transparentnosť a bezpečnosť, vrátane zverejnenia metód trénovania, dátových súborov a možných zaujatostí, ako aj označenia, kedy je obsah generovaný AI.
- Vzťahuje sa AI Act aj mimo EÚ?
Áno, AI Act má exteritoriálny dosah. Vzťahuje sa na každý AI systém, ktorý ovplyvňuje trh EÚ alebo jej občanov, aj keď bol systém vyvinutý alebo nasadený mimo EÚ.
Viktor Zeman je spolumajiteľom spoločnosti QualityUnit. Aj po 20 rokoch vedenia firmy zostáva predovšetkým softvérovým inžinierom, špecializujúcim sa na AI, programatické SEO a backendový vývoj. Prispel k množstvu projektov vrátane LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab a mnohých ďalších.

Pripravení vytvoriť si vlastnú AI?
Inteligentné chatboty a AI nástroje pod jednou strechou. Prepojte intuitívne bloky a premeňte svoje nápady na automatizované Flows.