Finančné sankcie podľa zákona EÚ o umelej inteligencii
Zákon EÚ o AI stanovuje prísne sankcie za porušenia, s pokutami až 35 mil. € alebo 7 % z celosvetového obratu za zakázané praktiky ako manipulácia, zneužívanie či neautorizované použitie biometrie. Uistite sa, že vaše AI systémy sú v súlade, aby ste predišli vážnym finančným a reputačným rizikám.

Prehľad systému sankcií
Zákon EÚ o AI zavádza odstupňovaný systém sankcií na riešenie rôznych úrovní porušenia a podporu dodržiavania prísnych predpisov. Pokuty sú odstupňované podľa závažnosti priestupku, čím zabezpečujú zodpovednosť prevádzkovateľov a vývojárov AI systémov. Existujú tri hlavné kategórie:
- Závažné porušenia
- Porušenia pri systémoch s vysokým rizikom
- Ostatné nedodržania
Každá kategória spája konkrétne povinnosti s príslušnými sankciami a uplatňuje princíp proporcionality, aby sa predišlo neprimeranej záťaži malých a stredných podnikov (MSP).
Závažné porušenia: až do 35 miliónov € alebo 7 % celosvetového obratu
Najprísnejšie sankcie sa vzťahujú na zakázané praktiky definované v zákone EÚ o AI. Patria sem:
- Nasadzovanie AI systémov, ktoré zneužívajú zraniteľnosti používateľov
- Používanie podprahových techník na manipuláciu správania
- Implementácia biometrickej identifikácie v reálnom čase na verejných miestach v rozpore s pravidlami
Organizácie, ktoré sa dopustia týchto činov, môžu čeliť pokutám až do výšky 35 miliónov € alebo 7 % ich celosvetového ročného obratu, podľa toho, ktorá suma je vyššia.
Príklad: Použitie AI na sociálne skórovanie verejnými orgánmi, čo môže viesť k nespravodlivej diskriminácii a porušeniu základných práv, sa považuje za závažné porušenie. Tieto sankcie presadzujú etické princípy, na ktorých stojí vývoj a používanie AI.
Porušenia pri systémoch s vysokým rizikom: až do 20 miliónov € alebo 4 % celosvetového obratu
Systémy AI s vysokým rizikom musia spĺňať prísne požiadavky vrátane:
- Posúdení zhody
- Transparentnosti
- Protokolov riadenia rizík
Nesplnenie týchto požiadaviek môže viesť k pokutám až do výšky 20 miliónov € alebo 4 % celosvetového obratu.
Príklad: Systémy s vysokým rizikom sa často používajú v kľúčových oblastiach ako zdravotníctvo, presadzovanie práva či vzdelávanie, kde môžu mať chyby zásadný dopad. AI nástroj na nábor zamestnancov, ktorý preukáže algoritmickú zaujatosť a vedie k diskriminácii pri prijímaní, by patril do tejto kategórie.
Ostatné nedodržania: až do 10 miliónov € alebo 2 % celosvetového obratu
Najnižšia úroveň pokút sa vzťahuje na menej závažné porušenia, ako sú:
- Administratívne chyby
- Neúplná dokumentácia
- Nesplnenie požiadaviek na transparentnosť pri AI systémoch s obmedzeným rizikom
Organizácie uznané vinnými z týchto priestupkov môžu čeliť pokutám až do výšky 10 miliónov € alebo 2 % ich celosvetového obratu.
Príklad: Ak organizácia neinformuje používateľov, že komunikujú so systémom AI, čo je povinné pre aplikácie s obmedzeným rizikom ako chatboty, môže byť pokutovaná podľa tejto kategórie.
Proporcionalita pre MSP
Na zachovanie spravodlivosti zákon EÚ o AI upravuje sankcie pre MSP podľa princípu proporcionality. Pokuty pre menšie organizácie sa určujú v dolnej časti škály, aby sa predišlo neprimeranej finančnej záťaži. Tým je zabezpečené, že podniky rôznych veľkostí môžu pôsobiť v AI ekosystéme a zároveň spĺňať regulačné štandardy.
Zakázané praktiky a kritériá pre porušenia
Poznanie zakázaných praktík podľa zákona EÚ o AI je kľúčové na zabezpečenie, že AI systémy vašej organizácie budú v súlade s prísnymi etickými a právnymi smernicami. Článok 5 zákona jasne definuje praktiky, ktoré sú neprípustné, pretože môžu poškodiť jednotlivcov alebo spoločnosť, a podporuje dôveryhodnú AI pri ochrane demokratických hodnôt a ľudských práv.
Techniky podprahových manipulácií
Zákon EÚ o AI zakazuje používanie systémov AI, ktoré manipulujú s ľuďmi pod úrovňou ich vedomého vnímania. Tieto techniky sú navrhnuté na ovplyvňovanie správania spôsobom, ktorý zabraňuje jednotlivcom prijímať informované rozhodnutia. Takéto AI systémy sú zakázané, ak spôsobujú alebo môžu spôsobiť fyzickú alebo psychickú ujmu.
Príklad: Reklamy poháňané AI, ktoré zneužívajú psychologické slabosti na to, aby tlačili ľudí k nákupom, ktoré nemali v úmysle. Zakázaním takýchto metód zákon EÚ o AI chráni autonómiu jednotlivcov a ich pohodu.
Zneužívanie zraniteľností
AI systémy, ktoré zneužívajú zraniteľnosti súvisiace s vekom, zdravotným postihnutím alebo sociálno-ekonomickými podmienkami, nie sú povolené. Takéto systémy zneužívajú konkrétne slabosti, čo vedie k ujme alebo skreslenému rozhodovaniu.
Príklad: AI systém pre posudzovanie žiadostí o pôžičku, ktorý cieli na finančne zraniteľných jednotlivcov s dravými úverovými ponukami, porušuje toto pravidlo.
Sociálne skórovacie systémy verejných orgánov
Zákon zakazuje verejným orgánom používať AI na vytváranie systémov sociálneho skórovania. Takéto systémy hodnotia jednotlivcov na základe ich správania alebo predpokladaných vlastností, čo často vedie k nespravodlivému alebo diskriminačnému zaobchádzaniu.
Príklad: Sociálne skórovací systém, ktorý niekomu odoprie prístup k verejným službám na základe vnímaného správania.
Neoprávnené použitie systémov biometrickej identifikácie v reálnom čase
Zákon EÚ o AI kladie prísne obmedzenia na použitie systémov biometrickej identifikácie v reálnom čase na verejných miestach. Tieto systémy sa môžu použiť len vo výnimočných prípadoch (napr. pátranie po nezvestných osobách, riešenie bezprostredných hrozieb ako teroristické činy). Použitie týchto technológií bez riadneho povolenia je porušením zákona.
Príklad: Systémy rozpoznávania tváre používané na rozsiahly dohľad bez platného právneho dôvodu.
Kritériá na určenie porušenia
Pri posudzovaní porušení zákon EÚ o AI zohľadňuje potenciálnu ujmu a spoločenský dopad. Kľúčové faktory zahŕňajú:
- Úmysel a účel: Bol systém AI vytvorený alebo použitý na manipuláciu, zneužívanie alebo poškodzovanie jednotlivcov?
- Dopad na základné práva: Do akej miery AI praktika zasahuje do práv ako sú súkromie, rovnosť a osobná autonómia?
- Závažnosť ujmy: Aký je rozsah spôsobenej fyzickej, psychickej alebo spoločenskej ujmy?
Napríklad AI systém, ktorý spôsobí ujmu neúmyselne v dôsledku technickej chyby, môže čeliť miernejšej sankcii než systém, ktorý bol zámerne navrhnutý na zneužitie používateľov.
Mechanizmy vymáhania zákona EÚ o AI
Zákon EÚ o AI stanovuje opatrenia na zabezpečenie dodržiavania predpisov, ochranu základných práv a podporu dôveryhodnej AI. Spolieha sa na spoluprácu medzi národnými orgánmi, orgánmi trhového dohľadu a Európskou komisiou.
Národné orgány
Národné orgány zohrávajú ústrednú úlohu pri vymáhaní zákona EÚ o AI vo svojich členských štátoch, vrátane:
- Zavádzania systémov riadenia AI: Členské štáty musia vytvoriť rámce riadenia (napr. dohliadacie výbory) na monitorovanie súladu so zákonom.
- Vykonávania posúdení zhody: Orgány kontrolujú, či AI systémy spĺňajú požiadavky, so zameraním na aplikácie s vysokým rizikom. Zahŕňa to kontrolu dokumentácie, audity a overenie súladu s normami EÚ.
- Ukladania sankcií: Orgány môžu ukladať sankcie, vrátane finančných pokút stanovených zákonom.
Členské štáty musia zaviesť systémy riadenia AI do polovice roka 2026 v súlade s úplnou implementáciou zákona.
Povinnosti monitorovania a vykazovania
Zákon EÚ o AI vyžaduje dôkladné monitorovanie a vykazovanie pre AI systémy:
- Dozorný dohľad po uvedení na trh: Vývojári a používatelia musia monitorovať výkon AI systémov po nasadení a riešiť všetky riziká či problémy.
- Hlásenie incidentov: Závažné incidenty alebo porušenia musia byť nahlásené národným orgánom v stanovenom čase.
- Dokumentácia o súlade: Organizácie musia viesť komplexné záznamy (hodnotenia rizík, kontroly zhody) prístupné na kontrolu.
Transparentnosť v dokumentácii a hodnotení rizík
Transparentnosť je kľúčovou súčasťou vymáhania:
- Verejné zverejňovanie informácií: Vývojári AI systémov s vysokým rizikom musia poskytovať informácie o účele, funkčnosti a obmedzeniach systému.
- Rámce riadenia rizík: Organizácie musia vytvárať rámce na identifikáciu, hodnotenie a riešenie rizík spojených s AI systémami.
- Podrobná technická dokumentácia: Vyžaduje sa podrobná dokumentácia (dizajn systému, algoritmy, zdroje dát) na preukázanie súladu.
Dôsledky a príklady pokút podľa zákona EÚ o AI
Zákon EÚ o AI presadzuje prísne pravidlá pre používanie AI a zavádza vysoké pokuty za ich porušenie. Tieto pravidlá:
- Predchádzajú zneužitiu
- Zabezpečujú súlad organizácií
- Platí pre organizácie v EÚ aj mimo nej
Príklady zakázaných AI praktík
- Techniky podprahových manipulácií: AI nástroje, ktoré nenápadne nútia ľudí k nákupom bez ich vedomia. Obchodník používajúci takúto technológiu môže čeliť pokute až do výšky 35 mil. € alebo 7 % z celosvetového obratu.
- Zneužívanie zraniteľností: AI systémy zamerané na zraniteľné skupiny (deti, seniorov). Napríklad vzdelávací AI nástroj, ktorý zavádza deti, môže viesť k sankciám.
- Neoprávnené použitie biometrických systémov: Použitie biometrie v reálnom čase (rozpoznávanie tváre na verejných miestach) bez povolenia, napríklad pri hromadnom sledovaní, môže viesť k prísnym pokutám.
- Sociálne skórovanie verejnými orgánmi: Prideľovanie skóre na základe správania (ako v niektorých nečlenských krajinách EÚ) je nelegálne, keďže vedie k diskriminácii a sociálnej nerovnosti.
Poučenie pre organizácie
Porušenie zákona EÚ o AI môže mať okrem finančných sankcií aj negatívny dopad na povesť, dôveru spotrebiteľov a viesť k právnym sporom. Organizácie by mali:
- Vykonávať hodnotenia rizík: Pravidelne posudzovať AI systémy z pohľadu súladu.
- Zabezpečiť transparentnosť: Udržiavať jasné záznamy a transparentnosť v AI operáciách.
- Investovať do etickej AI: Uprednostniť etický vývoj AI na zabezpečenie súladu a budovanie dôvery v značku.
Súlad a inovácie v AI
Dodržiavanie zákona EÚ o AI nie je len zákonnou povinnosťou, ale aj podporuje inovácie v podobe bezpečnejších a spoľahlivejších AI systémov. Organizácie v súlade môžu:
- Získať prístup na nové trhy
- Budovať silnejšie partnerstvá
Pre medzinárodné spoločnosti je súlad nevyhnutný, keďže zákon sa vzťahuje aj na subjekty mimo EÚ, ktoré ponúkajú AI systémy na území EÚ. Globálne firmy musia zosúladiť svoje postupy s predpismi EÚ, aby zostali konkurencieschopné.
Najčastejšie kladené otázky
- Aké sú maximálne pokuty podľa zákona EÚ o AI?
Zákon EÚ o AI ukladá pokuty až do výšky 35 miliónov € alebo 7 % z celosvetového ročného obratu za závažné porušenia, ako sú zakázané manipulatívne AI praktiky, zneužívanie zraniteľností, neautorizovaná biometrická identifikácia a sociálne skórovanie verejnými orgánmi.
- Ktoré AI praktiky sú podľa zákona EÚ o AI prísne zakázané?
Prísne zakázané praktiky zahŕňajú techniky podprahových manipulácií, zneužívanie zraniteľností, sociálne skórovanie verejnými orgánmi a neautorizované použitie systémov na biometrickú identifikáciu v reálnom čase na verejných miestach.
- Ako zákon EÚ o AI rieši porušenia pri systémoch s vysokým rizikom?
AI systémy s vysokým rizikom musia spĺňať prísne požiadavky vrátane transparentnosti, riadenia rizík a posúdení zhody. Nedodržanie môže viesť k pokutám až do 20 miliónov € alebo 4 % z celosvetového obratu.
- Sú sankcie upravované pre malé a stredné podniky (MSP)?
Áno, zákon EÚ o AI uplatňuje princíp proporcionality, vďaka čomu sa pokuty pre MSP počítajú v dolnej časti škály, aby sa predišlo neprimeranej finančnej záťaži.
- Čo by mali organizácie urobiť na zabezpečenie súladu so zákonom EÚ o AI?
Organizácie by mali pravidelne vykonávať hodnotenie rizík, zabezpečiť transparentnosť a dokumentáciu, dodržiavať etické postupy vývoja AI a uistiť sa, že ich systémy spĺňajú požiadavky zákona, aby sa vyhli finančným, právnym a reputačným rizikám.
Viktor Zeman je spolumajiteľom spoločnosti QualityUnit. Aj po 20 rokoch vedenia firmy zostáva predovšetkým softvérovým inžinierom, špecializujúcim sa na AI, programatické SEO a backendový vývoj. Prispel k množstvu projektov vrátane LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab a mnohých ďalších.

Zaistite súlad AI s FlowHunt
Chráňte svoju firmu pred vysokými pokutami podľa zákona EÚ o AI. Objavte, ako FlowHunt zjednodušuje súlad AI, riadenie rizík a transparentnosť.