
Jaké praktiky jsou zakázány Aktem EU o umělé inteligenci?
Prozkoumejte klíčové praktiky umělé inteligence zakázané Aktem EU o AI, včetně zákazu sociálního skórování, manipulační AI, biometrické identifikace v reálném č...

Nařízení EU o AI zavádí přísné sankce za porušení pravidel AI, s pokutami až do výše 35 milionů eur nebo 7 % celosvětového obratu za zakázané praktiky, jako je manipulace, zneužívání nebo neoprávněné použití biometrických údajů. Zajistěte soulad svých AI systémů, abyste se vyhnuli vážným finančním a reputačním rizikům.
Nařízení EU o AI zavádí stupňovitý systém pokut, který řeší různé úrovně porušení a podporuje dodržování jeho přísných pravidel. Výše pokut se odvíjí od závažnosti přestupku, aby provozovatelé a vývojáři AI systémů nesli odpovědnost. Existují tři hlavní kategorie:
Každá kategorie přiřazuje specifické povinnosti odpovídajícím sankcím a využívá zásadu proporcionality, aby nedošlo k nadměrné zátěži pro malé a střední podniky (SMEs).
Nejpřísnější sankce platí pro zakázané praktiky definované v nařízení EU o AI. Patří sem například:
Organizace, které se těchto činů dopustí, mohou čelit pokutě až 35 milionů eur nebo 7 % svého celosvětového ročního obratu – a to podle toho, která částka je vyšší.
Příklad: Použití AI k sociálnímu skóringu veřejnými orgány, což může vést k nespravedlivé diskriminaci a ohrožení základních práv, je považováno za závažné porušení. Tyto sankce prosazují etické principy, na nichž stojí vývoj a využití AI.
AI systémy s vysokým rizikem musí splňovat přísné požadavky, včetně:
Nesplnění těchto požadavků může vést k pokutě až 20 milionů eur nebo 4 % celosvětového obratu.
Příklad: Systémy s vysokým rizikem se často využívají v kritických oblastech, jako je zdravotnictví, vymáhání práva nebo vzdělávání, kde mohou mít chyby závažné dopady. AI nástroj pro nábor zaměstnanců, který projevuje algoritmickou předpojatost a vede k diskriminačním rozhodnutím, by spadal do této kategorie.
Nejnižší stupeň pokut se vztahuje na méně závažná porušení, jako jsou:
Organizace shledané vinnými z těchto prohřešků mohou čelit pokutě až 10 milionů eur nebo 2 % svého celosvětového obratu.
Příklad: Pokud organizace neinformuje uživatele, že komunikují s AI systémem, jak je vyžadováno například u chatbotů s omezeným rizikem, může jí hrozit pokuta v této kategorii.
Pro zachování spravedlnosti přizpůsobuje nařízení EU o AI výši pokut pro malé a střední podniky zásadou proporcionality. Sankce pro menší organizace se určují na spodní hranici škály, aby nebyly vystaveny nepřiměřené finanční zátěži. Díky tomu mohou podniky všech velikostí působit v AI ekosystému při splnění regulatorních standardů.
Porozumění zakázaným praktikám podle nařízení EU o AI je klíčové pro to, aby AI systémy vaší organizace splňovaly přísné etické a právní zásady. Článek 5 nařízení jasně definuje praktiky, které jsou nepřijatelné, protože mohou poškodit jednotlivce či společnost, a tím podporuje důvěryhodnou AI a ochranu demokratických hodnot i lidských práv.
Nařízení EU o AI zakazuje používání AI systémů, které ovlivňují lidi pod prahem vědomí. Tyto techniky jsou navrženy tak, aby ovlivňovaly chování, aniž by měli jednotlivci možnost činit informovaná rozhodnutí. Zakázány jsou AI systémy, které způsobují nebo mohou způsobit fyzickou či psychologickou újmu.
Příklad: AI reklamy, které využívají psychologické slabiny spotřebitelů a tlačí je ke koupi zboží, které původně neplánovali. Zakázáním těchto metod se nařízení EU o AI zaměřuje na ochranu autonomie a pohody jednotlivců.
AI systémy, které zneužívají zranitelnosti z důvodu věku, zdravotního postižení nebo sociálně-ekonomických podmínek, nejsou povoleny. Tyto systémy využívají slabosti konkrétních osob a vedou k jejich poškození či ovlivnění rozhodování.
Příklad: AI systém pro schvalování půjček, který cíleně nabízí nevýhodné podmínky finančně zranitelným osobám, porušuje toto pravidlo.
Nařízení zakazuje veřejným orgánům využívat AI ke zřizování systémů sociálního skóringu. Tyto systémy hodnotí jednotlivce na základě jejich chování nebo předpokládaných vlastností a často vedou k nespravedlivému či diskriminačnímu zacházení.
Příklad: Systém sociálního skóringu, který někomu odepře přístup k veřejným službám na základě předpokládaného chování.
Nařízení EU o AI klade přísná omezení na použití systémů biometrické identifikace v reálném čase na veřejných místech. Tyto systémy lze využít pouze ve výjimečných případech (např. při pátrání po pohřešovaných osobách nebo při bezprostřední hrozbě, jako je teroristický útok). Použití těchto technologií bez řádného povolení je porušením zákona.
Příklad: Systémy rozpoznávání obličejů použité pro masový dohled bez platného právního důvodu.
Při posuzování porušení bere nařízení EU o AI v úvahu potenciální újmu i společenský dopad. Klíčovými faktory jsou:
Například AI systém, který způsobí škodu neúmyslně kvůli technické chybě, může čelit mírnějším sankcím než systém záměrně navržený ke zneužití uživatelů.
Nařízení EU o AI stanovuje opatření k vymáhání dodržování pravidel, ochraně základních práv a podpoře důvěryhodné AI. Spoléhá na spolupráci národních orgánů, orgánů dohledu nad trhem a Evropské komise.
Národní orgány hrají klíčovou roli při vymáhání nařízení EU o AI ve svých členských státech. Patří sem například:
Členské státy musejí zavést systémy řízení AI do poloviny roku 2026, v souladu s plným vstupem nařízení v platnost.
Nařízení EU o AI vyžaduje důkladné monitorování a oznamování ohledně AI systémů:
Transparentnost je klíčovou součástí vymáhání:
Nařízení EU o AI stanovuje přísná pravidla pro využití AI a zavádí vysoké pokuty za jejich porušení. Tato pravidla:
Porušení nařízení EU o AI může mít kromě finančních sankcí i další důsledky – poškodit reputaci, oslabit důvěru zákazníků a vést k právním sporům. Organizace by měly:
Soulad s nařízením EU o AI není jen právní povinnost, ale také podporuje inovace tím, že vytváří bezpečnější a spolehlivější AI systémy. Organizace, které jsou v souladu:
Pro mezinárodní společnosti je soulad klíčový, protože nařízení platí i pro subjekty mimo EU, které nabízejí AI systémy v rámci EU. Globální podniky musí sladit své postupy s evropskou regulací, aby zůstaly konkurenceschopné.
Viktor Zeman je spolumajitelem QualityUnit. I po více než 20 letech vedení firmy zůstává především softwarovým inženýrem, specializuje se na AI, programatické SEO a backendový vývoj. Přispěl k řadě projektů, včetně LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab a mnoha dalších.

Ochraňte svůj podnik před vysokými pokutami podle nařízení EU o AI. Objevte, jak FlowHunt zjednodušuje soulad s AI, řízení rizik a transparentnost.

Prozkoumejte klíčové praktiky umělé inteligence zakázané Aktem EU o AI, včetně zákazu sociálního skórování, manipulační AI, biometrické identifikace v reálném č...

Prozkoumejte evropský zákon o AI – první komplexní regulaci AI na světě. Zjistěte, jak klasifikuje AI systémy podle rizikovosti, zavádí správu a stanovuje globá...

Zjistěte, jak evropský zákon o AI ovlivňuje chatboti, včetně rozdělení podle rizikovosti, požadavků na soulad, termínů a sankcí za nedodržení, abyste zajistili ...