Chatboty podľa Európskeho zákona o umelej inteligencii (AI Act)

Európsky zákon o AI rozdeľuje chatboty podľa úrovne rizika, stanovuje pravidlá transparentnosti pre väčšinu botov a prísny dohľad pre aplikácie s vysokým rizikom, pričom termíny na splnenie povinností začínajú vo februári 2025.

Chatboty podľa Európskeho zákona o umelej inteligencii (AI Act)

Prehľad rámca rizík podľa AI Act

Európsky zákon o umelej inteligencii prináša prelomový regulačný systém pre umelú inteligenciu. Tento systém využíva prístup založený na hodnotení rizík, aby zabezpečil bezpečné, transparentné a etické nasadenie AI systémov. Kľúčovou súčasťou je rozdelenie AI systémov do štyroch jasných kategórií rizika: Neprípustné riziko, Vysoké riziko, Obmedzené riziko a Minimálne alebo žiadne riziko. Každá kategória stanovuje úroveň regulácie a dohľadu na základe toho, ako môže AI ovplyvniť bezpečnosť, základné práva alebo spoločenské hodnoty.

Riziková pyramída v AI Act kategorizuje AI systémy takto:

  1. Neprípustné riziko: AI systémy, ktoré zjavne ohrozujú bezpečnosť, základné práva alebo hodnoty EÚ, sú zakázané. Príkladom sú AI na sociálne skórovanie, manipulatívne praktiky či špecifické nástroje na biometrickú identifikáciu.
  2. Vysoké riziko: AI systémy, ktoré významne ovplyvňujú bezpečnosť alebo práva, napríklad v zdravotníctve, presadzovaní práva alebo vzdelávaní, musia spĺňať prísne regulácie.
  3. Obmedzené riziko: Systémy v tejto kategórii, ako napríklad chatboty, majú špecifické požiadavky na transparentnosť, aby používatelia vedeli, že komunikujú s AI.
  4. Minimálne alebo žiadne riziko: Patria sem aplikácie ako AI spam filtre alebo videohry, ktoré kvôli nízkemu riziku nevyžadujú prísnu reguláciu.

Tento štruktúrovaný systém zabezpečuje, že regulácie zodpovedajú potenciálnym rizikám AI systému, vyvažujúc bezpečnosť a etiku s technologickými inováciami.

Kde patria chatboty: Kategórie s obmedzeným a vysokým rizikom

AI chatbot shield

Chatboty s obmedzeným rizikom

Väčšina chatbotov spadá do kategórie Obmedzené riziko podľa Európskeho zákona o AI. Tieto systémy sa bežne využívajú v rôznych odvetviach na zákaznícku podporu, poskytovanie informácií či konverzačné rozhrania. Sú považované za menej škodlivé v porovnaní s vplyvnejšími AI systémami. Aj v tejto kategórii však musia poskytovatelia dodržiavať pravidlá transparentnosti – jasne informovať používateľov, že komunikujú so systémom AI. Príklady:

  • Zákaznícke podporné boty: Tieto boty na e-shopoch pomáhajú používateľom odporúčaniami alebo odpoveďami na otázky. Poskytovatelia musia zverejniť, že ide o AI komunikáciu.
  • Informačné chatboty: Využívajú ich úrady alebo organizácie na poskytovanie verejných informácií a musia deklarovať svoju AI povahu.

Chatboty s vysokým rizikom

V určitých prípadoch môže chatbot patriť do kategórie Vysoké riziko, ak jeho použitie významne ovplyvňuje základné práva alebo bezpečnosť. Príklady takýchto chatbotov:

  • Zdravotnícke chatboty: AI systémy poskytujúce zdravotné rady či psychologické poradenstvo môžu ovplyvniť dôležité rozhodnutia, preto vyžadujú prísny regulačný dohľad.
  • Finančné poradenské boty: Chatboty poskytujúce finančné rady alebo hodnotiace úverovú spôsobilosť môžu zasiahnuť do ekonomických možností používateľov. Tieto systémy musia spĺňať prísne požiadavky na súlad.
  • Chatboty na právnu pomoc: AI nástroje asistujúce s právnym poradenstvom alebo s pomocou na súde môžu ovplyvniť výsledky spravodlivosti, čím patria medzi vysokorizikové.

Chatboty v tejto kategórii musia dodržiavať prísne požiadavky vrátane podrobnej dokumentácie, hodnotenia rizík a ľudského dohľadu na predchádzanie škodlivých následkov.

Príklady využitia chatbotov v jednotlivých kategóriách

Príklady s obmedzeným rizikom:

  1. Chatboty v maloobchode: Pomáhajú používateľom vyhľadávať produkty alebo sledovať objednávky.
  2. Cestovné asistenčné boty: Poskytujú informácie o letoch alebo odporúčajú možnosti ubytovania.
  3. Vzdelávacie chatboty: Odpovedajú na všeobecné otázky o kurzoch alebo rozvrhoch.

Príklady s vysokým rizikom:

  1. Chatboty pre duševné zdravie: Ponúkajú terapiu alebo podporu v krízových situáciách.
  2. AI na nábor zamestnancov: Preverujú uchádzačov alebo ovplyvňujú výberové rozhodnutia.
  3. Boty na súdnu asistenciu: Pomáhajú s právnou obhajobou alebo prípravou právnych dokumentov.

Klasifikovaním chatbotov podľa ich využitia a potenciálnych rizík zabezpečuje AI Act, že regulácie sú šité na mieru na ochranu používateľov a podporu rozvoja AI konverzačných nástrojov.

Požiadavky na súlad pre poskytovateľov chatbotov

Povinnosti transparentnosti pri chatbotoch s obmedzeným rizikom

Podľa Európskeho zákona o AI musia chatboty klasifikované ako s obmedzeným rizikom dodržiavať špecifické pravidlá transparentnosti na zabezpečenie etického a zodpovedného využitia. Poskytovatelia sú povinní informovať používateľov, že komunikujú so systémom umelej inteligencie, nie s človekom. Tým umožňujú používateľom robiť informované rozhodnutia počas interakcie s chatbotom.

Napríklad zákaznícke chatboty na e-shopoch musia jasne uvádzať: „Komunikujete s AI asistentom“, aby nedošlo k zámene používateľa. Podobne aj informačné chatboty využívané štátnymi úradmi alebo vzdelávacími inštitúciami musia zverejniť svoju AI povahu, aby bola komunikácia jasná.

Tieto požiadavky na transparentnosť sú vymáhateľné a majú budovať dôveru a chrániť používateľov pred manipuláciou či klamstvom. Transparentnosť je kľúčovou súčasťou AI Act a podporuje zodpovednosť pri využívaní AI systémov vrátane chatbotov naprieč sektormi.

Požiadavky na súlad pre chatboty s vysokým rizikom: Dokumentácia a dohľad

Chatboty zaradené medzi systémy s vysokým rizikom podliehajú omnoho prísnejším požiadavkám na súlad podľa AI Act. Takéto systémy sa často využívajú tam, kde môžu významne ovplyvniť základné práva alebo bezpečnosť používateľov – napríklad v zdravotníctve, financiách alebo právnych službách.

Poskytovatelia chatbotov s vysokým rizikom musia zaviesť komplexný systém riadenia rizík, ktorý zahŕňa:

  1. Dôkladná dokumentácia: Poskytovatelia musia viesť podrobné záznamy o návrhu, účele a fungovaní chatbotu. Tieto záznamy umožňujú regulátorom posúdiť, či chatbot spĺňa etické a právne štandardy.
  2. Zabezpečenie kvality dát: Chatboty s vysokým rizikom musia používať kvalitné datasety na minimalizáciu zaujatosti a nepresností. Napríklad chatbot poskytujúci finančné rady musí vychádzať z presných a nestranných údajov, aby zabránil neférovým výsledkom.
  3. Ľudský dohľad: Poskytovatelia musia zabezpečiť primeraný ľudský dohľad na predchádzanie škodlivých následkov. Znamená to, že ľudskí operátori by mali byť schopní zasiahnuť, upraviť alebo prebrať rozhodnutia AI systému, ak je to potrebné.
  4. Hodnotenia rizík: Poskytovatelia sú povinní pravidelne vykonávať hodnotenia rizík, aby identifikovali a riešili možné škody. Tieto hodnotenia sa musia zamerať na prevádzkové riziká chatbotu aj jeho širší spoločenský dopad.

Nesplnenie týchto požiadaviek môže viesť k vážnym následkom vrátane pokút a poškodenia reputácie, ako stanovuje AI Act.

Všeobecné princípy: Férovosť, zodpovednosť a nediskriminácia

Okrem špecifických požiadaviek stanovuje AI Act aj všeobecné princípy, ktoré musia dodržiavať všetci poskytovatelia chatbotov bez ohľadu na úroveň rizika:

  • Férovosť: Poskytovatelia musia zabezpečiť, aby chatboty nediskriminovali používateľov na základe pohlavia, etnicity či sociálno-ekonomického postavenia.
  • Zodpovednosť: Poskytovatelia nesú zodpovednosť za činnosť chatbotu, jeho výstupy a súlad s AI Act. Musia tiež udržiavať systémy na prijímanie a riešenie spätnej väzby od používateľov.
  • Nediskriminácia: Chatboty musia byť navrhnuté a testované tak, aby sa predišlo zaujatosti vedúcej k neférovému zaobchádzaniu. Rekrutovacie chatboty napríklad musia zabezpečiť, že ich algoritmy nebudú znevýhodňovať uchádzačov na základe irelevantných kritérií.

Dodržiavanie týchto princípov umožňuje poskytovateľom chatbotov zosúladiť sa so štandardmi AI Act pre etickú a dôveryhodnú umelú inteligenciu. Tieto pravidlá chránia používateľov a súčasne podporujú inovácie vďaka jasným a konzistentným smerniciam pre nasadzovanie AI.

Rámec požiadaviek na súlad pre poskytovateľov chatbotov je podľa AI Act dôkladný a nevyhnutný. Ich splnením prispievajú poskytovatelia k bezpečnejšiemu a spravodlivejšiemu AI prostrediu a vyhýbajú sa významným sankciám za nesplnenie povinností.

Termíny na splnenie požiadaviek podľa AI Act

Európsky zákon o AI stanovuje jasný harmonogram, podľa ktorého sa musia organizácie, vrátane poskytovateľov chatbotov, prispôsobiť novým reguláciám. Tieto termíny pomáhajú poskytovateľom pripraviť sa na splnenie zákonných povinností a vyhnúť sa sankciám.

Harmonogram pre chatboty s obmedzeným rizikom

Chatboty s obmedzeným rizikom, ktoré tvoria väčšinu chatbotových aplikácií, musia dodržiavať špecifické pravidlá pre transparentnosť a prevádzku do stanovených termínov. Prvý termín je 2. februára 2025, keď nadobúdajú účinnosť požiadavky na transparentnosť pre AI systémy s obmedzeným rizikom. Poskytovatelia musia informovať používateľov, že komunikujú s AI systémom. Napríklad zákaznícke chatboty musia zobrazovať upozornenia ako: „Komunikujete s AI asistentom.“

Do 2. augusta 2025 začnú platiť ďalšie pravidlá správy. Patria sem určenie národných orgánov na dohľad nad súladom a zavedenie aktualizovaných zásad transparentnosti a zodpovednosti. Poskytovatelia musia tiež nastaviť interné systémy na pravidelné hodnotenie, ako to vyžaduje zákon.

Termíny pre chatboty s vysokým rizikom a všeobecné AI systémy

Chatboty s vysokým rizikom, využívané napríklad v zdravotníctve, financiách či právnych službách, majú prísnejšie termíny na splnenie povinností. Prvým termínom je 2. februára 2025, keď musia byť zavedené základné pravidlá pre systémy riadenia rizík a transparentnosti dát. Poskytovatelia musia mať do tohto dátumu pripravenú podrobnú dokumentáciu, zabezpečiť kvalitné dáta a nastaviť procesy ľudského dohľadu.

Konečný termín na úplný súlad je 2. augusta 2027 a platí pre všetky vysokorizikové AI systémy, ktoré boli v prevádzke pred 2. augustom 2025. Do tohto dátumu musia poskytovatelia dokončiť hodnotenia rizík, zaviesť postupy na ľudský zásah a zabezpečiť, že ich systémy neobsahujú diskriminačné zaujatosti.

Dôsledky zmeškania termínov na splnenie povinností

Nesplnenie termínov môže viesť k vážnym následkom, napríklad k pokutám až do 30 miliónov eur alebo 6 % z celosvetového ročného obratu poskytovateľa – podľa toho, ktorá suma je vyššia. Nesúlad môže poškodiť reputáciu poskytovateľa, viesť k strate dôvery používateľov a zníženiu podielu na trhu. Okrem toho môžu orgány pozastaviť AI aktivity v rámci EÚ, čo môže narušiť obchodné operácie.

Dodržanie termínov však prináša aj výhody. Poskytovatelia, ktorí splnia požiadavky včas, si môžu vybudovať dôveru u používateľov a partnerov, čo posilní ich reputáciu a podporí dlhodobú lojalitu.

Fázovaný prístup AI Act poskytuje poskytovateľom chatbotov dostatok času na prispôsobenie systémov novým pravidlám. Dôkladné plánovanie a dodržanie termínov sú však nevyhnutné na zabezpečenie súladu a udržanie prevádzky na európskom trhu.

Dôsledky a sankcie za nesplnenie povinností

Európsky zákon o AI zavádza prísne sankcie pre organizácie, ktoré nedodržia jeho pravidlá. Tieto sankcie majú zabezpečiť súlad a podporiť etické a transparentné využívanie AI. Porušenie regulácie môže viesť k finančným stratám aj poškodeniu reputácie a postavenia na trhu.

Pokuty a finančné sankcie

AI Act ukladá vysoké finančné sankcie za nesplnenie povinností, rozdelené podľa závažnosti porušenia. Najvyššie pokuty sa vzťahujú na zakázané AI praktiky, ako je manipulácia správania alebo zneužívanie zraniteľností. Tieto porušenia môžu viesť k správnym pokutám až do 35 miliónov eur alebo 7 % z celosvetového ročného obratu spoločnosti – podľa toho, ktorá suma je vyššia.

Za porušenia týkajúce sa vysokorizikových AI systémov, napríklad chatbotov v zdravotníctve, presadzovaní práva či finančných službách, sú pokuty o niečo nižšie, ale stále významné. Spoločnosti môžu čeliť sankciám až do 15 miliónov eur alebo 3 % z celosvetového obratu v závislosti od typu porušenia. Medzi tieto porušenia patrí zlyhanie v riadení rizík, nedostatočný ľudský dohľad alebo použitie zaujatých či nekvalitných dát.

Aj menšie porušenia, ako je poskytnutie neúplných alebo nepravdivých informácií regulátorom, môžu viesť k pokutám až do 7,5 milióna eur alebo 1 % ročného obratu. Zákon tiež prihliada na finančné možnosti malých a stredných podnikov (SME) a uplatňuje nižšie pokuty na zabezpečenie férovosti.

Tieto sankcie sú vyššie ako v prípade GDPR, čo dokazuje, že EÚ chce z AI Act urobiť globálny štandard pre reguláciu umelej inteligencie.

Riziko poškodenia reputácie poskytovateľov chatbotov

Nesplnenie povinností môže výrazne poškodiť reputáciu organizácie. Spoločnosti, ktoré nesplnia požiadavky AI Act, môžu čeliť verejnej kritike, strate dôvery zákazníkov a poklesu konkurencieschopnosti. Používatelia čoraz viac oceňujú transparentnosť a etické využívanie AI, takže akékoľvek zlyhanie môže poškodiť dôveryhodnosť.

Pre poskytovateľov chatbotov to môže znamenať nižšiu používateľskú angažovanosť a slabšiu lojalitu k značke. Organizácie, ktoré sa spoliehajú na AI zákaznícky servis, môžu prísť o používateľov, ak nezverejnia, že komunikujú s AI, alebo ak ich chatboty konajú neeticky či prejavujú zaujatosti.

Regulátori môžu tiež verejne zverejniť prípady nesúladu, čím ešte viac zvyšujú reputačné škody. Takáto publicita môže odradiť potenciálnych obchodných partnerov, investorov a zainteresované strany, čo v dlhodobom horizonte oslabí rast a stabilitu organizácie.

Výhody včasného splnenia povinností

Včasné splnenie požiadaviek AI Act prináša aj viacero výhod. Organizácie, ktoré prispôsobia svoje fungovanie štandardom zákona pred termínmi, sa vyhnú pokutám a môžu sa prezentovať ako lídri v oblasti etického využívania AI. Včasný súlad preukazuje záväzok k transparentnosti, férovosti a zodpovednosti, čo oceňujú zákazníci aj regulátori.

Pre poskytovateľov chatbotov znamená včasný súlad budovanie dôvery a lojality používateľov. Transparentnosť, napríklad informovanie používateľov, že komunikujú s AI, zvyšuje spokojnosť zákazníkov. Takisto odstránenie zaujatostí a použitie kvalitných dát zlepšuje výkon chatbotu a používateľskú skúsenosť.

Organizácie, ktoré splnia povinnosti včas, môžu získať konkurenčnú výhodu. Sú lepšie pripravené na budúce regulačné zmeny a môžu si vybudovať dôveru a kredibilitu na trhu. To otvára nové príležitosti na rast, partnerstvá a spoluprácu.

Dôsledky nesplnenia AI Act sú významné – finančné sankcie, poškodenie reputácie a prevádzkové problémy sú reálne riziká. Proaktívny súlad však prináša jasné benefity a umožňuje poskytovateľom chatbotov vyhnúť sa pokutám a vytvárať dôveryhodné, etické a používateľsky orientované AI prostredie.

Najčastejšie kladené otázky

Ako Európsky zákon o AI klasifikuje chatboty?

AI Act kategorizuje chatboty ako systémy s obmedzeným rizikom alebo s vysokým rizikom. Chatboty s obmedzeným rizikom, ako sú napríklad zákaznícke podporné boty, musia zabezpečiť transparentnosť informovaním používateľov, že komunikujú s AI. Chatboty s vysokým rizikom, napríklad v zdravotníctve alebo právnom poradenstve, podliehajú prísnejšej dokumentácii, dohľadu a požiadavkám na súlad.

Aké sú termíny pre splnenie povinností chatbotov podľa Európskeho zákona o AI?

Požiadavky na transparentnosť pre chatboty s obmedzeným rizikom nadobúdajú účinnosť 2. februára 2025. Chatboty s vysokým rizikom musia splniť počiatočné štandardy riadenia rizík a transparentnosti do 2. februára 2025 a plný súlad dosiahnuť najneskôr do 2. augusta 2027.

Aké sankcie hrozia poskytovateľom chatbotov za nesplnenie povinností podľa Európskeho zákona o AI?

Nesplnenie povinností môže viesť k pokutám až do výšky 35 miliónov eur alebo 7 % z celosvetového ročného obratu za zakázané praktiky a až do 15 miliónov eur alebo 3 % obratu za porušenia v systémoch s vysokým rizikom, spolu s poškodením reputácie a možným pozastavením AI aktivít v EÚ.

Aké sú požiadavky na transparentnosť pre chatboty s obmedzeným rizikom?

Poskytovatelia musia jasne informovať používateľov, keď komunikujú so systémom AI. Napríklad zákaznícke chatboty by mali zobrazovať upozornenia ako: „Komunikujete s AI asistentom.“

Aké všeobecné princípy musia dodržiavať všetci poskytovatelia chatbotov podľa Európskeho zákona o AI?

Všetci poskytovatelia chatbotov musia zabezpečiť férovosť, zodpovednosť a nediskrimináciu. To znamená predchádzať zaujatým výsledkom, niesť zodpovednosť za činnosť chatbotu a udržiavať systémy na spätnú väzbu od používateľov.

Viktor Zeman je spolumajiteľom spoločnosti QualityUnit. Aj po 20 rokoch vedenia firmy zostáva predovšetkým softvérovým inžinierom, špecializujúcim sa na AI, programatické SEO a backendový vývoj. Prispel k množstvu projektov vrátane LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab a mnohých ďalších.

Viktor Zeman
Viktor Zeman
CEO, AI inžinier

Pripravení vytvoriť si vlastnú AI?

Inteligentné chatboty a AI nástroje pod jednou strechou. Prepojte intuitívne bloky a premeňte svoje nápady na automatizované Flows.

Zistiť viac