AI Act
Unijny Akt o AI to pierwsze globalne ramy prawne poświęcone sztucznej inteligencji, zapewniające bezpieczną, etyczną i przejrzystą AI przez klasyfikację systemów według ryzyka i wprowadzenie rygorystycznych standardów zgodności.

Przegląd Aktu o AI
Akt o Sztucznej Inteligencji (AI Act) to ważne ramy regulacyjne wprowadzone przez Unię Europejską (UE) w celu nadzoru nad rozwojem i wykorzystaniem technologii sztucznej inteligencji. Przyjęty w maju 2024 roku, jest pierwszym na świecie aktem prawnym w całości poświęconym AI. Jego głównym celem jest zapewnienie bezpiecznego i godnego zaufania środowiska dla AI poprzez podejmowanie wyzwań etycznych, społecznych i technicznych. Akt dostosowuje rozwój AI do europejskich wartości, koncentrując się na przejrzystości, sprawiedliwości i odpowiedzialności.
AI Act wyróżnia się szerokim zakresem – reguluje systemy AI w zależności od poziomu ryzyka i zastosowań. Dotyczy zarówno systemów stworzonych w UE, jak i tych wprowadzanych na rynek, używanych lub których wyniki oddziałują na teren UE. Takie podejście zapewnia, że każda sztuczna inteligencja wpływająca na obywateli lub przedsiębiorstwa UE spełnia te same wysokie standardy, niezależnie od miejsca jej powstania.

Zakres i zastosowanie Aktu o AI
Akt o AI obejmuje różnych uczestników ekosystemu AI, w tym:
- Dostawcy: Organizacje opracowujące i dostarczające systemy AI pod własną marką. Dostawcy mają obowiązek zapewnić zgodność swoich systemów z wymogami Aktu przed wejściem na rynek UE.
- Użytkownicy: Przedsiębiorstwa lub osoby wykorzystujące systemy AI. Muszą oni stosować AI zgodnie z przepisami, szczególnie w przypadku aplikacji wysokiego ryzyka.
- Importerzy i dystrybutorzy: Podmioty wprowadzające systemy AI do UE lub dystrybuujące je na jej obszarze muszą przestrzegać określonych zasad zgodności.
- Producenci: Firmy integrujące AI ze swoimi produktami również podlegają przepisom, jeśli ich produkty są sprzedawane w UE.
Akt szeroko definiuje systemy AI jako oparte na maszynach systemy, które działają autonomicznie, generując wyniki takie jak prognozy, rekomendacje czy decyzje. Niektóre kategorie AI, np. wykorzystywane do celów badawczo-rozwojowych lub w kontrolowanych środowiskach testowych przed wdrożeniem, są wyłączone spod przepisów Aktu.
Kluczowe cechy Aktu o AI
Podejście oparte na ryzyku
Akt o AI stosuje system klasyfikacji oparty na ryzyku. Dzieli systemy AI na cztery poziomy ryzyka:
- Niedopuszczalne ryzyko: Systemy AI uznane za szkodliwe lub sprzeczne z wartościami UE są zakazane. Przykładem są technologie takie jak systemy scoringu społecznego czy AI manipulująca ludzkim zachowaniem w celu wyrządzenia szkody.
- Wysokie ryzyko: Do tej kategorii należą narzędzia do identyfikacji biometrycznej, urządzenia medyczne czy zarządzanie infrastrukturą krytyczną. Muszą one spełniać rygorystyczne wymagania, takie jak testy, dokumentacja i nadzór ludzki.
- Ograniczone ryzyko: Systemy tego typu, często wykorzystywane w edukacji lub rozrywce, muszą spełniać wymogi przejrzystości, np. informować użytkowników o kontakcie z AI.
- Minimalne lub brak ryzyka: Większość aplikacji AI, na przykład silniki rekomendacji w e-commerce, należy do tej kategorii i podlega niewielkim lub żadnym regulacjom.
Zarządzanie i zgodność
Akt o AI ustanawia system nadzoru mający zapewnić zgodność. Obejmuje on:
- Europejską Radę ds. Sztucznej Inteligencji: Koordynuje stosowanie Aktu w krajach członkowskich UE, dbając o spójność i wydając wytyczne.
- Krajowe organy nadzorcze: Każde państwo UE musi wyznaczyć organ monitorujący i egzekwujący zgodność na swoim terytorium.
- Zasięg eksterytorialny: Akt dotyczy każdego systemu AI mającego wpływ na UE, nawet jeśli powstał poza tym regionem.
Przepisy dla generatywnej AI
Akt zawiera szczególne zasady dla generatywnych systemów AI, takich jak ChatGPT. Ich twórcy muszą spełniać wymagania dotyczące przejrzystości i bezpieczeństwa, m.in. ujawniać metody uczenia, wykorzystywane zbiory danych i potencjalne uprzedzenia.
Klasyfikacja AI: system oparty na ryzyku
System klasyfikacji oparty na ryzyku
Unijny Akt o Sztucznej Inteligencji stosuje system klasyfikacji oparty na ryzyku w celu regulacji technologii AI. To podejście dopasowuje stopień nadzoru regulacyjnego do potencjalnych zagrożeń związanych z danym zastosowaniem AI. Dzieląc systemy AI na cztery poziomy ryzyka – Niedopuszczalne, Wysokie, Ograniczone oraz Minimalne lub brak ryzyka – UE dąży do znalezienia równowagi między postępem technologicznym a bezpieczeństwem społecznym i standardami etycznymi. Każda kategoria nakłada określone wymagania regulacyjne i obowiązki na twórców, użytkowników oraz innych interesariuszy AI.
Poziomy ryzyka i ich konsekwencje
Niedopuszczalne ryzyko
Systemy AI zaliczone do kategorii „Niedopuszczalne ryzyko” są uznane za bezpośrednie zagrożenie dla praw podstawowych, bezpieczeństwa lub wartości UE. Takie systemy są zakazane przez Akt o AI ze względu na ich szkodliwy charakter. Przykłady obejmują:
- Manipulacja podprogowa: Systemy, które skrycie wpływają na ludzkie zachowania w celu wyrządzenia szkody, np. manipulowanie decyzjami wyborców bez ich świadomości.
- Wykorzystywanie słabości: AI celowo krzywdząca osoby ze względu na wiek, niepełnosprawność czy sytuację ekonomiczną. Przykładem są interaktywne zabawki zachęcające dzieci do niebezpiecznych zachowań.
- Scoring społeczny: Systemy oceniające ludzi na podstawie zachowania lub cech, np. ocena wiarygodności kredytowej na podstawie aktywności w mediach społecznościowych, prowadząca do niesprawiedliwych konsekwencji.
- Biometryczna identyfikacja w czasie rzeczywistym w przestrzeni publicznej: Systemy rozpoznawania twarzy wykorzystywane do nadzoru, z wyjątkiem szczególnych przypadków, jak działania organów ścigania za zgodą sądu.
- Rozpoznawanie emocji i kategoryzacja biometryczna: AI wnioskująca o wrażliwych danych, jak pochodzenie etniczne czy poglądy polityczne, zwłaszcza w miejscach pracy lub szkołach.
Zakazy te odzwierciedlają zaangażowanie UE w etyczną AI, która szanuje prawa człowieka.
Wysokie ryzyko
Systemy AI o wysokim ryzyku mają znaczący wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe. Nie są one zabronione, ale muszą spełniać surowe wymogi przejrzystości i odpowiedzialności. Przykłady:
- Infrastruktura krytyczna: AI zarządzająca podstawowymi systemami, jak transport, gdzie awarie mogą zagrażać życiu.
- Edukacja i zatrudnienie: Systemy mające wpływ na dostęp do edukacji lub pracy, np. algorytmy oceniające egzaminy czy selekcjonujące kandydatów.
- Opieka zdrowotna: AI zintegrowana ze sprzętem medycznym lub wspierająca decyzje kliniczne, np. przy operacjach wspomaganych przez roboty.
- Usługi publiczne: Narzędzia decydujące o przyznaniu kredytów lub świadczeń społecznych.
- Organy ścigania i kontrola graniczna: AI wykorzystywana przy dochodzeniach kryminalnych lub procesach wizowych.
Twórcy i użytkownicy AI wysokiego ryzyka muszą prowadzić szczegółową dokumentację, zapewnić nadzór ludzki oraz przeprowadzać oceny zgodności, by minimalizować ryzyko.
Ograniczone ryzyko
Systemy AI o ograniczonym ryzyku generują umiarkowane zagrożenia. Muszą spełniać wymogi przejrzystości, by użytkownicy byli świadomi interakcji z AI. Przykłady:
- Chatboty: Systemy zobowiązane do informowania użytkownika, że nie rozmawia z człowiekiem.
- Algorytmy rekomendacji: AI sugerująca produkty, treści czy rozrywkę.
Choć ryzyko jest niższe, Akt o AI wymaga podstawowych standardów etycznych, by budować zaufanie i odpowiedzialność.
Minimalne lub brak ryzyka
Większość zastosowań AI, w tym ogólne narzędzia, jak tłumaczenia maszynowe czy wyszukiwarki, mieści się w tej kategorii. Takie systemy podlegają minimalnym lub żadnym ograniczeniom, co sprzyja swobodnemu rozwojowi innowacji. Przykłady: narzędzia produktywności oparte na AI czy asystenci w urządzeniach osobistych.
Przepisy dla systemów generatywnych AI
Akt o AI zawiera szczególne wymogi dla generatywnych systemów AI, takich jak ChatGPT czy DALL-E, generujących tekst, obrazy lub kod. Klasyfikacja zależy od przeznaczenia i potencjalnego wpływu. Najważniejsze wymogi:
- Przejrzystość: Twórcy muszą ujawniać zbiory danych użyte do uczenia oraz oznaczać treści jako generowane przez AI.
- Wytyczne dotyczące bezpieczeństwa i etyki: Generatywna AI powinna ograniczać uprzedzenia, zapobiegać dezinformacji i być zgodna z zasadami etycznymi.
- Odpowiedzialność: Firmy muszą dostarczać szczegółową dokumentację dotyczącą architektury modeli, ich przeznaczenia i ograniczeń.
Zapewnianie zgodności: ramy zarządzania
Rola zarządzania w unijnym Akcie o AI
Unijny Akt o AI wprowadza ramy zarządzania mające zagwarantować przestrzeganie przepisów. Struktura ta promuje przejrzystość, odpowiedzialność i jednolite stosowanie prawa na terenie całej Unii, chroni prawa podstawowe i wspiera rozwój godnych zaufania technologii AI. Kluczowe są tutaj Europejska Rada ds. Sztucznej Inteligencji (EAIB) oraz Europejskie Biuro ds. AI, współpracujące z organami krajowymi w egzekwowaniu i monitorowaniu Aktu.
Europejska Rada ds. Sztucznej Inteligencji (EAIB)
Europejska Rada ds. Sztucznej Inteligencji (EAIB) to główny organ zarządzający Aktem o AI. Jest ciałem doradczym i koordynującym, mającym zapewnić jednolite stosowanie przepisów w całej Unii.
Podstawowe zadania
- Koordynacja i nadzór:
EAIB dąży do ujednolicenia działań krajowych organów odpowiedzialnych za egzekwowanie Aktu o AI. Zapewnia, że państwa członkowskie regulują AI w spójny sposób, minimalizując rozbieżności w interpretacji i stosowaniu przepisów. - Wytyczne i rekomendacje:
Rada doradza w zakresie stosowania Aktu. Opracowuje wytyczne, projekty aktów delegowanych oraz inne narzędzia regulacyjne. Te zasoby wyjaśniają przepisy Aktu, ułatwiając ich stosowanie i egzekwowanie. - Tworzenie polityk:
EAIB współtworzy europejską politykę AI, doradza w zakresie strategii innowacji, współpracy międzynarodowej i innych inicjatyw, by zapewnić konkurencyjność UE w dziedzinie AI.
Struktura zarządzania
EAIB składa się z przedstawicieli każdego państwa członkowskiego UE i jest wspierana przez Europejskie Biuro ds. AI, działające jako sekretariat. W posiedzeniach uczestniczą również obserwatorzy, tacy jak Europejski Inspektor Ochrony Danych czy przedstawiciele krajów EOG-EFTA. Wewnątrz Rady działają podgrupy robocze skupione na konkretnych obszarach polityki, wspierające współpracę i wymianę dobrych praktyk.
Europejskie Biuro ds. AI
Europejskie Biuro ds. AI to główny unijny ośrodek zarządzania AI, ściśle współpracujący z EAIB i państwami członkowskimi nad wdrażaniem Aktu. Jego rolą jest zapewnienie, by technologie AI były rozwijane bezpiecznie i odpowiedzialnie.
Kluczowe funkcje
- Ekspertyza i wsparcie:
Biuro pełni rolę centrum wiedzy o AI w UE, zapewnia wsparcie techniczne i regulacyjne państwom członkowskim oraz ocenia modele AI ogólnego przeznaczenia pod kątem zgodności z wymogami bezpieczeństwa i etyki. - Koordynacja międzynarodowa:
Biuro promuje globalną współpracę w zakresie zarządzania AI, prezentując podejście regulacyjne UE jako wzorzec międzynarodowy. Współpracuje z naukowcami, biznesem i społeczeństwem obywatelskim przy tworzeniu polityk. - Egzekwowanie przepisów:
Biuro ma uprawnienia do oceny systemów AI, żądania informacji oraz nakładania kar na dostawców modeli AI ogólnego przeznaczenia niezgodnych z Aktem o AI.
Zasięg eksterytorialny Aktu o AI
Akt o AI dotyczy zarówno podmiotów działających w UE, jak i spoza Unii, jeśli oferują systemy AI na rynku unijnym lub używają AI oddziałującej na obywateli UE. Ten eksterytorialny zakres zapewnia przestrzeganie wysokich standardów UE na całym świecie i wyznacza wzorzec dla globalnego zarządzania AI.
Porównanie z RODO
Ramy zarządzania Aktem o AI mają wiele wspólnego z Ogólnym Rozporządzeniem o Ochronie Danych (RODO), zwłaszcza pod względem struktury i celów.
- Centralny nadzór:
Podobnie jak Europejska Rada Ochrony Danych w RODO, EAIB zapewnia scentralizowany nadzór nad zarządzaniem AI, co gwarantuje spójność w całej Unii. - Zasięg eksterytorialny:
Zarówno Akt o AI, jak i RODO obejmują swoim zasięgiem podmioty spoza UE, co pokazuje, że Unia dąży do wyznaczania globalnych standardów regulacji cyfrowych. - Ochrona praw podstawowych:
Oba akty kładą nacisk na ochronę praw podstawowych, przejrzystość, odpowiedzialność i etykę w odpowiednich obszarach.
Akt o AI rozwiązuje jednak specyficzne wyzwania dotyczące AI, takie jak klasyfikacja ryzyka i regulacja systemów generatywnych.
Regulacje AI w wymiarze globalnym
Akt o AI jako wzorzec globalny
Unijny Akt o Sztucznej Inteligencji stanowi globalny wzorzec skutecznej regulacji AI. Jako pierwsze szczegółowe ramy prawne dla AI, wyznacza kierunek dla innych regionów, które chcą mierzyć się z wyzwaniami etycznymi, prawnymi i społecznymi rozwoju AI. Wprowadza klasyfikację opartą na ryzyku, promuje przejrzystość i koncentruje się na ochronie praw podstawowych – budując nowoczesny i silny model regulacyjny.
Akt o AI uwzględnia zarówno szanse, jak i zagrożenia związane z AI. Przykładowo, zakazuje praktyk takich jak scoring społeczny czy wybrane zastosowania identyfikacji biometrycznej, wyznaczając jasne standardy etyczne. Ramy te już wpłynęły na dyskusje w krajach takich jak Stany Zjednoczone, Kanada czy Japonia, gdzie decydenci rozważają podobne strategie zarządzania AI.
Dodatkowo Akt wprowadza zasady eksterytorialności. Oznacza to, że firmy na całym świecie, niezależnie od siedziby, muszą przestrzegać wymogów Aktu, jeśli ich systemy AI oddziałują na rynek UE lub jej obywateli. Zapewnia to wpływ regulacji wykraczający poza Europę i zachęca firmy międzynarodowe do dostosowywania się do tych standardów.
Współpraca międzynarodowa w zarządzaniu AI
UE zdaje sobie sprawę, że stawienie czoła wyzwaniom AI wymaga globalnej współpracy. Współpracuje z organizacjami międzynarodowymi i innymi krajami, aby promować spójne regulacje i standardy etyczne w AI. Programy takie jak Zasady AI OECD czy inicjatywy AI grupy G7 już odzwierciedlają elementy unijnych ram.
Wydarzenia takie jak niedawny Szczyt w Bletchley Park podkreślają potrzebę globalnych rozmów o zarządzaniu AI. Spotkania te gromadzą decydentów, ekspertów branżowych i przedstawicieli społeczeństwa obywatelskiego, by omawiać wspólne wartości i strategie. Aktywna rola UE w tych debatach pokazuje jej zaangażowanie w kształtowanie światowych regulacji.
Poprzez współpracę międzynarodową UE dąży do uniknięcia rozdrobnienia polityk AI na świecie, promując jednolite podejście, by technologie AI były bezpieczne, etyczne i korzystne dla wszystkich.
Przyszłość AI w Europie
Celem Aktu o AI jest nie tylko regulacja, ale także pobudzenie innowacji i konkurencyjności unijnego sektora AI. Towarzyszą mu inicjatywy takie jak Pakiet Innowacji AI i Pakt AI, promujące rozwój AI zorientowanej na człowieka i zachęcające do inwestycji i badań.
Patrząc w przyszłość, UE przewiduje, że technologie AI staną się integralną częścią społeczeństwa, poprawiając produktywność i rozwiązując złożone problemy bez kompromisów etycznych. Nacisk na przejrzystość i odpowiedzialność zapewnia, że systemy AI będą godne zaufania i zyskają akceptację społeczną.
W miarę wzrostu globalnej konkurencji w dziedzinie AI, podejście UE – łączące silne regulacje z wsparciem dla innowacji – czyni ją kluczowym graczem w rozwoju etycznej AI. Strategia ta przynosi korzyści obywatelom UE i stanowi wzór dla innych krajów, sprzyjając światowemu zwrotowi w kierunku odpowiedzialnego zarządzania AI.
Poprzez promowanie Aktu o AI jako globalnego wzorca oraz wspieranie współpracy międzynarodowej, UE pokazuje swoje zaangażowanie w tworzenie etycznych i godnych zaufania systemów AI. Te ramy odpowiadają na obecne wyzwania i wytyczają ścieżkę dla globalnego, bezpiecznego i zrównoważonego rozwoju AI.
Najczęściej zadawane pytania
- Czym jest unijny Akt o AI?
Unijny Akt o AI to kompleksowe ramy regulacyjne wprowadzone przez Unię Europejską w celu zarządzania rozwojem i wykorzystaniem technologii sztucznej inteligencji. Jest to pierwsze na świecie ramy prawne poświęcone AI, skupiające się na przejrzystości, bezpieczeństwie i standardach etycznych.
- Jak Akt o AI klasyfikuje systemy AI?
Akt o AI stosuje klasyfikację opartą na ryzyku, dzieląc systemy AI na cztery kategorie: Niedopuszczalne ryzyko (zakazane zastosowania), Wysokie ryzyko (surowe wymagania), Ograniczone ryzyko (obowiązki w zakresie przejrzystości) oraz Minimalne lub brak ryzyka (niewiele lub brak ograniczeń).
- Kogo dotyczy zgodność z Aktem o AI?
Wszyscy uczestnicy ekosystemu AI – w tym dostawcy, użytkownicy, importerzy, dystrybutorzy i producenci – muszą spełniać wymogi, jeśli ich systemy AI są używane w UE lub mają wpływ na obywateli UE, niezależnie od miejsca powstania systemu.
- Jakie wymagania wobec generatywnej AI stawia Akt o AI?
Twórcy generatywnych systemów AI, takich jak ChatGPT, muszą spełniać wymogi przejrzystości i bezpieczeństwa, w tym ujawniać metody uczenia, zbiory danych oraz potencjalne uprzedzenia, a także informować, gdy treści są wygenerowane przez AI.
- Czy Akt o AI obowiązuje poza UE?
Tak, Akt o AI ma zasięg eksterytorialny. Dotyczy każdego systemu AI, który ma wpływ na rynek UE lub jej obywateli, nawet jeśli został opracowany lub wdrożony poza Unią.
Viktor Zeman jest współwłaścicielem QualityUnit. Nawet po 20 latach kierowania firmą pozostaje przede wszystkim inżynierem oprogramowania, specjalizującym się w AI, programatycznym SEO i programowaniu backendu. Przyczynił się do powstania wielu projektów, w tym LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab i wielu innych.

Gotowy, aby stworzyć własną AI?
Inteligentne chatboty i narzędzia AI w jednym miejscu. Połącz intuicyjne bloki, aby zamienić swoje pomysły w automatyczne Flows.