Przejdź do głównej treści
Czatuj z nami na WhatsApp
Dom Blog AI ACT - co to jest?

AI ACT - co to jest?

Hanna Pizano Galus
AI ACT - co to jest?

AI ACT - co to jest?

Spis treści

AI Act to unijne rozporządzenie, które określa zasady projektowania, wdrażania i stosowania systemów sztucznej inteligencji. Regulacja opiera się na podejściu opartym na ryzyku i nakłada obowiązki zarówno na twórców AI, jak i firmy korzystające z gotowych narzędzi. Ma istotne znaczenie dla biznesu, HR, e-commerce oraz wszystkich organizacji, w których AI wpływa na decyzje, użytkowników i procesy operacyjne.

AI ACT - co to jest?

ai-act-co-to-jest

AI Act – charakter prawny, zakres regulacji i znaczenie dla funkcjonowania przedsiębiorstw oraz stosowania systemów AI w działalności gospodarczej

AI Act (Artificial Intelligence Act) stanowi kluczową regulację Unii Europejskiej dotyczącą sztucznej inteligencji, wprowadzającą jednolite ramy prawne dla projektowania, wprowadzania do obrotu oraz stosowania systemów AI.

Rozporządzenie to określa zasady funkcjonowania systemów sztucznej inteligencji w skali całego rynku wewnętrznego, ustanawiając spójny model regulacyjny dla wszystkich państw członkowskich.

Jest to akt prawny ustanawiający kompleksowy reżim prawny obejmujący wprowadzanie do obrotu, oddawanie do użytku oraz stosowanie systemów sztucznej inteligencji.

Ma ono charakter kompleksowy, obejmując:

  • wprowadzanie systemów AI do obrotu,

  • oddawanie ich do użytku,

  • ich faktyczne stosowanie w działalności gospodarczej i publicznej.

AI Act nie jest regulacją o wyłącznie technicznym charakterze.

Stanowi on systemowy punkt odniesienia dla odpowiedzialnego wykorzystania sztucznej inteligencji, oparty na zarządzaniu ryzykiem, zapewnieniu zgodności oraz kontroli wpływu systemów AI na jednostkę i rynek.

Czym jest AI Act i dlaczego ma znaczenie?

AI Act (Artificial Intelligence Act, określany również jako EU AI Act) to rozporządzenie Unii Europejskiej ustanawiające zharmonizowane zasady dotyczące sztucznej inteligencji.

Regulacja ta:

  • wprowadza jednolite ramy prawne dla systemów AI na poziomie całej Unii Europejskiej,

  • określa zakres zastosowania regulacji oraz obowiązki poszczególnych kategorii podmiotów,

  • koncentruje się na ochronie praw podstawowych, bezpieczeństwa oraz interesu publicznego,

  • ustanawia mechanizmy zapewnienia zgodności (compliance) oraz nadzoru nad systemami AI.

Zakres regulacji obejmuje szerokie spektrum zastosowań sztucznej inteligencji — od prostych systemów wspierających decyzje po zaawansowane modele wykorzystywane na dużą skalę.

Celem AI Act jest zapewnienie, aby rozwój i stosowanie sztucznej inteligencji odbywały się w sposób:

  • bezpieczny,

  • przejrzysty,

  • zgodny z wartościami oraz porządkiem prawnym Unii Europejskiej.

The EU AI Act – jak działa w praktyce?

AI Act – mechanizm działania regulacji w praktyce

AI Act wprowadza model regulacyjny oparty na ocenie ryzyka (risk-based approach).

Oznacza to, że systemy sztucznej inteligencji podlegają kwalifikacji w zależności od poziomu ryzyka, jakie mogą stwarzać w szczególności dla:

  • osób fizycznych,

  • praw podstawowych,

  • bezpieczeństwa,

  • funkcjonowania rynku.

W ramach tego podejścia wyróżnia się cztery zasadnicze kategorie systemów AI:

  • systemy niedopuszczalne (praktyki zakazane),

  • systemy wysokiego ryzyka (high-risk AI systems),

  • systemy ograniczonego ryzyka,

  • systemy minimalnego ryzyka.

Zakwalifikowanie systemu do określonej kategorii determinuje zakres obowiązków regulacyjnych nałożonych na podmioty uczestniczące w jego tworzeniu i stosowaniu.

W konsekwencji AI Act nie wprowadza jednolitego reżimu dla wszystkich systemów sztucznej inteligencji, lecz uzależnia intensywność regulacji od poziomu ryzyka, jaki dany system generuje.

Systemy AI – definicja i zakres regulacji

AI Act wprowadza autonomiczną definicję „systemu sztucznej inteligencji”, obejmującą systemy zdolne do:

  • generowania wyników w postaci predykcji, rekomendacji lub decyzji,

  • oddziaływania na środowisko cyfrowe lub fizyczne,

  • działania z określonym stopniem autonomii.

Definicja ta ma charakter funkcjonalny i technologicznie neutralny, co oznacza, że obejmuje szeroki zakres rozwiązań opartych na sztucznej inteligencji.

W praktyce prowadzi to do objęcia regulacją różnorodnych systemów wykorzystywanych w działalności gospodarczej i publicznej - od narzędzi komunikacyjnych (np. chatbotów) po systemy wspierające podejmowanie decyzji, w tym systemy scoringowe.

Modele AI ogólnego przeznaczenia – odrębny reżim regulacyjny

Jednym z istotnych elementów AI Act jest wprowadzenie regulacji dotyczących modeli sztucznej inteligencji ogólnego przeznaczenia (general-purpose AI models).

Są to modele, które:

  • wykazują wysoki poziom ogólności zastosowań,

  • mogą być wykorzystywane w różnych kontekstach i do różnych celów,

  • stanowią podstawę dla tworzenia wielu systemów AI niższego szczebla.

Do tej kategorii zaliczają się w szczególności:

  • modele językowe,

  • systemy generatywne,

  • narzędzia wykorzystywane do analizy danych.

Znaczenie tej kategorii wynika z faktu, że modele ogólnego przeznaczenia:

  • mogą generować ryzyko o charakterze systemowym,

  • funkcjonują na dużą skalę,

  • są wykorzystywane przez wielu dostawców oraz podmioty stosujące systemy AI.

W konsekwencji AI Act wprowadza wobec tej kategorii modeli odrębne obowiązki regulacyjne, w tym – w przypadku modeli o ryzyku systemowym – bardziej zaawansowane wymogi w zakresie zarządzania ryzykiem i transparentności.

AI Office – mechanizmy nadzoru na poziomie Unii Europejskiej

W ramach AI Act przewidziano utworzenie Europejskiego Urzędu ds. Sztucznej Inteligencji (AI Office), funkcjonującego przy Komisji Europejskiej.

AI Office pełni rolę organu koordynującego na poziomie Unii, którego zadania obejmują w szczególności:

  • wspieranie wdrażania i stosowania AI Act,

  • koordynację działań między państwami członkowskimi,

  • wspieranie jednolitej interpretacji przepisów,

  • monitorowanie rozwoju systemów oraz modeli AI, w tym modeli ogólnego przeznaczenia.

Instytucja ta odgrywa istotną rolę w zapewnieniu spójności stosowania regulacji w całej Unii Europejskiej oraz w kształtowaniu praktyki nadzorczej w obszarze sztucznej inteligencji.

Obowiązki organizacji – co zmienia AI Act?

AI Act wprowadza szereg obowiązków dla podmiotów uczestniczących w tworzeniu i stosowaniu systemów sztucznej inteligencji, przy czym ich zakres jest uzależniony od roli danego podmiotu oraz poziomu ryzyka związanego z danym systemem.

Do podstawowych obowiązków należą w szczególności:

  • przeprowadzanie oceny ryzyka systemów AI,

  • wdrożenie odpowiednich środków technicznych i organizacyjnych,

  • zapewnienie zgodności systemów z wymaganiami regulacyjnymi,

  • realizacja obowiązków związanych z dokumentacją oraz – w określonych przypadkach – rejestracją systemów,

  • prowadzenie monitoringu działania systemów AI,

  • zapewnienie odpowiedniego nadzoru człowieka nad funkcjonowaniem systemów AI.

Zakres i intensywność tych obowiązków różnią się w zależności od kategorii systemu AI oraz jego zastosowania.

W praktyce regulacja ta prowadzi do konieczności wdrożenia w organizacjach uporządkowanych mechanizmów zarządzania wykorzystaniem sztucznej inteligencji, obejmujących identyfikację systemów AI, ocenę ryzyka oraz zapewnienie zgodności z przepisami.

Systemy AI wysokiego ryzyka – szczególne wymagania regulacyjne

Systemy sztucznej inteligencji zakwalifikowane jako systemy wysokiego ryzyka podlegają najbardziej rygorystycznemu reżimowi regulacyjnemu przewidzianemu w AI Act.

Do tej kategorii należą systemy wykorzystywane w obszarach wskazanych w rozporządzeniu, w szczególności takich jak:

  • zatrudnienie i zarządzanie personelem (w tym procesy rekrutacyjne),

  • dostęp do usług finansowych, w tym ocena zdolności kredytowej,

  • edukacja i kształcenie,

  • funkcjonowanie infrastruktury krytycznej.

W odniesieniu do tych systemów AI Act ustanawia szereg szczegółowych wymogów, obejmujących w szczególności:

  • prowadzenie rozbudowanej dokumentacji technicznej,

  • wdrożenie systemu monitorowania działania systemu AI,

  • zapewnienie odpowiedniego nadzoru człowieka (human oversight),

  • wykorzystanie danych spełniających określone standardy jakości,

  • identyfikację oraz ograniczanie negatywnego wpływu systemu na osoby fizyczne i ich prawa podstawowe.

Wymogi te mają na celu zapewnienie, że systemy AI wysokiego ryzyka są projektowane i wykorzystywane w sposób bezpieczny, przejrzysty oraz zgodny z obowiązującymi standardami ochrony praw jednostki.

Wyłączenia i wyjątki

AI Act przewiduje określone wyłączenia z zakresu stosowania regulacji, odnoszące się do szczególnych kategorii systemów AI oraz etapów ich rozwoju.

Wyłączenia te obejmują w szczególności:

  • systemy AI wykorzystywane wyłącznie do celów badawczych i naukowych,

  • systemy znajdujące się na etapie projektowania, testowania lub opracowywania (przed ich wprowadzeniem do obrotu lub oddaniem do użytku),

  • określone przypadki związane z wykorzystaniem modeli AI, w których zastosowanie znajdują szczególne zasady regulacyjne.

Zakres tych wyłączeń ma jednak charakter ograniczony i nie obejmuje typowych zastosowań komercyjnych.

W konsekwencji większość systemów AI wykorzystywanych w działalności gospodarczej podlega obowiązkom wynikającym z AI Act.

Zgodność (compliance) – nowy standard biznesowy

AI Act nie wprowadza pojęcia zgodności jako takiego, lecz nadaje mu szczególne znaczenie w kontekście systemów sztucznej inteligencji, czyniąc je jednym z kluczowych elementów ich projektowania i stosowania.

Zgodność z regulacją nie ma charakteru jednorazowego, lecz stanowi proces ciągły, obejmujący cały cykl życia systemu AI.

W szczególności oznacza to konieczność:

  • stałego monitorowania działania systemów AI,

  • zapewnienia ich aktualności i adekwatności w czasie,

  • utrzymywania kontroli nad sposobem funkcjonowania i wykorzystania systemów,

  • prowadzenia zarządzania ryzykiem na każdym etapie cyklu życia systemu AI.

W konsekwencji AI Act wymaga wdrożenia w organizacjach trwałych mechanizmów zapewniających zgodność, które wykraczają poza jednorazowe spełnienie wymogów regulacyjnych.

Nieprzestrzeganie AI Act – realne konsekwencje

Nieprzestrzeganie przepisów AI Act może skutkować zastosowaniem środków o charakterze administracyjnym oraz sankcyjnym.

Do najistotniejszych konsekwencji należą w szczególności:

  • nałożenie administracyjnych kar pieniężnych,

  • zastosowanie środków nadzorczych, w tym ograniczenia lub zakazu wprowadzania systemów AI do obrotu bądź ich stosowania,

  • negatywne skutki reputacyjne, w tym utrata zaufania kontrahentów i użytkowników.

System sankcji przewidziany w AI Act wykazuje podobieństwa do modelu przyjętego w ogólnym rozporządzeniu o ochronie danych (RODO), jednak jego przedmiotem są systemy sztucznej inteligencji oraz ich wpływ na decyzje i sytuację prawną jednostki, a nie wyłącznie przetwarzanie danych osobowych.

AI Act a stosowanie systemów AI w relacjach pracodawca–pracownik

AI Act znajduje istotne zastosowanie w obszarze wykorzystania systemów sztucznej inteligencji w relacjach zatrudnienia, w szczególności w zakresie:

  • procesów rekrutacyjnych,

  • oceny pracowników oraz ich efektywności,

  • zarządzania personelem i organizacji pracy.

Systemy AI wykorzystywane w tych obszarach są co do zasady kwalifikowane jako systemy wysokiego ryzyka, co wiąże się z nałożeniem szczególnych obowiązków regulacyjnych.

W konsekwencji podmioty stosujące takie systemy są zobowiązane do:

  • zapewnienia odpowiedniego poziomu nadzoru nad działaniem systemów AI,

  • zagwarantowania transparentności wobec osób, których dotyczą decyzje podejmowane lub wspierane przez AI,

  • uwzględnienia wpływu systemów AI na prawa podstawowe, w szczególności prawa pracowników.

Regulacja ta wzmacnia znaczenie odpowiedzialnego i kontrolowanego wykorzystania sztucznej inteligencji w obszarze zarządzania zasobami ludzkimi.

Artificial Intelligence Act – strategiczne znaczenie

Artificial Intelligence Act wykracza poza klasyczne ujęcie regulacji sektorowej, stanowiąc instrument o istotnym znaczeniu dla funkcjonowania rynku oraz kierunków rozwoju technologii sztucznej inteligencji.

Regulacja ta:

  • tworzy warunki dla budowania przewagi konkurencyjnej w oparciu o zgodne z prawem wykorzystanie AI,

  • wyznacza ramy dla odpowiedzialnego i bezpiecznego rozwoju technologii,

  • przyczynia się do uporządkowania zasad stosowania systemów AI w działalności gospodarczej i publicznej.

Jednocześnie AI Act stanowi:

  • kompleksowy akt prawny regulujący systemy sztucznej inteligencji,

  • model regulacyjny oparty na ocenie ryzyka,

  • system obowiązków dla podmiotów uczestniczących w tworzeniu i stosowaniu AI,

  • mechanizm ochrony praw podstawowych oraz zapewnienia bezpieczeństwa rynku wewnętrznego.

W ujęciu funkcjonalnym AI Act przesuwa punkt ciężkości z samego wykorzystania technologii na odpowiedzialność za sposób jej działania oraz wpływ na jednostkę i otoczenie rynkowe.

Paweł Choła – jak uporządkował AI w skali, która generuje realne ryzyko (i przewagę)

Kim jest Paweł Choła i na jakim poziomie działa?

Paweł Choła operuje w środowisku, gdzie AI nie jest dodatkiem – jest infrastrukturą biznesową.

W analizowanym przypadku działalność operacyjna obejmuje w szczególności:

  • obsługę dużych platform internetowych,

  • zarządzanie rozbudowanymi strukturami e-commerce,

  • wdrażanie rozwiązań opartych na sztucznej inteligencji w różnych segmentach rynku.

Tego rodzaju działalność wiąże się z wykorzystaniem:

  • wielu systemów AI funkcjonujących równolegle,

  • znacznych wolumenów danych użytkowników,

  • procesów mających bezpośredni wpływ na decyzje konsumenckie, w tym w zakresie wyboru produktów, ustalania cen oraz kształtowania doświadczenia użytkownika.

W konsekwencji systemy AI stają się elementem infrastruktury decyzyjnej przedsiębiorstwa, wpływając w sposób istotny na jego funkcjonowanie oraz wyniki gospodarcze.

AI działa, ale nikt jej nie nadzoruje

Przed wdrożeniem podejścia zgodnego z AI Act działalność charakteryzowała się wysokim stopniem wykorzystania narzędzi sztucznej inteligencji, przy jednoczesnym braku spójnych mechanizmów zarządzania i nadzoru.

W szczególności zidentyfikowano następujące problemy:

  • wykorzystywanie wielu systemów AI pochodzących od różnych dostawców, bez jednolitego podejścia do ich integracji i kontroli,

  • brak spójnej dokumentacji dotyczącej stosowanych rozwiązań,

  • brak jasno określonych zasad wykorzystania systemów AI w procesach biznesowych,

  • brak systemowej oceny wpływu działania AI na użytkowników oraz funkcjonowanie przedsiębiorstwa.

W efekcie systemy AI były wdrażane i rozwijane w sposób dynamiczny, jednak bez adekwatnych mechanizmów kontroli i zarządzania ryzykiem.

Stan ten odzwierciedla typową sytuację, w której rozwój technologiczny wyprzedza wdrożenie odpowiednich struktur organizacyjnych i regulacyjnych.

Moment przełomowy: uświadomienie ryzyka

Na określonym etapie działalności dokonano analizy wpływu wykorzystywanych systemów AI na procesy biznesowe oraz zgodność z obowiązującymi i projektowanymi regulacjami.

Analiza ta wykazała istotne braki w obszarze zarządzania systemami AI, w szczególności:

  • brak pełnej wiedzy o zakresie i sposobie wykorzystania systemów AI w organizacji,

  • brak spójnych mechanizmów kontroli i nadzoru nad ich działaniem,

  • brak przygotowania organizacyjnego do spełnienia wymogów wynikających z AI Act.

W konsekwencji zidentyfikowano istotne ryzyka regulacyjne związane z wykorzystaniem systemów sztucznej inteligencji, obejmujące zarówno potencjalne naruszenia przepisów, jak i wpływ na prawa użytkowników oraz funkcjonowanie przedsiębiorstwa.

AI jako obszar governance, nie tylko technologii

Paweł zmienił podejście:

❌ AI jako narzędzie marketingowe
✅ AI jako obszar zarządzania ryzykiem i odpowiedzialności

Wdrożono model:

„AI pod kontrolą = biznes pod kontrolą”

Etap 1: Identyfikacja i mapowanie systemów AI

Pierwszym krokiem było przeprowadzenie kompleksowej identyfikacji systemów sztucznej inteligencji wykorzystywanych w organizacji.

Zidentyfikowano w szczególności:

  • systemy obsługi klienta (np. chatboty),

  • systemy rekomendacyjne,

  • systemy dynamicznego podejmowania decyzji (np. w zakresie cen),

  • systemy segmentacji klientów.

Efektem tego etapu było uzyskanie pełnego obrazu wykorzystania systemów AI w organizacji, co stanowiło podstawę dalszych działań w zakresie zarządzania ryzykiem i zgodności.

Etap 2: Klasyfikacja ryzyka

Następnie dokonano analizy poszczególnych systemów AI pod kątem:

  • ich wpływu na użytkowników,

  • wpływu na decyzje konsumenckie,

  • potencjalnego ryzyka naruszenia praw podstawowych oraz interesów ekonomicznych.

Zgodnie z podejściem przyjętym w AI Act, opartym na ocenie ryzyka, dokonano wstępnej kwalifikacji systemów, różnicując zakres nadzoru i obowiązków w zależności od charakteru ich zastosowania.

Etap 3: Wdrożenie zasad transparentności

Kolejnym etapem było wprowadzenie rozwiązań zwiększających przejrzystość stosowania systemów AI.

Działania te obejmowały w szczególności:

  • informowanie użytkowników o wykorzystaniu systemów AI,

  • wdrożenie jasnych komunikatów w interfejsach użytkownika (np. w przypadku chatbotów),

  • aktualizację dokumentów regulujących przetwarzanie danych i korzystanie z usług,

  • zwiększenie przejrzystości działania systemów w zakresie ich funkcji i wpływu na użytkownika.

Działania te przyczyniły się do ograniczenia ryzyka regulacyjnego oraz zwiększenia poziomu zaufania użytkowników.

Etap 4: Zapewnienie nadzoru człowieka

W odniesieniu do systemów AI wprowadzono mechanizmy zapewniające odpowiedni nadzór człowieka nad ich działaniem.

W szczególności wdrożono:

  • monitoring działania systemów oraz ich wyników,

  • możliwość ingerencji człowieka w przypadku nieprawidłowości,

  • analizę anomalii w działaniu systemów,

  • kontrolę wpływu systemów AI na kluczowe decyzje biznesowe.

Celem tych działań było ograniczenie ryzyka podejmowania decyzji w sposób niekontrolowany lub nieprzewidywalny.

Etap 5: Dokumentacja i zapewnienie zgodności

Ostatnim etapem było uporządkowanie dokumentacji oraz wdrożenie mechanizmów zapewniających zgodność z AI Act.

W szczególności:

  • utworzono rejestr wykorzystywanych systemów AI,

  • opracowano procedury zarządzania ryzykiem,

  • wdrożono polityki dotyczące wykorzystania sztucznej inteligencji,

  • ustanowiono mechanizmy monitorowania zgodności z regulacją.

Efektem było przejście od rozproszonego i niesystemowego wykorzystania AI do modelu opartego na uporządkowanych strukturach zarządzania.

Efekty wdrożenia

Wdrożenie opisanych działań przyniosło wymierne rezultaty na kilku poziomach.

Na poziomie operacyjnym:

  • zwiększenie stabilności działania systemów AI,

  • większa przewidywalność ich funkcjonowania,

  • ograniczenie błędów o charakterze skalowalnym.

Na poziomie prawnym:

  • zwiększenie gotowości organizacji do spełnienia wymogów AI Act,

  • ograniczenie ryzyka sankcji regulacyjnych,

  • uzyskanie kontroli nad sposobem wykorzystania systemów AI.

Na poziomie strategicznym:

  • wykorzystanie AI jako świadomie zarządzanego zasobu,

  • zwiększenie efektywności podejmowania decyzji,

  • wzmocnienie pozycji konkurencyjnej organizacji.

Co wyróżnia Pawła Chołę?

Przedstawiony przypadek ilustruje różnicę pomiędzy fragmentarycznym wykorzystaniem sztucznej inteligencji a podejściem opartym na jej systemowym zarządzaniu.

W praktyce wiele organizacji:

  • wykorzystuje systemy AI w sposób rozproszony i nieskoordynowany,

  • nie prowadzi kompleksowej analizy ryzyka związanego z ich stosowaniem,

  • nie wdraża spójnych mechanizmów zarządzania i nadzoru nad systemami AI.

Odmienne podejście polega na traktowaniu sztucznej inteligencji jako elementu infrastruktury decyzyjnej przedsiębiorstwa, co wiąże się z:

  • wdrożeniem zasad zarządzania ryzykiem i zapewnienia zgodności,

  • przypisaniem odpowiedzialności za funkcjonowanie systemów AI,

  • przygotowaniem organizacji do spełnienia wymogów regulacyjnych.

Kluczowym wnioskiem jest to, że brak kontroli nad wykorzystaniem AI prowadzi do powstania istotnych ryzyk regulacyjnych i operacyjnych, natomiast wdrożenie uporządkowanych mechanizmów zarządzania umożliwia ich ograniczenie oraz zwiększa efektywność działania organizacji.

W szczególności organizacje, które:

  • wykorzystują AI w procesach wpływających na decyzje użytkowników,

  • działają na większą skalę,

  • nie posiadają pełnej kontroli nad stosowanymi systemami AI,

znajdują się w sytuacji wymagającej pilnego uporządkowania obszaru wykorzystania sztucznej inteligencji.

AI Act nie wprowadza obowiązku stosowania sztucznej inteligencji, lecz nakłada obowiązki w zakresie jej projektowania i wykorzystania. W konsekwencji wymusza on na organizacjach pogłębione zrozumienie sposobu działania systemów AI oraz ich wpływu na jednostkę i rynek.

Podmioty, które odpowiednio wcześnie wdrożą mechanizmy zarządzania i zapewnienia zgodności, mogą jednocześnie:

  • ograniczyć ryzyko regulacyjne,

  • uporządkować procesy biznesowe,

  • wzmocnić swoją pozycję konkurencyjną.

Co to jest AI Act jeszcze raz w skrócie?

AI Act stanowi rozporządzenie Unii Europejskiej regulujące zasady projektowania, wprowadzania do obrotu oraz stosowania systemów sztucznej inteligencji w działalności gospodarczej i publicznej.

Regulacja ta określa w szczególności:

  • warunki, na jakich systemy AI mogą być tworzone i wykorzystywane,

  • kryteria oceny ryzyka związanego z ich stosowaniem,

  • zakres odpowiedzialności podmiotów uczestniczących w ich projektowaniu i wykorzystaniu.

AI Act obejmuje cały cykl życia systemów sztucznej inteligencji — od etapu projektowania, przez wdrożenie, aż po ich stosowanie i monitorowanie.

Głównym celem regulacji jest:

  • zapewnienie bezpieczeństwa,

  • ochrona praw podstawowych,

  • ustanowienie jednolitych zasad funkcjonowania rynku w Unii Europejskiej.

Kogo dotyczy AI Act?

AI Act dotyczy wszystkich podmiotów, które mają styczność ze sztuczną inteligencją w działalności gospodarczej.

W szczególności obejmuje:

  • firmy, które tworzą systemy AI,

  • firmy, które wdrażają lub kupują gotowe rozwiązania AI,

  • organizacje, które wykorzystują AI w swoich procesach (np. w marketingu, HR czy sprzedaży),

  • także podmioty spoza Unii Europejskiej, jeśli ich systemy AI są używane na rynku UE.

W praktyce oznacza to, że regulacja nie dotyczy wyłącznie twórców technologii.

Obowiązki mogą mieć również podmioty, które:

  • korzystają z gotowych narzędzi AI,

  • nie tworzą własnych modeli,

  • używają AI jako wsparcia w codziennej działalności.

Jakie systemy AI podlegają regulacji?

AAI Act obejmuje bardzo szeroki zakres systemów opartych na sztucznej inteligencji.

W praktyce dotyczy to m.in.:

  • chatbotów i wirtualnych asystentów,

  • systemów rekomendacji (np. proponujących produkty lub treści),

  • systemów automatycznie podejmujących decyzje (np. dotyczące cen lub ofert),

  • systemów oceny klientów (tzw. scoring),

  • narzędzi wykorzystywanych w HR (np. w rekrutacji lub ocenie pracowników),

  • modeli generatywnych (np. tworzących teksty, obrazy lub analizy).

Oznacza to, że regulacja nie dotyczy tylko zaawansowanych technologii, ale także wielu narzędzi używanych na co dzień w biznesie.

Jak działa podejście oparte na ryzyku?

AI Act klasyfikuje systemy sztucznej inteligencji w zależności od poziomu ryzyka, jakie mogą stwarzać.

Wyróżnia się cztery główne kategorie:

Systemy niedopuszczalne (zakazane)
Są to systemy, których stosowanie jest całkowicie zabronione, ponieważ naruszają prawa podstawowe lub w sposób niedopuszczalny wpływają na zachowanie użytkowników (np. manipulacja decyzjami).

Systemy wysokiego ryzyka
Obejmują zastosowania, które mogą istotnie wpływać na życie ludzi, np. w rekrutacji, edukacji czy ocenie zdolności kredytowej.
Podlegają one najbardziej rygorystycznym wymogom, w tym obowiązkowi dokumentacji, nadzoru i kontroli.

Systemy ograniczonego ryzyka
W ich przypadku głównym obowiązkiem jest zapewnienie transparentności, np. poinformowanie użytkownika, że ma do czynienia z AI (np. chatbot).

Systemy minimalnego ryzyka
To systemy o niewielkim wpływie na użytkownika, które co do zasady nie podlegają szczególnym obowiązkom regulacyjnym.

im większy wpływ AI na człowieka – tym większe obowiązki.

Czy AI Act dotyczy ChatGPT i modeli generatywnych?

Tak - AI Act obejmuje również modele generatywne, takie jak systemy podobne do ChatGPT.

Regulacja wprowadza szczególne zasady dla tzw. modeli AI ogólnego przeznaczenia (general-purpose AI).

Są to modele, które:

  • mogą być wykorzystywane w wielu różnych zastosowaniach,

  • mają szeroki zakres zastosowań (nie są stworzone tylko do jednego celu),

  • stanowią bazę dla innych systemów i aplikacji.

Do tej kategorii należą m.in.:

  • modele językowe (np. generujące tekst),

  • generatory obrazów,

  • systemy wykorzystywane do analizy danych.

W praktyce oznacza to, że regulacja obejmuje nie tylko konkretne aplikacje, ale także technologie, które stanowią ich podstawę.

Czym jest AI Office?

AI Office (Europejski Urząd ds. Sztucznej Inteligencji) to jednostka działająca przy Komisji Europejskiej, powołana w ramach AI Act.

Jej zadaniem jest wspieranie wdrażania i stosowania przepisów dotyczących sztucznej inteligencji w całej Unii Europejskiej.

W szczególności AI Office:

  • koordynuje działania między państwami członkowskimi,

  • wspiera jednolitą interpretację przepisów,

  • monitoruje rozwój i wykorzystanie systemów AI,

  • uczestniczy w nadzorze nad stosowaniem regulacji na poziomie UE.

W praktyce oznacza to, że AI Office odgrywa ważną rolę w zapewnieniu spójnego stosowania AI Act oraz w kształtowaniu sposobu, w jaki przepisy są wdrażane w różnych krajach.

Jakie obowiązki nakłada AI Act?

AI Act wprowadza szereg obowiązków związanych z projektowaniem i wykorzystywaniem systemów sztucznej inteligencji. Ich zakres zależy od rodzaju systemu oraz poziomu ryzyka, jaki generuje.

Do najważniejszych należą:

  • przeprowadzanie oceny ryzyka związanego z działaniem systemów AI,

  • prowadzenie odpowiedniej dokumentacji,

  • wdrożenie środków technicznych i organizacyjnych zapewniających bezpieczeństwo,

  • zapewnienie transparentności wobec użytkowników,

  • wprowadzenie nadzoru człowieka nad działaniem systemów AI,

  • zapewnienie zgodności z wymaganiami regulacyjnymi (compliance).

W praktyce oznacza to, że systemy sztucznej inteligencji nie mogą być wykorzystywane w sposób niekontrolowany - wymagają świadomego zarządzania, monitorowania i nadzoru.

AI musi być zarządzana – nie tylko używana.

Czy AI Act dotyczy małych firm?

Tak - AI Act dotyczy zarówno dużych przedsiębiorstw, jak i małych firm.

Regulacja nie opiera się na wielkości organizacji, lecz na:

  • rodzaju wykorzystywanych systemów AI,

  • poziomie ryzyka, jakie te systemy generują.

W praktyce oznacza to, że nawet niewielka firma może podlegać istotnym obowiązkom, jeśli wykorzystuje AI w obszarach wrażliwych, takich jak np. rekrutacja czy ocena pracowników.

Z kolei duża organizacja korzystająca wyłącznie z prostych narzędzi AI może podlegać znacznie mniej rygorystycznym wymaganiom.

Jakie są kary za nieprzestrzeganie AI Act?

Nieprzestrzeganie przepisów AI Act może prowadzić do poważnych konsekwencji prawnych i finansowych.

W szczególności mogą to być:

  • wysokie administracyjne kary pieniężne,

  • nakazy ograniczenia lub zaprzestania stosowania systemów AI,

  • inne środki nadzorcze nakładane przez właściwe organy.

Wysokość kar może być bardzo znacząca i - w zależności od rodzaju naruszenia - sięgać nawet dziesiątek milionów euro lub określonego procentu rocznego obrotu przedsiębiorstwa.

Model sankcji jest zbliżony do tego znanego z RODO, jednak dotyczy wykorzystania systemów sztucznej inteligencji oraz ich wpływu na użytkowników.

Czy AI Act zakazuje AI?

Nie - AI Act nie zakazuje stosowania sztucznej inteligencji jako takiej.

Regulacja zakazuje wyłącznie określonych zastosowań AI, które uznawane są za niedopuszczalne ze względu na ich wpływ na prawa podstawowe i bezpieczeństwo.

Do zakazanych praktyk należą w szczególności:

  • systemy AI wykorzystujące techniki manipulacyjne w sposób mogący wpływać na decyzje użytkowników,

  • systemy tzw. social scoring, oceniające osoby na podstawie ich zachowań lub cech,

  • niektóre zastosowania systemów biometrycznych, w szczególności w kontekście identyfikacji osób w przestrzeni publicznej (z określonymi wyjątkami).

W praktyce oznacza to, że AI Act nie ogranicza rozwoju sztucznej inteligencji, lecz wyznacza granice dla jej wykorzystania w przypadkach uznanych za szczególnie ryzykowne.

Jak przygotować firmę do AI Act?

rzygotowanie organizacji do AI Act wymaga uporządkowanego podejścia do wykorzystania sztucznej inteligencji w działalności.

Pierwszym krokiem jest zrozumienie, gdzie i w jaki sposób systemy AI są wykorzystywane w firmie.

W praktyce proces przygotowania obejmuje w szczególności:

  • identyfikację wszystkich systemów AI wykorzystywanych w organizacji,

  • określenie ich wpływu na użytkowników oraz procesy biznesowe,

  • przeprowadzenie oceny ryzyka związanego z ich działaniem,

  • analizę poziomu zgodności z wymaganiami regulacyjnymi,

  • wdrożenie mechanizmów nadzoru nad funkcjonowaniem systemów AI.

Takie podejście określa się często jako proces przygotowania organizacji do wymogów AI Act (AI Act readiness).

AI Act Readiness

Czy AI Act dotyczy pracowników i HR?

Tak - AI Act ma istotne znaczenie dla wykorzystania sztucznej inteligencji w obszarze HR.

Dotyczy to w szczególności systemów AI wykorzystywanych w:

  • rekrutacji,

  • ocenie pracowników,

  • zarządzaniu wydajnością i organizacją pracy.

W wielu przypadkach takie systemy są kwalifikowane jako systemy wysokiego ryzyka, ponieważ mogą bezpośrednio wpływać na sytuację zawodową pracowników lub kandydatów.

W praktyce oznacza to konieczność:

  • zapewnienia odpowiedniego nadzoru nad działaniem systemów AI,

  • zagwarantowania przejrzystości wobec pracowników i kandydatów,

  • uwzględnienia wpływu systemów AI na prawa podstawowe.

Czy AI Act wpływa na e-commerce?

Tak — AI Act ma bezpośrednie znaczenie dla działalności e-commerce.

Sztuczna inteligencja jest powszechnie wykorzystywana w tym obszarze, m.in. do:

  • rekomendowania produktów,

  • dynamicznego ustalania cen,

  • analizy zachowań i preferencji klientów.

Ponieważ systemy te wpływają na decyzje zakupowe użytkowników, podlegają ocenie z punktu widzenia ryzyka oraz obowiązkom wynikającym z AI Act.

W praktyce oznacza to konieczność zapewnienia odpowiedniego poziomu przejrzystości, kontroli oraz zgodności z regulacją.

wpływa na decyzje użytkowników – a więc podlega regulacji.

Czy trzeba dokumentować AI?

Tak - AI Act nakłada obowiązek prowadzenia dokumentacji dotyczącej systemów sztucznej inteligencji.

Zakres tej dokumentacji obejmuje w szczególności:

  • opis działania systemu AI oraz jego przeznaczenia,

  • informacje o sposobie jego wykorzystania,

  • ocenę ryzyka związanego z jego funkcjonowaniem,

  • dane niezbędne do wykazania zgodności z wymaganiami regulacyjnymi.

Zakres i szczegółowość dokumentacji zależą od rodzaju systemu oraz poziomu ryzyka.

W praktyce oznacza to, że brak odpowiedniej dokumentacji może uniemożliwić wykazanie zgodności z AI

Czy AI Act dotyczy tylko technologii?

Nie - AI Act nie dotyczy wyłącznie technologii jako takiej.

Regulacja obejmuje również sposób, w jaki systemy AI są wykorzystywane w organizacji, w tym:

  • procesy biznesowe, w których AI wspiera lub automatyzuje decyzje,

  • decyzje podejmowane przy wykorzystaniu systemów AI,

  • odpowiedzialność za sposób działania i wykorzystania tych systemów.

W praktyce oznacza to, że AI Act ma znaczenie nie tylko dla działów technicznych, ale także dla zarządu i osób odpowiedzialnych za podejmowanie decyzji w organizacji.

👉 AI Act zmienia sposób myślenia o AI:

❌ AI jako narzędzie
✅ AI jako obszar odpowiedzialności

Firmy, które:

  • zrozumieją swoje systemy AI,

  • wdrożą zasady zgodności,

  • przejmą kontrolę nad decyzjami AI

👉 nie tylko spełnią wymagania regulacyjne,
👉 ale zbudują realną przewagę rynkową.

AI Act to nie teoria. To decyzja, którą musisz podjąć teraz.

Możesz dalej:

  • korzystać z AI „na wyczucie”,

  • zakładać, że to jeszcze nie dotyczy Twojej firmy,

  • odkładać temat na później.

Ale rzeczywistość jest prosta:

👉 AI już dziś wpływa na decyzje w Twojej organizacji.
👉 AI Act sprawia, że zaczynasz za to odpowiadać.

Prawdziwe pytanie nie brzmi: „czy mamy AI?”

Tylko:

  • Czy wiemy, gdzie AI wpływa na decyzje?

  • Czy mamy nad nią realną kontrolę?

  • Czy jesteśmy w stanie obronić sposób jej działania?

Jeśli nie masz na to jasnej odpowiedzi —
to nie jest kwestia technologii.

👉 To jest kwestia ryzyka biznesowego i odpowiedzialności zarządu.

AI pod kontrolą = przewaga

AI poza kontrolą = problem, który dopiero nadejdzie

Firmy, które działają dziś:

  • porządkują swoje systemy AI,

  • wdrażają zasady zgodności,

  • budują governance,

👉 nie tylko „spełniają regulacje”

👉 one przejmują kontrolę nad tym, co naprawdę napędza ich biznes

Nie potrzebujesz teorii. Potrzebujesz jasności.

Nie chodzi o to, żeby znać cały AI Act.

Chodzi o to, żeby wiedzieć:

  • gdzie jesteś dziś,

  • jakie masz ryzyka,

  • co konkretnie trzeba zrobić w Twojej organizacji.

Zrób pierwszy krok — świadomie

Jeśli chcesz:

  • zmapować AI w swojej firmie,

  • zrozumieć poziom ryzyka,

  • sprawdzić realną zgodność z AI Act,

  • uporządkować chaos wokół AI,

👉 zacznij od rozmowy, która daje konkret — nie teorię

Umów konsultację

Podczas konsultacji:

  • przechodzimy przez Twoje procesy biznesowe,

  • identyfikujemy, gdzie AI wpływa na decyzje,

  • wskazuję konkretne ryzyka i luki,

  • dostajesz jasny plan działania.

Bez ogólników. Bez slajdów. Bez straty czasu.

👉 Jeśli AI jest częścią Twojego biznesu — to jest moment, żeby przejąć nad nią kontrolę.

Bo pytanie nie brzmi już:

„czy wdrażać AI?”

Tylko:

👉 „czy masz nad nią kontrolę — zanim ktoś Cię o to zapyta?”

Udostępnij:

Czytaj dalej

Najnowsze wiadomości

Galeria

Milena Perka AI Governance | Prawo technologii
Milena Perka AI Governance | Prawo technologii