AI Act: Konstytucja Cyfrowej Europy
Przewodnik Strategiczny po Rozporządzeniu 2024/1689
Sztuczna inteligencja przestała być domeną wyłącznie inżynierów. Stała się domeną compliance, zarządzania ryzykiem i odpowiedzialności zarządczej.
AI Act (Akt o Sztucznej Inteligencji) to nie tylko zbiór zakazów. To kompleksowa architektura prawna, która redefiniuje sposób projektowania, wdrażania i monitorowania systemów IT w Unii Europejskiej. Rozporządzenie wprowadza podejście oparte na ryzyku (risk-based approach): im większy wpływ technologii na życie, zdrowie i prawa człowieka, tym bardziej rygorystyczne wymogi musi spełnić operator systemu.
Poniżej prezentujemy kluczowe filary regulacji, zidentyfikowane przez ekspertów ISCA jako krytyczne dla ciągłości działania biznesu i administracji w Polsce.
I. KLASYFIKACJA I ZAKAZY (Piramida Ryzyka)
Fundamentem AI Act jest prawidłowa kategoryzacja systemu. Błąd na tym etapie skutkuje albo niepotrzebnymi kosztami (nadmierna ostrożność), albo naruszeniem prawa (zignorowanie wymogów dla systemów krytycznych).
- Systemy Zakazane (Art. 5): Katalog praktyk uznanych za niedopuszczalne w UE (m.in. scoring społeczny, manipulacja kognitywna, nieukierunkowany scraping twarzy z internetu).
- Systemy Wysokiego Ryzyka (High-Risk): Serce regulacji. Obejmuje m.in. AI w infrastrukturze krytycznej, HR, edukacji, wymiarze sprawiedliwości oraz systemy kredytowe.
- Systemy Minimalnego Ryzyka: Większość rozwiązań rynkowych (gry, filtry spamu), które nie wymagają nowych procedur, lecz jedynie dobrowolnych Kodeksów Postępowania.
[CZYTAJ WIĘCEJ: JAK SKLASYFIKOWAĆ SWÓJ SYSTEM? >]
II. OBOWIĄZKI DLA SYSTEMÓW „HIGH-RISK” (Compliance Core)
Podmioty będące dostawcami (Providers) lub wdrażającymi (Deployers) systemy Wysokiego Ryzyka stają przed wyzwaniem wdrożenia procesów na poziomie bankowym. To nie są zalecenia – to twarde wymogi dopuszczenia produktu do obrotu (oznakowanie CE).
- System Zarządzania Rykiem (Risk Management System): Ciągły, iteracyjny proces identyfikacji i mitygacji zagrożeń przez cały cykl życia systemu.
- Data Governance: Rygorystyczne wymogi dotyczące jakości danych treningowych, walidacyjnych i testowych, aby uniknąć błędów i dyskryminacji (bias).
- Dokumentacja Techniczna i Rejestracja: Obowiązek wpisu do unijnej bazy danych oraz utrzymywania pełnej śladowości działania algorytmu (logging).
[CZYTAJ WIĘCEJ: LISTA KONTROLNA DLA SYSTEMÓW WYSOKIEGO RYZYKA >]
III. GENERAL PURPOSE AI (Modele GPAI i GenAI)
Rewolucja Generatywnej AI wymusiła na legislatorze dodanie specjalnego reżimu dla potężnych modeli ogólnego przeznaczenia (takich jak GPT, Claude czy Llama). Przepisy te dotyczą twórców modeli fundamentowych.
- Ryzyko Systemowe: Modele o mocy obliczeniowej powyżej $10^{25}$ FLOPs podlegają dodatkowym rygorom, w tym audytom bezpieczeństwa (Red Teaming) i raportowaniu incydentów do Biura ds. AI.
- Prawa Autorskie: Obowiązek publikowania szczegółowych podsumowań danych użytych do trenowania modelu, co otwiera drogę do roszczeń dla twórców treści.
- Transparentność: Każdy wygenerowany tekst, obraz czy dźwięk (Deepfake) musi być maszynowo oznaczalny jako wytwór sztucznej inteligencji.
👉 [CZYTAJ WIĘCEJ: WPŁYW AI ACT NA LLM I GENERATIVE AI >]
IV. PRAWA PODSTAWOWE I NADZÓR LUDZKI (Human-Centric AI)
Technologia ma służyć człowiekowi, a nie go kontrolować. AI Act wprowadza szereg bezpieczników chroniących obywateli przed arbitralnymi decyzjami maszyn.
- FRIA (Fundamental Rights Impact Assessment): Nowy, obowiązkowy audyt dla podmiotów stosujących AI (np. banków, szpitali, urzędów), oceniający wpływ wdrożenia na prawa człowieka.
- Human Oversight (Art. 14): Systemy muszą być projektowane tak, aby człowiek mógł je skutecznie nadzorować, interpretować ich wyniki, a w razie awarii – zatrzymać („Kill Switch”).
- Wyjaśnialność (XAI): Prawo obywatela do uzyskania wyjaśnienia decyzji podjętej przez algorytm.
[CZYTAJ WIĘCEJ: PROCEDURA FRIA I ETYKA W PRAKTYCE >]
V. SYSTEM NADZORU I SANKCJE (Enforcement)
Egzekwowanie przepisów zostało powierzone nowo powołanym organom na szczeblu unijnym i krajowym.
- AI Office (Bruksela): Unijne Biuro ds. AI nadzoruje największe modele GPAI.
- Organy Krajowe (NCA): W Polsce wyznaczony organ (np. KNF, UODO lub nowy podmiot) będzie kontrolował rynek lokalny.
- Sankcje Finansowe: Kary są drakońskie i sięgają:
- Do 35 mln EUR lub 7% światowego obrotu za stosowanie systemów zakazanych.
- Do 15 mln EUR lub 3% obrotu za naruszenie obowiązków High-Risk.
[CZYTAJ WIĘCEJ: JAK UNIKNĄĆ KAR? AUDYT „ZERO” >]
VI. KALENDARZ TRANSPOZYCJI (Timeline)
Rozporządzenie weszło w życie w połowie 2024 roku, ale obowiązki są wdrażane kaskadowo. Czasu jest mniej, niż się wydaje.
- 6 miesięcy (Luty 2025): Wchodzą w życie przepisy dotyczące Systemów Zakazanych. Konieczność natychmiastowego wygaszenia niedozwolonych praktyk.
- 12 miesięcy (Sierpień 2025): Pełne obowiązki dla modeli GPAI oraz organów notyfikujących.
- 24 miesiące (Sierpień 2026): Pełne stosowanie przepisów dla systemów Wysokiego Ryzyka (Załącznik III).
- 36 miesięcy (Sierpień 2027): Obowiązki dla systemów będących komponentami produktów regulowanych (np. windy, maszyny, zabawki).
[ZOBACZ PEŁNĄ MAPĘ DROGOWĄ WDROŻENIA >]
Ekspertyza ISCA
Rozporządzenie jest skomplikowane, ale jego cel jest prosty: bezpieczeństwo. Instytut Standardów i Certyfikacji AI pomaga organizacjom przejść przez ten proces – od wstępnej analizy luki (Gap Analysis), przez ocenę FRIA, aż po przygotowanie do certyfikacji.
Nie czekaj na 2026 rok. Bezpieczeństwo buduje się dzisiaj.
