Słownik Pojęć AI i Prawa Nowych Technologii
Definiujemy Rzeczywistość. Precyzja to Bezpieczeństwo.
W prawie i technologii nie ma miejsca na domysły. Niejasność terminologiczna to najkrótsza droga do sporów sądowych i błędów wdrożeniowych. AI Act redefiniuje słownik branży IT, nadając znanym pojęciom nowe, rygorystyczne znaczenia prawne.
Poniżej prezentujemy autorski wybór kluczowych terminów, zdefiniowanych przez ekspertów ISCA. To kompas, który pozwoli Ci nawigować w gąszczu przepisów bez ryzyka rozbicia się o rafy interpretacyjne.
A
AI Office (Biuro ds. AI) Nowy organ Unii Europejskiej z siedzibą w Komisji Europejskiej. Pełni rolę „super-nadzorcy” dla modeli ogólnego przeznaczenia (GPAI) o zasięgu systemowym. To tam trafiają raporty o incydentach od gigantów technologicznych. Odpowiednik KNF dla rynku algorytmów.
AI System (System Sztucznej Inteligencji) Zgodnie z art. 3 AI Act: system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii i który może – dla wyraźnych lub dorozumianych celów – generować wyniki (przewidywania, treści, zalecenia, decyzje) wpływające na środowisko fizyczne lub wirtualne. Kluczowa różnica: Zwykły skrypt w Excelu („If This Then That”) nie jest AI. System AI musi posiadać element „wnioskowania” (inference).
C
CE Marking (Oznakowanie CE) W świecie AI znak CE przestaje być kojarzony tylko z zabawkami czy elektroniką. Dla systemów Wysokiego Ryzyka (High-Risk) uzyskanie oznakowania CE jest warunkiem koniecznym do wprowadzenia produktu na rynek unijny. Oznacza, że system przeszedł pomyślnie procedurę oceny zgodności (Conformity Assessment).
Confidential Computing (Przetwarzanie Poufne) Technologia cyberbezpieczeństwa (promowana przez ISCA), która chroni dane w trakcie ich przetwarzania (data in use) poprzez izolowanie ich w chronionej enklawie sprzętowej (TEE). Umożliwia bezpieczne trenowanie AI na wrażliwych danych (np. medycznych, finansowych) bez ich ujawniania operatorowi chmury. Fundament cyfrowej suwerenności.
D
Deepfake Treści obrazowe, dźwiękowe lub wideo wygenerowane lub zmanipulowane przez AI, które przypominają istniejące osoby, obiekty lub zdarzenia i mogą zostać błędnie uznane za autentyczne. Wymóg prawny: AI Act nakłada bezwzględny obowiązek oznaczania takich treści (znaki wodne, metadane), aby użytkownik wiedział, że nie są prawdziwe.
Deployer (Wdrażający) UWAGA: Kluczowe pojęcie. Podmiot (np. firma, urząd, bank), który używa systemu AI w ramach swojej działalności zawodowej. Błąd poznawczy: Wiele firm myśli, że są tylko „użytkownikami”. W świetle AI Act, jeśli kupujesz system AI i stosujesz go wobec swoich klientów lub pracowników – jesteś Wdrażającym i ciążą na Tobie obowiązki (np. nadzór, informowanie pracowników).
F
Foundation Model (Model Fundamentowy) Potężny model AI (np. GPT-4, Llama), wytrenowany na ogromnej ilości danych, zdolny do wykonywania szerokiego spektrum zadań (tekst, obraz, kod). Stanowi „fundament”, na którym inne firmy budują konkretne aplikacje.
FRIA (Fundamental Rights Impact Assessment) Ocena Skutków dla Praw Podstawowych. Obowiązkowa procedura (art. 27 AI Act) dla podmiotów publicznych oraz firm prywatnych (w określonych sektorach), które chcą wdrożyć system Wysokiego Ryzyka. To audyt sprawdzający, czy AI nie naruszy godności, prywatności lub nie będzie dyskryminować ludzi.
G
GPAI (General Purpose AI) Modele AI ogólnego przeznaczenia. Kategoria obejmująca systemy, które nie mają jednego, wąskiego zastosowania. AI Act dzieli je na standardowe oraz te z „ryzykiem systemowym” (o ogromnej mocy obliczeniowej), nakładając na te drugie surowe wymogi (Red Teaming, cyberbezpieczeństwo).
H
High-Risk AI System (System Wysokiego Ryzyka) Kategoria systemów zdefiniowana w Załączniku III do AI Act. Obejmuje AI stosowane w obszarach wrażliwych, takich jak: biometria, infrastruktura krytyczna, edukacja, zatrudnienie (HR), dostęp do usług publicznych, ściganie przestępstw, wymiar sprawiedliwości. Konsekwencja: Pełen reżim compliance, system zarządzania jakością (QMS) i rejestracja w bazie UE.
Human Oversight (Nadzór Ludzki) Zasada, zgodnie z którą system AI nie może działać jako „czarna skrzynka” poza kontrolą człowieka. Operator musi mieć możliwość zrozumienia wyników systemu, a w sytuacjach krytycznych – zignorowania ich lub wyłączenia systemu („Kill Switch”).
P
Provider (Dostawca) Podmiot (osoba fizyczna lub prawna, organ publiczny), który tworzy system AI lub zleca jego stworzenie i wprowadza go do obrotu pod własną nazwą lub znakiem towarowym. To na Dostawcy spoczywa główny ciężar certyfikacji i zapewnienia zgodności z AI Act.
R
Regulatory Sandbox (Piaskownica Regulacyjna) Wyizolowane, bezpieczne środowisko testowe ustanowione przez organy państwowe. Umożliwia firmom innowacyjnym testowanie systemów AI pod nadzorem regulatora przed ich rynkowym debiutem, bez ryzyka natychmiastowych kar za błędy. ISCA wspiera podmioty w dostępie do piaskownic.
S
Systemic Risk (Ryzyko Systemowe) Ryzyko specyficzne dla najpotężniejszych modeli AI (GPAI), które może mieć negatywne skutki dla zdrowia publicznego, bezpieczeństwa publicznego, praw podstawowych lub całego społeczeństwa w skali Unii (np. pomoc w tworzeniu broni biologicznej, masowa dezinformacja wyborcza).
Z
Zakazane Praktyki (Prohibited AI Practices) Katalog systemów (Art. 5), których stosowanie w UE jest nielegalne. Należą do nich: systemy manipulacji podprogowej, scoring społeczny (ocena obywateli przez państwo), rozpoznawanie emocji w miejscu pracy i szkołach, oraz (z wyjątkami) zdalna identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych.
Nie znalazłeś szukanego pojęcia?
Świat technologii zmienia się szybciej niż słowniki. Jeśli napotkałeś w swojej dokumentacji termin, który budzi wątpliwości interpretacyjne – skontaktuj się z naszym zespołem analitycznym.
[ZADAJ PYTANIE EKSPERTOWI >]
