AI Act przegłosowany. Nadchodzi rewolucja w przepisach
Unijna AI Act została zatwierdzona przez Parlament Europejski i Radę. Akt zostanie opublikowany w Dzienniku Urzędowym UE i wejdzie w życie dwadzieścia dni po publikacji. Od tego dnia rozpoczynają się okresy przejściowe, w tym zakazy po 6 miesiącach i obowiązki wysokiego ryzyka po 12 miesiącach, a większość przepisów wejdzie w życie po 24 miesiącach.
Rada Unii Europejskiej zatwierdziła przepisy w sprawie sztucznej inteligencji
Konsekwencje nieprzestrzegania przepisów mogą być znaczące, z grzywnami w wysokości do 35 mln euro lub 7% globalnego rocznego obrotu, dochodzenia regulacyjne i wycofanie z rynku.
Organizacje, które chcą opracowywać, wdrażać, zamawiać i sprzedawać systemy sztucznej inteligencji, muszą teraz rozgościć się w AI Act, a dotyczy to zarówno organizacji w UE, jak i poza nią.
Poruszanie się po unijnej ustawie o sztucznej inteligencji nie jest proste i wymaga już od początku identyfikacji swojej roli, zidentyfikowania systemu AI i umiejscowienia go w grupie ryzyk i wiążących się z tym obowiązkami.
Niezbędne jest wczesne zaangażowanie się w przewidywane regulacje, szczególnie gdy okaże się, że organizacja będzie zmuszone do zmiany swojego modelu biznesowego [!] w ekstremalnej sytuacji.
Sztuczna inteligencja. Kogo dotyczy AI ACT?
Zakres terytorialny rozporządzenia został określony bardzo szeroko. W praktyce każdy system AI, który zostanie wprowadzony na terytorium Unii, niezależnie od tego, czy jego dostawca ma siedzibę w Unii czy też w państwie trzecim, ale skutki korzystania z oprogramowania są odczuwalne na terytorium Wspólnoty, musi być zgodny z przepisami rozporządzenia.
Zgodnie z art. 2 ust. 1 AI Act znajduje ono zastosowanie wobec:
- dostawców wprowadzających do obrotu lub oddających do użytku sztuczną inteligencję w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę w Unii czy w państwie trzecim;
- dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w państwie trzecim;
- importerów i dystrybutorów systemów AI;
- producentów, którzy wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI opatrzony ich nazwą handlową lub znakiem towarowym;
- podmiotów użytkujących systemy sztucznej inteligencji, którzy znajdują się w Unii.
AI Act z jednej strony ma dać twórcom wyraźne ramy, w których mogą rozwijać swoje rozwiązania, a z drugiej osobom fizycznym gwarantować adekwatny poziom ochrony ich praw, stąd w siatce pojęć odnajdziemy w art. 2 ust 1 AI Act również osoby, na które AI ma wpływ a które znajdują się w Unii Europejskiej.
Jakie rodzaje sztucznej inteligencji są regulowane AI Act? Cztery kategorie
Czym dokładnie są systemy AI i modele GPAI oraz jak są one zdefiniowane w ustawie o sztucznej inteligencji? AI Act stosuje podejście oparte na ryzyku i dokonuje rozróżnienia między:
- Systemy sztucznej inteligencji podzielone na trzy różne kategorie:
- Zabronione praktyki AI,
- Systemy AI wysokiego ryzyka oraz
- Niektóre systemy AI (z ryzykiem przejrzystości)
- Modele AI ogólnego przeznaczenia (GPAI) gdzie i tu istnieje również podejście wielopoziomowe w zależności od tego, czy jest to model GPAI z ryzykiem systemowym, czy "normalny" model GPAI.
Definicja sztucznej inteligencji
Systemy sztucznej inteligencji mają kluczowe znaczenie dla AI Act. AI Act definiuje system sztucznej inteligencji w art. 3 ust. 1 AI Act jako:
" system oparty na maszynie, który jest zaprojektowany do działania z różnym poziomem autonomii i który może wykazywać zdolność adaptacyjną po wdrożeniu, i który dla celów jawnych lub ukrytych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne."
Definicja ta jest niemal identyczna ze zaktualizowaną w 2023 r. definicją systemu sztucznej inteligencji opracowaną przez OECD.
Wszystkie wymogi muszą być spełnionych jednocześnie. Dość niejasne wymogi zostały doprecyzowane w motywach, w których wyjaśniono, że systemy AI różnią się od prostszego tradycyjnego oprogramowania tym, że nie są systemami opartymi na regułach, w których reguły są definiowane wyłącznie przez ludzi, ale raczej ich zdolnością do wnioskowania i wyprowadzania modeli lub algorytmów z danych wejściowych lub danych, które obejmują uczenie maszynowe. Ponadto wymagane jest, aby system sztucznej inteligencji miał pewien stopień niezależności działań od zaangażowania człowieka i możliwości działania bez interwencji człowieka oraz aby system miał zdolność samouczenia się, umożliwiając mu zmianę podczas użytkowania.
Ze względu na szereg wymogów stawianych systemom AI przez ustawę o sztucznej inteligencji, dostawcy i podmioty wdrażające oprogramowanie wykorzystujące AI powinni starannie sprawdzić, czy wszystkie kryteria są spełnione i czy mają zastosowanie obowiązki w zakresie zgodności. Nie każde oprogramowanie wykorzystujące AI spełnia pojęcie systemu AI i dlatego wymagana jest indywidualna ocena.
InfoSec - czyli bezpieczeństwo informacji. Dowiedz się więcej
Prawa podstawowe. Zabronione praktyki AI stwarzające niedopuszczalne ryzyko
Organizacje nie mogą wykorzystywać praktyk AI, które stwarzają niedopuszczalne ryzyko dla bezpieczeństwa ludzi i ich praw podstawowych zapisanych w Karcie praw podstawowych UE w celu ochrony godności, wolności, równości, solidarności, praw obywatelskich i sprawiedliwości.
Znajdziemy wśród nich:
- social scoring (klasyfikacja punktowa obywateli na podstawie m.in zachowań społecznych)
- systemy rozpoznawania emocji w pracy i edukacji
- sztuczną inteligencja do wykorzystywania słabych punktów ludzi, takich jak ich wiek lub niepełnosprawność
- poznawczo-behawioralna manipulacja ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań.
- nieukierunkowane skanowanie obrazu twarzy w celu jej rozpoznania
- stosowane przez organy ścigania systemy identyfikacji biometrycznej działające w czasie rzeczywistym w miejscach publicznych, z wyjątkiem ograniczonych dozwolonych sytuacji.
Niektóre z tych praktyk AI są dozwolone w ramach konkretnych i wąskich wyłączeń, a inne mają niejasne opisy, więc diabeł tkwi w szczegółach. W szczególności, w świetle możliwych wysokich kar na mocy AI Act, wymaga to od organizacji dokładnego przeanalizowania, czy ich system sztucznej inteligencji może podlegać jednej z tych zabronionych praktyk przed jego uruchomieniem.
Systemy AI wysokiego ryzyka
Systemy AI wysokiego ryzyka podlegają ścisłym obowiązkom w zakresie zgodności. Dokładny system zarządzania ryzykiem i zgodnością ze sztuczną inteligencją jest wymagany w organizacji dostarczającej lub wdrażającej takie systemy, ale także dla innych interesariuszy w całym łańcuchu wartości.
Istnieją dwie grupy systemów AI wysokiego ryzyka:
- systemy sztucznej inteligencji uznaje się za obarczone wysokim ryzykiem, jeżeli są one elementami bezpieczeństwa produktów objętych sektorowym prawem UE dotyczącym bezpieczeństwa produktów oraz gdy podlegają ocenie zgodności strony trzeciej w odniesieniu do wymogów wynikających z tego sektorowego prawa UE dotyczącego bezpieczeństwa produktów, np. rozporządzenia (UE) 2017/745 w sprawie wyrobów medycznych lub rozporządzenia (UE) nr 167/2013 w sprawie pojazdów rolniczych i leśnych (art. 6 ust. 1 AI Act).
- systemy sztucznej inteligencji wchodzące w zakres przypadku użycia objętego jednym z ośmiu obszarów określonych w załączniku III do AI Act (art. 6 ust. 2 AI Act):
W drodze wyjątku od powyższego dostawca systemu AI, który kwalifikuje się jako system wysokiego ryzyka zgodnie z art. 6 ust. 2 AI Act, może przeprowadzić i udokumentować ocenę ryzyka w celu wykazania, że system AI nie stwarza znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, tj. że system AI nie powinien kwalifikować się jako system wysokiego ryzyka.
AI Act przewiduje ograniczoną listę odpowiednich przypadków użycia, w tym to, że system sztucznej inteligencji nie ma istotnego wpływu na wynik procesu decyzyjnego (art. 6 ust. 3 i 4 AI Act). Ocena ryzyka musi zostać przeprowadzona i udokumentowana przed wprowadzeniem systemu AI do obrotu lub oddaniem go do użytku. W przypadku zastosowania jednego z wyłączeń, dostawca jest zobowiązany do zarejestrowania systemu AI w unijnej bazie danych prowadzonej przez Komisję. Jednak systemy AI, które wykonują profilowanie, nie korzystają z tego zwolnienia, nawet jeśli spełnione jest jedno z kryteriów określonych w art. 6 ust. 3 AI Act.
Organizacje, które mogą opracować system sztucznej inteligencji wysokiego ryzyka, powinny przeprowadzić i udokumentować taką ocenę ryzyka na wczesnym etapie. Jeśli nie mogą skorzystać z tego zwolnienia i w konsekwencji opracowują system AI kwalifikujący się jako system wysokiego ryzyka, muszą spełnić wiele wymogów zgodności, które mają wpływ na projekt systemu AI wysokiego ryzyka, w tym:
- wdrożenie systemu zarządzania ryzykiem (art. 9 AI Act) i ogólnego systemu zarządzania jakością (art. 17 AI Act);
- zapewnienie wymogów dotyczących danych i zarządzania danymi (art. 10 AI Act)
- sporządzenie obszernej dokumentacji technicznej (art. 11 załącznika IV do AI Act);
- umożliwienie automatycznego rekodowania dzienników zdarzeń (art. 12 AI Act);
- zapewnienie instrukcji użytkowania dla podmiotów wdrażających (art. 13 ), w tym narzędzi do odpowiedniego nadzoru ludzkiego (art. 14 AI Act); oraz
- zapewnienie dokładności, solidności i cyberbezpieczeństwa systemu sztucznej inteligencji wysokiego ryzyka (art. 15 AI Act).
Podmioty wdrażające system sztucznej inteligencji wysokiego ryzyka muszą m.in:
- zapewnić prawidłowe korzystanie z systemu sztucznej inteligencji, w tym monitorowanie (art. 26 ust. 1 i 5 AI Act);
- przydzielić nadzór ludzki (art. 26 ust. 2 AI Act) oraz, w przypadku gdy mają kontrolę;
- zapewnić jakość danych wejściowych (art. 26 ust. 4 AI Act).
W przypadku niektórych systemów sztucznej inteligencji wysokiego ryzyka podmioty wdrażające muszą również przeprowadzić ocenę wpływu na prawa podstawowe (art. 27 AI Act).
Importerzy muszą zapewnić zgodność systemu sztucznej inteligencji wysokiego ryzyka (art. 23 ust. 1 AI Act), podczas gdy dystrybutorzy muszą zapewnić, aby system sztucznej inteligencji wysokiego ryzyka posiadał wymagane oznakowanie CE (art. 24 ust. 1 AI Act).
Ponadto każdy dystrybutor, importer, podmiot wdrażający lub inna osoba trzecia zostanie uznana za dostawcę systemu sztucznej inteligencji wysokiego ryzyka, co pociąga za sobą wszystkie obowiązki, jeśli umieści swoją nazwę lub znak towarowy na systemie sztucznej inteligencji wysokiego ryzyka, dokona istotnych zmian lub zmodyfikuje zamierzony cel systemu sztucznej inteligencji wysokiego ryzyka (art. 25 ust. 1 AI Act).
Wymogi dotyczące danych w systemach AI
Niektóre systemy AI stwarzające ryzyko dla przejrzystości
Dostawcy i podmioty wdrażające systemy sztucznej inteligencji uznane przez ustawę o sztucznej inteligencji za stwarzające ryzyko w zakresie przejrzystości podlegają dodatkowym wymogom w zakresie przejrzystości (wyłączenia mogą mieć zastosowanie, między innymi, w niektórych przypadkach, jeśli system sztucznej inteligencji jest wykorzystywany do wykrywania, zapobiegania, prowadzenia dochodzeń lub ścigania przestępstw).
Zasadniczo obejmuje to wszystkie generatywne systemy sztucznej inteligencji:
- systemy AI, które zamierzają wchodzić w bezpośrednią interakcję z osobami fizycznymi.
- systemy AI, w tym systemy AI oparte na modelu GPAI, które generują syntetyczne treści audio, obrazy, wideo lub tekst.
- systemy sztucznej inteligencji, które generują lub manipulują obrazami, treściami audio lub wideo stanowiącymi deep fake.
- systemy rozpoznawania emocji lub systemy kategoryzacji biometrycznej.
- systemy AI, które generują lub manipulują tekstem publikowanym w celu informowania opinii publicznej o kwestiach leżących w interesie publicznym.
Poznaj zasady tworzenia i zarządzania hasłami
Modele AI ogólnego przeznaczenia (modele GPAI)
Co ciekawe, ustawa o AI nie definiuje, czym jest model AI, a jedynie czym jest model GPAI. Jest on zdefiniowany w art. 3(63) AI Act jako:
model sztucznej inteligencji, w tym w przypadku, gdy taki model sztucznej inteligencji jest szkolony z wykorzystaniem dużej ilości danych przy użyciu samonadzoru na dużą skalę, który wykazuje znaczną ogólność i jest zdolny do kompetentnego wykonywania szerokiego zakresu odrębnych zadań niezależnie od sposobu, w jaki model jest wprowadzany na rynek i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla, z wyjątkiem modeli sztucznej inteligencji, które są wykorzystywane do badań, rozwoju lub prototypowania przed wprowadzeniem ich na rynek
Motywy wyjaśniają, że pojęcie modeli GPAI powinno wyraźnie odróżniać je od pojęcia systemów AI, aby zapewnić pewność prawa. Kluczowym kryterium jest ogólność i zdolność do kompetentnego wykonywania szerokiego zakresu różnych zadań. Takie modele są zazwyczaj trenowane na dużych ilościach danych i wprowadzane na rynek na różne sposoby.
Ważne jest, aby zrozumieć, że model sztucznej inteligencji, w tym model GPAI, może być istotną częścią systemu sztucznej inteligencji (w definicji określanego jako "systemy niższego szczebla"), ale sam w sobie nie stanowi takiego systemu. Prawdopodobnie najbardziej znanym przykładem modeli GPAI są duże modele językowe (LLM), które stanowią podstawę popularnych narzędzi do czatowania.
Motyw 97 ustawy AI Act dosłownie stanowi, że "Modele SI ogólnego przeznaczenia mogą być wprowadzane do obrotu na różne sposoby, w tym za pośrednictwem bibliotek, interfejsy programowania aplikacji (API), jako bezpośrednie pobieranie lub jako fizyczna kopia. Modele te mogą być dalej modyfikowane lub dostosowywane do nowych modeli.
Chociaż modele AI są istotnymi składnikami systemów AI, same w sobie nie stanowią systemów sztucznej inteligencji.
Modele AI wymagają dodania dalszych komponentów, takich jak na przykład interfejs użytkownika, aby stać się systemami sztucznej inteligencji. Modele AI są zazwyczaj zintegrowane z systemami AI i stanowią ich część systemów".
Dostawcy powinni pamiętać, że w przypadkach, w których modele AI są zintegrowane z systemami AI, obowiązki wynikające z AI Act w odniesieniu do modeli AI nie wygasają, ale nadal mają zastosowanie.
Ochrona danych w branży motoryzacyjnej. Co to jest TISAX?
Modele GPAI z ryzykiem systemowym i bez niego
Modele GPAI podlegają szeregowi obowiązków wspierających wdrażanie technologiczne i zapewniających odpowiednie zabezpieczenia, w tym dostarczanie szczegółowej dokumentacji technicznej właściwym organom (załącznik XI do AI Act), dostarczanie informacji dostawcom niższego szczebla, wdrażanie polityk ochrony praw autorskich oraz publikowanie streszczenia treści wykorzystywanych do szkolenia modelu GPAI (art. 53 ust. 1 AI Act). Dostawcy, którzy udostępniają modele GPAI na wolnej i otwartej licencji, podlegają pewnym zwolnieniom z tych obowiązków (art. 53 ust. 2 AI Act).
Modele GPAI obarczone ryzykiem systemowym podlegają dodatkowym obowiązkom. Modele GPAI uznaje się za obarczone ryzykiem systemowym, jeśli mają duże możliwości oddziaływania, np. jeśli mają dużą moc obliczeniową. Ponadto modele GPAI mogą zostać sklasyfikowane jako obarczone ryzykiem systemowym w przypadku decyzji Komisji (z urzędu lub po otrzymaniu kwalifikowanego ostrzeżenia od naukowego panelu niezależnych ekspertów). Dostawca takiego modelu GPAI musi:
- przeprowadzać ocenę modelu zgodnie ze standardowymi protokołami;
- przeprowadzać oceny ryzyka systemowego i ograniczać ryzyko systemowe;
- zgłaszać incydenty władzom; oraz
- zapewnić odpowiednią ochronę cyberbezpieczeństwa, w tym fizyczną infrastrukturę modelu (art. 55 ust. 1 AI Act).
Kogo dotyczy i co reguluje AI Act? Sprawdź nasz artykuł
Dalsze regulacje w sprawie rozwoju sztucznej inteligencji
AI Act dopiero wchodzi w życie i tu przywołałabym podobieństwo do czasu wejścia w życie RODO, jak wiele pytań pozostawało wtedy bez odpowiedzi, jaką drogę przeszliśmy od 25 maja 2018 roku do dnia dzisiejszego w przejściu na model zarządzania ryzykami dla praw i wolności osób.Pytania się mnożą:
jak to będzie wyglądać w Polsce?
kto będzie nadzorował stosowanie go?
o co chodzi z ISO 27001, 9001, 42001, 23894, 22989?
oraz wiele więcej!
W obliczu przyjęcia 21 maja 2024 r. przez Radę Unii Europejskiej przepisów o sztucznej inteligencji (AI) również cyberbezpieczeństwo jest tematem, który przenika do dyskusji.
Pamiętajmy, że obecnie trwają prace nad wdrożeniem ważnych dyrektyw:
NIS2 - dyrektywy Parlamentu Europejskiego i Rady (UE) 2022/2555 z dnia 14 grudnia 2022 r. w sprawie środków na rzecz wysokiego wspólnego poziomu cyberbezpieczeństwa na terytorium Unii, zmieniającej rozporządzenie (UE) nr 910/2014 i dyrektywę (UE) 2018/1972 oraz uchylającej dyrektywę (UE) 2016/1148,
CER - dyrektywy Parlamentu Europejskiego i Rady (UE) 2022/2557 z dnia 14 grudnia 2022 r. w sprawie odporności podmiotów krytycznych i uchylającej dyrektywę Rady 2008/114/WE (Dz. Urz. UE L 333 z 27.12.2022 r. str. 164).
System zarządzania jakością zgodny z ISO 9001. Jakie korzyści płyną z jego wdrożenia?