Parlament Europejski przyjął rozporządzenie w sprawie sztucznej inteligencji – AI Act. Nowe regulacje pozwalają na zbudowanie środowiska prawnego, które z jednej strony zapewnią możliwość rozwoju sztucznej inteligencji, a z drugiej gwarantują poszanowanie praw człowieka i minimalizują zjawisko dyskryminacji.
Nie wszyscy eksperci są jednak zdania, że wdrażane przepisy wystarczająco chronią prawa człowieka przed systemami sztucznej inteligencji. Jakie konkretnie zakazy i ograniczenia wprowadza AI Act? Kiedy opisywane rozporządzenie zacznie obowiązywać? Przekonamy się poniżej:
Sztuczna inteligencja uregulowana w UE
13 marca 2024 roku, podczas sesji plenarnej w Strasburgu, finalnie przegłosowano AI Act. Za rozporządzeniem w sprawie sztucznej inteligencji zagłosowało aż 523 europosłów. 46 było przeciw, a 49 europarlamentarzystów wstrzymało się od głosu.
Nowe przepisy zakazują pewnych zastosowań AI, które zagrażają prawom obywateli. Są to między innymi systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe, i nieukierunkowane pobieranie wizerunków twarzy z Internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące rozpoznawaniu twarzy.
Zakazane będą też rozpoznawanie za pomocą sztucznej inteligencji emocji w miejscu pracy i instytucjach edukacyjnych oraz prognozowanie przestępczości wyłącznie na podstawie profilowania osoby lub oceny jej cech.
Nie będą także dozwolone systemy sztucznej inteligencji, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości, opierając się przy tym o techniki podprogowe. Zakazano również systemów AI, które dyskryminują określone grupy osób
Organom ścigania z reguły nie wolno korzystać z systemów identyfikacji biometrycznej w przestrzeni publicznej, czyli z rozpoznawania w czasie rzeczywistym osób po wyglądzie, ruchach mięśni twarzy czy tonie głosu.
Są jednak pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. W przegłosowanej wersji aktu inwigilacja tego typu będzie możliwa w czasie rzeczywistym w przypadkach określonych przestępstw.
Systemy AI wysokiego ryzyko, zakaz scoringów społecznych i przepisy dotyczące deepfake
Ponadto, szczególne obowiązki określono dla systemów sztucznej inteligencji wysokiego ryzyka, wykorzystywanych w takich obszarach, jak: infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne (takie jak opieka zdrowotna czy bankowość).
Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą także być przejrzyste i dokładne oraz podlegać kontroli człowieka. Co więcej, twórcy tych systemów muszą ocenić ich wpływ na prawa człowieka, zanim zdecydują się je wdrożyć.
Na terenie Unii Europejskiej zabronione mają być też systemy sztucznej inteligencji do oceny obywateli – tak zwane scoringi społeczne, najlepiej znane z Chin, gdzie dostęp do określonych usług publicznych czy świadczeń bywa ograniczany za „niewłaściwe” z punktu widzenia władzy znajomości czy niezdrowy tryb życia.
Co więcej, przepisy nakazują wyraźnie oznaczać nieautentyczne lub zmanipulowane obrazy, treści audio lub wideo – czyli materiały typu deepfake.
Powołanie Europejskiej Rady do spraw Sztucznej Inteligencj
W rozporządzeniu w sprawie sztucznej inteligencji znalazły się ponadto takie rozwiązania dla obywateli Unii Europejskiej jak:
- Prawo do indywidualnej skargi na źle działający albo dyskryminujący obywateli konkretny mechanizm AI
- Możliwość zbiorowego dochodzenia praw
Nowe rozporządzenie zakłada również wyznaczenie specjalistycznej Europejskiej Rady do spraw Sztucznej Inteligencji oraz wyłonienie organów krajowych w poszczególnych państwach członkowskich. Ich zadaniem będzie zapewnienie skutecznego egzekwowania nowych przepisów na poziomie krajowym.
Kiedy AI Act wejdzie w życie?
Rozporządzenie w sprawie sztucznej inteligencji musi jeszcze formalnie przyjąć Rada Unii Europejskiej. AI Act wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać zacznie 24 miesiące później. Zakazy najbardziej szkodliwych systemów mają jednak zacząć obowiązywać już po sześciu miesiącach.
Z kolei po roku od wejścia w życie rozporządzenia w sprawie sztucznej inteligencji możliwe będzie nakładanie kar, w tym także finansowych, za łamanie tych przepisów. Kary mają zaś być surowe – rzędu nawet 35 milionów euro lub do 7% globalnego rocznego obrotu danej firmy. Co istotne, kary nakładać będzie organ krajowy odpowiedzialny za stosowanie AI Act.
Co eksperci sądzą o AI Act?
Wiceminister cyfryzacji Dariusz Standerski oświadczył, że przyjęcie rozporządzenia w sprawie sztucznej inteligencji “to krok milowy, jeśli chodzi o AI. Stawka była wysoka – nikomu wcześniej nie udało się wypracować tak kompleksowego prawa w obszarze sztucznej inteligencji. Dziś to się udało i mamy przed sobą nową rzeczywistość prawną, którą trzeba wspólnie zagospodarować”.
Inni eksperci zaznaczają natomiast, że w sprawę kształtowania nowych przepisów mocno angażowały się też różnego rodzaju firmy wykorzystujące sztuczną inteligencję. Lobbyści i prezesi firm technologicznych – takich jak Microsoft, Google czy OpenAI – naciskali, by powstrzymać zapędy unijnych regulatorów, którzy chcieli zaliczyć programy takie jak ChatGPT do systemów wysokiego ryzyka.
Dr Paweł Kowalski z Otwartej pracowni sztucznej inteligencji na Uniwersytecie SWPS stwierdził, że “to im się udało. W tej chwili w Akcie o sztucznej inteligencji nie jest już tak jednoznacznie powiedziane, że modele AI ogólnego przeznaczenia są automatycznie zaliczane do systemów wysokiego ryzyka”.
Wielu ekspertów zwraca uwagę, że wskazuje, że za większą swobodą dla firm technologicznych w tej kwestii opowiedziały się Francja (gdzie szczególnie lobbował za tym tamtejszy startup Mistral AI, mający partnerstwo z Microsoftem), Niemcy (tu sporo do powiedzenia miała firma Aleph Alpha) i Włochy.
UE zdecydowała się przedłożyć interesy biznesu nad ochronę praw człowieka?
Z kolei doradca do spraw prawa sztucznej inteligencji Amnesty International, Mher Hakobyan jest zdania, iż “mimo że przyjęcie pierwszych na świecie zasad dotyczących rozwoju i wdrażania technologii AI jest dużym krokiem naprzód, rozczarowujące jest, że Unia i jej 27 państw członkowskich zdecydowały się przedłożyć interesy biznesu nad ochronę ludzi i praw człowieka”.
Prezeska Fundacji Panoptykon, Katarzyna Szymielewicz również oznajmiła, że “organizacje społeczne są rozczarowane, ponieważ ostateczna wersja Aktu jest zdecydowanie osłabiona względem tego, co wcześniej proponował Parlament Europejski”.
Zdaniem prezeski Fundacji Panoptykon “najwięcej kontrowersji na ostatniej prostej wzbudziło rozwodnienie zakazów, które miały chronić Europejczyków przed systemami potrafiącymi ustalać tożsamość człowieka na podstawie zdjęcia jego twarzy albo rozpoznawać przeżywane w danym momencie emocje”.
Katarzyna Szymielewicz wyjaśniła, że “takie systemy mogą być łatwo użyte przeciwko ludziom – na przykład przez niekontrolowane demokratycznie służby”.