top of page
  • Zdjęcie autoramec. Rafał Stach

Jak AI Act zrewolucjonizuje korzystanie ze sztucznej inteligencji?

W dniu 8 grudnia 2023 roku przedstawiciele Komisji Europejskiej, Parlamentu Europejskiego i państw członkowskich osiągnęli historyczne porozumienie w sprawie ostatecznego (choć podlegającego jeszcze ewentualnym zmianom w trakcie procesu legislacyjnego) kształtu unijnego rozporządzenia Artificial Intelligence Act (AI Act), pierwszej na świecie kompleksowej regulacji określającej zasady wykorzystywania sztucznej inteligencji (AI), zarówno przez podmioty prywatne, jak również publiczne. Zgodnie z uzasadnieniem projektu, głównym celem dokumentu jest zapewnienie bezpiecznego rozwoju sztucznej inteligencji oraz zminimalizowanie ryzyka wystąpienia nadużyć przy rozwijaniu i wykorzystywaniu technologii opartej na AI. 

 

Kogo dotyczy AI Act? 

Rozporządzenie posługuje się terminem „systemów sztucznej inteligencji”, stanowiących oprogramowanie zaprojektowane do działania na różnym poziomie autonomii, które może wykazywać zdolność adaptacji po jego wdrożeniu i które, dla celów jawnych lub niejawnych, wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak treści, przewidywania, zalecenia lub decyzje, które mogą wpływać zarówno na środowisko fizyczne, jak również wirtualne. 

 

AI Act będzie obowiązywało tzw. operatorów, pod którym to pojęciem należy rozumieć zarówno dostawców, jak również użytkowników, importerów oraz dystrybutorów systemów sztucznej inteligencji. Do operatorów zalicza się osoby fizyczne lub prawne, organy publiczne, agencje oraz inne podmioty, które opracowują systemy sztucznej inteligencji lub zlecają ich opracowanie (dostawcy), korzystają z systemów sztucznej inteligencji (użytkownicy), wprowadzają do obrotu i oddają do użytku systemy sztucznej inteligencji (importerzy) lub udostępniają systemy sztucznej inteligencji na rynku unijnym, nie będąc dostawcą lub importerem (dystrybutorzy). 

 

Warto zanotować, że przewidziano pewne wyłączenia w stosowaniu AI Act, które będą dotyczyły systemów sztucznej inteligencji udostępnianych na licencjach typu free source i open source (otwartych), chyba że są one wprowadzane do obrotu lub oddawane do użytku jako systemy sztucznej inteligencji wysokiego ryzyka, o których będzie mowa w dalszej części niniejszego artykułu. 

 

Zakazane sposoby użycia sztucznej inteligencji w Unii Europejskiej 

Nowa regulacja wiąże się oczywiście z określeniem zakazanych praktyk w zakresie sztucznej inteligencji. Na podstawie AI Act, zakazane będzie wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemu sztucznej inteligencji, który stosuje techniki podprogowe, wykorzystuje słabości określonej grupy osób, przeznaczony jest do oceny punktowej lub klasyfikacji wiarygodności osób fizycznych przez organy władzy publicznej (tzw. „scoring” obywateli będący znaną i powszechną praktyką w Chińskiej Republice Ludowej) oraz identyfikacji biometrycznej osób fizycznych „w czasie rzeczywistym” przez służby (z pewnymi wyjątkami, dotyczącymi m.in. poszukiwania ofiar przestępstw czy przeciwdziałania aktom terrorystycznym). 

 

Systemy sztucznej inteligencji wysokiego ryzyka 

Istotna część AI Act będzie poświęcona tzw. systemom sztucznej inteligencji wysokiego ryzyka, związanym z wrażliwymi dziedzinami szczegółowo wskazanymi w regulacji, m. in. identyfikacją i kategoryzacją biometryczną osób fizycznych, zarządzaniem infrastrukturą krytyczną, kształceniem i szkoleniem zawodowym, zatrudnianiem i zarządzaniem pracownikami, ściganiem przestępstw, zarządzaniem migracją, azylem i kontrolą graniczną, sprawowaniem wymiaru sprawiedliwości oraz – co szczególnie istotne – dostępem do podstawowych usług prywatnych oraz usług i świadczeń publicznych (np. ochrona zdrowia, dostęp do mediów, ubezpieczeń na życie i zdrowotnych). 

 

Jeżeli dany system sztucznej inteligencji będzie spełniał kryteria wysokiego ryzyka, wówczas konieczne będzie spełnienie szeregu dodatkowych wymogów, w tym dotyczących testowania, bezpieczeństwa, rejestrowych, oceny zgodności oraz obowiązków sprawozdawczych. 

 

Obowiązki informacyjne związane z wykorzystaniem sztucznej inteligencji 

Na dostawcach systemów sztucznej inteligencji przeznaczonych do wchodzenia w interakcję z osobami fizycznymi będzie spoczywał obowiązek projektowania i opracowywania systemów w taki sposób, żeby osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem sztucznej inteligencji. 

 

Zasada przejrzystości w odniesieniu do systemów sztucznej inteligencji będzie dotyczyła również ich użytkowników, którzy w przypadku systemu sztucznej inteligencji, który generuje obrazy, treści dźwiękowe lub treści wideo, łudząco przypominające istniejące osoby, obiekty, miejsca lub inne podmioty lub zdarzenia, lub który tymi obrazami i treściami manipuluje, przez co osoba będąca ich odbiorcą mogłaby niesłusznie uznać je za autentyczne lub prawdziwe (tzw. „deepfake”), będą miały obowiązek wskazać, że dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji. 

 

Co więcej, użytkownicy systemu sztucznej inteligencji, który generuje lub manipuluje tekstem publikowanym w celu informowania opinii publicznej muszą ujawnić, że tekst został sztucznie wygenerowany lub zmanipulowany. Wymienione wyżej obowiązki nie będą miały zastosowania, gdy wykorzystanie takiego systemu jest dozwolone przez prawo w celu wykrywania, zapobiegania, prowadzenia dochodzeń i ścigania przestępstw. 

 

Od kiedy obowiązywać będzie rozporządzenie AI Act? 

W najbliższych miesiącach należy oczekiwać przejścia AI Act przez proces legislacyjny. Stosowanie nowej regulacji rozpocznie się po upływie 24 miesięcy od wejścia rozporządzenia w życie. W trakcie tego dwuletniego okresu, podmioty korzystające z systemów sztucznej inteligencji będą musiały przygotować się do stosowania nowych wymogów. Utworzony zostanie również Europejski Urząd ds. Sztucznej Inteligencji, który będzie wspierał państwa członkowskie i ich organy. 

bottom of page