Unia Europejska wprowadza przełomową regulację dotyczącą sztucznej inteligencji – Rozporządzenie 2024/1689, znane jako Akt w sprawie sztucznej inteligencji (AI Act). Dokument ten jest odpowiedzią na dynamiczny rozwój technologii AI i ma na celu ujednolicenie zasad dotyczących jej tworzenia i stosowania w całej UE. Wprowadzenie tej regulacji to istotny krok na drodze do zapewnienia bezpieczeństwa, przejrzystości i etycznego wykorzystania sztucznej inteligencji. W artykule omawiamy najważniejsze aspekty nowego prawa, jego harmonogram wdrażania oraz konsekwencje dla przedsiębiorstw i użytkowników.

Kluczowe daty wejścia w życie przepisów

Rozporządzenie będzie wprowadzane do porządku prawnego etapami, co pozwoli przedsiębiorstwom na dostosowanie się do nowych wymagań. Harmonogram wejścia w życie przepisów przedstawia się następująco:

  • 2 lutego 2025 r. – zaczną obowiązywać przepisy zakazujące nieetycznych praktyk w AI, takich jak stosowanie technik podprogowych wpływających na zachowanie użytkowników w sposób prowadzący do potencjalnych szkód fizycznych lub psychicznych;
  • 2 sierpnia 2025 r. – wprowadzone zostaną przepisy dotyczące systemów wysokiego ryzyka oraz modeli ogólnego przeznaczenia;
  • 2 sierpnia 2026 r. – pełne wejście w życie rozporządzenia, obejmujące regulacje dla szerokiego stosowania systemów AI.

Zmiany w innych obszarach prawnych

AI Act wprowadzi istotne zmiany w innych obszarach prawnych. W szczególności:

  • RODO: nowe przepisy będą wymagać zgodności z zasadami ochrony danych osobowych, zwłaszcza w kontekście automatycznego podejmowania decyzji;
  • Prawo autorskie: regulacja wpłynie na wykorzystanie danych treningowych i ochronę utworów w procesie trenowania modeli AI;
  • Prawo cywilne: AI Act wprowadzi nowe ramy odpowiedzialności za szkody związane z korzystaniem z systemów AI, co uzupełni dotychczasowe przepisy;;
  • Prawo konsumenckie: przepisy wzmocnią ochronę konsumentów, zobowiązując firmy do informowania o wpływie AI na indywidualne dostosowanie cen czy inne decyzje handlowe
  • Ustawa o zwalczaniu nieuczciwej konkurencji: nowe przepisy mogą ograniczyć ryzyko naruszenia tajemnicy przedsiębiorstwa przy wykorzystywaniu danych w systemach AI.

Zakazane praktyki w AI

Jednym z podstawowych założeń AI Act jest ochrona użytkowników przed nieetycznymi praktykami. Od 2 lutego 2025 r. zakazane będzie m.in. wykorzystywanie systemów AI do:

  • stosowania technik podprogowych poza świadomością osoby, które mogą zniekształcać jej zachowanie i prowadzić do szkód;
  • wyłudzania zachowań osób poprzez wykorzystanie ich wrażliwych danych w sposób niezgodny z prawem.

Zakaz ten ma na celu eliminację manipulacyjnych i szkodliwych praktyk, zapewniając większe zaufanie do technologii AI.

Systemy wysokiego ryzyka

Centralnym elementem rozporządzenia są przepisy dotyczące systemów wysokiego ryzyka. Zgodnie z AI Act, są to systemy, które mogą wpływać na zdrowie, bezpieczeństwo, prawa podstawowe lub środowisko. Przykładem mogą być systemy stosowane w rekrutacji, ochronie zdrowia, edukacji czy transporcie.

Systemy te będą musiały spełniać rygorystyczne wymogi, takie jak:

  • przejście procedury oceny zgodności z wymogami rozporządzenia;
  • zapewnienie odpowiedniej dokumentacji technicznej i mechanizmów nadzoru;
  • wprowadzenie środków zarządzania ryzykiem na każdym etapie cyklu życia systemu.

Przepisy nakładają również obowiązki na podmioty korzystające z systemów wysokiego ryzyka, w tym monitorowanie ich działania oraz raportowanie potencjalnych zagrożeń.

Transparentność systemów niskiego ryzyka

Chociaż systemy niskiego ryzyka nie podlegają tak surowym regulacjom, AI Act nakłada pewne wymogi transparentności. Przykładowo:

  • systemy AI interaktywne muszą informować użytkowników, że komunikują się z AI;
  • generowane treści (np. teksty, obrazy) powinny być wyraźnie oznaczane jako sztucznie wygenerowane;
  • deepfake’i muszą zawierać jasne informacje o manipulacji treścią.

Wymogi te mają na celu ochronę użytkowników przed dezinformacją oraz promowanie odpowiedzialnego stosowania AI.

Modele ogólnego przeznaczenia

Szczególna uwaga w rozporządzeniu została poświęcona modelom ogólnego przeznaczenia, takim jak np. GPT. Dostawcy takich systemów muszą zadbać o to, aby dane wykorzystywane do trenowania modeli były zgodne z prawami autorskimi i innymi przepisami.

Sankcje i nadzór

Aby zapewnić skuteczne wdrażanie przepisów, w każdym państwie członkowskim powołane zostaną organy nadzorcze. W Polsce nadzór nad przestrzeganiem AI Act ma sprawować nowy organ – Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Organ ten będzie miał uprawnienia do nakładania kar administracyjnych, które mogą wynieść:

  • do 7% rocznego światowego obrotu firmy;
  • do 1,5 miliona euro za nieprzestrzeganie zakazu praktyk niedopuszczalnych.

Konsekwencje dla przedsiębiorstw

AI Act będzie miał zastosowanie nie tylko do dostawców systemów AI, ale także do podmiotów je wykorzystujących, nawet jeśli znajdują się poza UE, pod warunkiem że efekty działania AI są wykorzystywane na terenie Unii. Oznacza to, że regulacje obejmą szerokie grono podmiotów, od dostawców technologii, przez firmy korzystające z AI w procesach biznesowych, po sektor publiczny.

Dostosowanie do przepisów będzie wymagało podjęcia szeregu działań, takich jak:

  • analiza zgodności istniejących systemów AI z nowymi wymogami;
  • wdrożenie polityk zarządzania ryzykiem i transparentności;
  • przeszkolenie pracowników w zakresie nowych regulacji;
  • zapewnienie mechanizmów monitorowania i raportowania.

Podsumowanie

Akt w sprawie sztucznej inteligencji (AI Act) to przełomowa regulacja Unii Europejskiej mająca na celu zapewnienie bezpiecznego i transparentnego korzystania z systemów AI. Przepisy będą obowiązywać od sierpnia 2026 roku, z wcześniejszym wprowadzeniem zakazów niedopuszczalnych praktyk oraz części wymogów dla systemów wysokiego ryzyka i modeli ogólnego przeznaczenia. Regulacja obejmie zarówno dostawców, jak i użytkowników systemów AI, także spoza UE, jeśli ich rozwiązania będą wykorzystywane na unijnym rynku. Firmy muszą przygotować się na nowe obowiązki, w tym oceny zgodności, dokumentację techniczną i transparentność działania. Zaniedbanie tych wymogów może skutkować karami finansowymi, nawet do 7% globalnych przychodów rocznych firmy. W Polsce trwają prace nad ustawą wdrażającą AI Act, a nowo powołany organ nadzorczy będzie odpowiedzialny za przestrzeganie przepisów.

Przygotowania należy rozpocząć już teraz, aby uniknąć potencjalnych ryzyk i kar w przyszłości, wiec jak masz pytania – skontaktuj się z nami.