Posiedzenie Podkomisji stałej do spraw sztucznej inteligencji i przejrzystości algorytmów

W dniu 9 kwietnia 2024 r. w Sejmie RP odbyło się posiedzenie podkomisji stałej do spraw sztucznej inteligencji i przejrzystości algorytmów. Spotkanie dotyczyło regulacji zawartych w AI Act – akcie w sprawie sztucznej inteligencji, przyjętym przez Parlament Europejski 13 marca 2024 r. Przewiduje się, że Akt zostanie opublikowany pod koniec maja lub w czerwcu tego roku, tj. po zakończeniu całego procesu ustawodawczego na poziomie Unii Europejskiej. Następnie zacznie się proces wdrażania. Celem tego przepisu nie jest uregulowanie samej technologii, tylko uregulowanie jej zastosowań.

W spotkaniu wzięli udział posłowie – członkowie podkomisji, oraz członkowie komisji cyfryzacji i innowacyjności nowoczesnych technologii. W posiedzeniu uczestniczyli w szczególności:

  • Sekretarz Stanu w Ministerstwie Cyfryzacji – Dariusz Standerski,
  • Prezes Urzędu Ochrony Danych Osobowych – Mirosław Wróblewski,
  • przedstawiciele Urzędu Ochrony Konkurencji i Konsumentów:
    • Dyrektor Departamentu Ochrony Zbiorowych Interesów Konsumentów – Łukasz Wroński,
    • Zastępca Dyrektora Departamentu Ochrony Konkurencji – Marta Kruszka,
  • reprezentanci Urzędu Komunikacji Elektronicznej,
  • przedstawiciele organizacji branżowych (Polskie Towarzystwo Informatyczne, Polska Izba Informatyki i Telekomunikacji, Polska Izba Komunikacji Elektronicznej, Izba Gospodarki Elektronicznej, Związek Pracodawców Branży Internetowej IAB Polska),
  • przedstawiciele Związków Zawodowych (Forum Związków Zawodowych oraz NSZZ Solidarność,
  • przedstawiciele środowisk naukowych.

Przedstawiciel Ministerstwa Cyfryzacji – Pan Dariusz Standerski rozpoczął obrady podkomisji od wskazania, że dyskusja odnośnie wdrożenia Aktu o sztucznej inteligencji jest kluczowa nie tylko ze względu na przepisy, które zostały uchwalone przez Parlament Europejski w marcu, ale szczególnie ze względu na projektowanie przepisów, systemów i ram prawnych, do przestrzegania których będziemy zobowiązani przez najbliższe dekady. AI Act jest pierwszym z serii aktów dotyczących technologii przełomowych, czyli sztucznej inteligencji, ale z pewnością pojawią się też kolejne uregulowania w tym zakresie. Dlatego tak ważne jest, żeby podejmować działania przemyślane, odpowiedzialne, z uwzględnieniem konsultacji społecznych. Celem jest stworzenie silnych podstaw instytucjonalnych do przyjmowania kolejnych przepisów na poziomie unijnym oraz na poziomie krajowym, dotyczących technologii przełomowych.

Akt zakazuje stosowania konkretnych praktyk i na jego mocy systemy AI, wykorzystujące poniższe mechanizmy w pierwszej kolejności będą musiały zniknąć (o ile są wykorzystywane na obszarze Unii Europejskiej). Zakazane praktyki obejmują:

  • bazowanie na ocenie społecznej (social scoring),
  • monitoring emocji i samopoczucia, np. miejscu pracy lub na uczelni (dotyczy emocji lub zamiarów, takich jak radość, smutek, złość, zdziwienie, obrzydzenie, zakłopotanie, podekscytowanie, wstyd, pogarda, satysfakcja i rozbawienie; nie dotyczy stanów fizycznych, takich jak ból lub zmęczenie – w tym na przykład systemów stosowanych do wykrywania poziomu zmęczenia zawodowych pilotów lub kierowców w celu zapobiegania wypadkom),
  • wykorzystywanie technik podprogowych w kontekście dyskryminującym ze względu na wiek, płeć lub niepełnosprawność,
  • tworzenie baz danych biometrycznych wykorzystywanych np. do rozpoznawania twarzy przez scrabbing danych z monitoringu wizyjnego.

Regulacja dokonuje podziału systemów na te ogólnego wykorzystania oraz systemy wysokiego ryzyka. Systemy wysokiego ryzyka wprowadzone przez rozporządzenie, obejmują m.in. produkty unijne, które są regulowane bezpośrednio na poziomie wspólnotowym, np. wyroby medyczne, kosmetyki, samochody, zabawki dla dzieci. Do tej kategorii należy zaliczyć również systemy, które dokonują profilowania osób czy oceniają dostęp do świadczeń, np. udzielenie kredytu, pożyczki lub innych usług finansowych. Mają one konkretne obostrzenia wskazane w rozporządzeniu m.in. dotyczące zarządzenia ryzykiem, prowadzenia dokumentacji technicznej, nadzoru człowieka nad algorytmami  oraz współpracę z właściwymi organami.

Rozporządzenie wskazuje także na potrzebę powołania organu krajowego zajmującego się nadzorem rynku. Ma być on odpowiedzialny za przyjmowanie zgłoszeń dotyczących naruszeń zapisów tego rozporządzenia. Podobne rozwiązanie funkcjonuje już w Hiszpanii, gdzie utworzono Agencję nadzoru nad sztuczną inteligencją, a w Irlandii, Luksemburgu, Holandii trwają odpowiednie prace (prawdopodobnie te urzędy będą później dostosowywane do wymagań ostatecznie uchwalonego przepisu). Na poziomie krajowym rozpoczęły się już prekonsultacje dotyczące wyłonienia urzędu odpowiedzialnego za wykonywanie przyszłego aktu o sztucznej inteligencji. Resort oczekuje na składanie uwag w tym zakresie. Na obecnym etapie nie zostały wskazane żadne propozycje, żadne warunki brzegowe. Do tej pory przeprowadzono wstępne konsultacje w ramach grupy roboczej sztucznej inteligencji i są już wyniki tych wstępnych konsultacji. Po zakończeniu prekonsultacji, od października 2024 r. Ministerstwo chce rozpocząć prace legislacyjne. Zostanie także uruchomiona kampania informacyjna i edukacyjna w zakresie wykorzystywania tego prawa.

Prezes Urzędu Ochrony Danych Osobowych – Pan Mirosław Wróblewski, zaznaczył, że wyzwaniem związanym z wdrożeniem Aktu o sztucznej inteligencji jest kwestia ochrony danych osobowych, w szczególności ich przetwarzania. W art. 2 ust. 7 Aktu pojawia się zapis o poszanowaniu prawa o ochronie danych osobowych. Zapewnienie rzeczywistego egzekwowania tego zapisu jest wyzwaniem w dużej mierze dla ustawodawcy krajowego, dla organów nadzorczych. Sam akt mówi też o zagrożeniach wiążących się z nieprzejrzystością algorytmów, o możliwości wystąpienia efektów stronniczości czy też dyskryminacji, pojawia się także ryzyko możliwości wyrządzenia szkody przez sztuczną inteligencję. Jednocześnie wskazuje się na korzyści – innowacje, które będą mieć wpływ na wzmacnianie gospodarki. Ponadto, istnieje potrzeba praktycznego i efektywnego zapewnienia przestrzegania zasad ochrony danych osobowych zawartych w RODO, np. zasady minimalizacji danych, tymczasem algorytmy sztucznej inteligencji uzyskują swoją doskonałość dzięki przetwarzaniu dużej ilości danych. Urząd Ochrony Danych Osobowych prowadzi już działania przygotowujące w tym zakresie.

Podczas obrad podkomisji, w części przeznaczonej na dyskusję poruszono następujące kwestie:

  • finansowanie organu, który będzie się zajmował sprawami sztucznej inteligencji w Polsce – kosztorys będzie opracowany dopiero po zakończeniu konsultacji;
  • wpływ AI Act na konkurencyjność europejskiej gospodarki – jaka jest strategia UE; regulacje w zakresie sztucznej inteligencji są wdrażane także w innych krajach, poza UE, jednak na ten moment nie dostrzega się blokad rozwojowych;
  • AI Act stanowi precyzyjne wskazanie modeli zakazanych oraz modeli wysokiego ryzyka, które wpisują się też w inne ustawodawstwo UE przede wszystkim RODO i w tym zakresie Akt o sztucznej inteligencji nie wyklucza rozwoju sztucznej inteligencji w ramach UE, zwłaszcza w zakresie finansowania AI, dlatego też dyskutuje się nad funduszem sztucznej inteligencji na poziomie krajowym oraz na poziomie UE.

Źródło:
www.sejm.gov.pl