REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

AI Act zatwierdzony. Kiedy wejdzie w życie? 5 wniosków, które są szczególnie ważne dla firm z sektora biomedycznego

https://artificialintelligenceact.eu/the-act/
https://artificialintelligenceact.eu/the-act/
ShutterStock

REKLAMA

REKLAMA

Znamy już finalny, zaakceptowany przez państwa członkowskie draft AI Act – unijnej ustawy o Sztucznej Inteligencji. Jaki wpływ wywrze ona na działalność firm z sektora biomedycznego? Prezentujemy 5 najważniejszych wniosków. 

AI Act - nowe prawo UE dot. sztucznej inteligencji

REKLAMA

 – Mając w pamięci brak regulacji prawnych w obszarze social media, gdy zaczynały one szturmem podbijać europejski rynek, Unia Europejska nie chce drugi raz popełnić tego samego błędu. Obserwując dynamiczny wzrost znaczenia AI w gospodarce, od ponad dwóch lat trwały prace nad przygotowaniem pierwszych, ramowych regulacji w tym zakresie. Luty 2024 roku przyniósł kolejne ważne rozstrzygnięcia: najpierw wszystkie państwa członkowskie jednogłośnie przyjęły AI Act, następnie został on zatwierdzony przez dwie komisje Parlamentu Europejskiego: Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych – komentuje Paweł Sieczkowski, Prezes Zarządu Frontline Biosciences S.A. 

Jakie wnioski z tych wydarzeń powinny wyciągnąć firmy z sektora biomedycznego? 

REKLAMA

Na wstępie należy podkreślić, że utrzymane zostało najważniejsze założenie AI Act, tzn. klasyfikacja systemów wykorzystujących Sztuczną Inteligencję na podstawie poziomu generowanego ryzyka

  • nieakceptowalne ryzyko - np. systemy scoringu społecznego, manipulacyjna sztuczna inteligencja, automatyczna identyfikacja biometryczna;
  • wysokie ryzyko – np. systemy związane z ochroną zdrowia, ale także bezpieczeństwem, aspektami prawnymi czy ochroną środowiska naturalnego; 
  • ograniczone ryzyko – np. chatboty i deepfakes; 
  • minimalne lub zerowe ryzyko – np. gry wideo wykorzystujące sztuczną inteligencję , filtry spamu. 
Ważne

Większość obowiązków wynikających z AI Act spoczywa na dostawcach (programistach) systemów AI wysokiego ryzyka. 

Najważniejsze wnioski z AI Act dla firm z sektora biomedycznego 

  1. Systemy wykorzystujące AI związane z ochroną zdrowia generują wysokie ryzyko. 

Oznacza to, że praktycznie wszystkie produkty oraz procesy, wykorzystujące Sztuczną Inteligencję, komercjalizowane przez spółki biomedyczne, zaliczone zostaną do kategorii generującej wysokie ryzyko. Należy mieć tego świadomość i już teraz przygotować się na konieczność spełnienia dodatkowych wymagań wynikających z AI Act. Wyjątek stanowią tutaj systemy wykorzystywane wyłącznie na potrzeby badań naukowych i prac B+R. Zostały one wyłączone z zakresu ustawy o Sztucznej Inteligencji. 

  1. Odpowiedzialność spoczywa przede wszystkim na dostawcach systemów. 

Firmy z branży biomedycznej będą musiały spełnić wymogi AI Act przede wszystkim gdy występują w roli „dostawców” (producentów lub programistów) systemów Sztucznej Inteligencji. To dostawcy będą odpowiedzialni za tworzony system i jego zgodność z regulacjami, zarówno w zakresie AI Act, jak i pozostałymi jak np. MRD czy IVDR. Warto mieć ten aspekt na uwadze już w trakcie realizacji prac B+R nad rozwiązaniem zawierającym komponent Sztucznej Inteligencji.  

Z kolei zasady dla „wdrażających” systemy wykorzystujące Sztuczną Inteligencję są mniej restrykcyjne i ograniczają się (w uogólnieniu) do zagwarantowania, że systemy AI będą stosowane zgodnie z ich przeznaczeniem. 

  1. Systemy wysokiego ryzyka podczas użytkowania muszą podlegać nadzorowi człowieka. 

Na twórcach i dostawcach systemów AI wysokiego ryzyka spoczywa obowiązek takiego zaprojektowania produktu, by umożliwić wdrażającym wprowadzenie nadzoru człowieka. Nadzór człowieka ma zapobiegać ryzyku dla zdrowia i bezpieczeństwa lub minimalizować je poprzez interwencję osób fizycznych podczas korzystania z systemu wykorzystującego Sztuczną Inteligencję. Oznacza to, że ogólnie rzecz biorąc, systemy AI należy udostępniać użytkownikom w taki sposób, aby osoby fizyczne były w stanie zrozumieć ograniczenia urządzenia i prawidłowo zinterpretować jego dane wyjściowe. 

Dalszy ciąg materiału pod wideo
  1. Dostawcy systemów AI generujących wysokie ryzyko zmierzą się z dodatkowymi wymogami. 

Największą część AI Act poświęcono na opisanie zagadnień związanych z systemami wysokiego ryzyka. W artykułach od 8 do 29 ustawy scharakteryzowane zostały wymogi dotyczące dostarczania, wdrażania i stosowania tego typu systemów. Odnoszą się one m. in. do: 

  • wprowadzenia i stosowania systemu zarządzania ryzykiem w całym cyklu życia produktu wykorzystującego AI; 
  • zarządzania danymi w taki sposób aby zapewnić, że zbiory danych szkoleniowych, walidacyjnych i testowych są odpowiednie, wystarczająco reprezentatywne oraz, w miarę możliwości, wolne od błędów i kompletne zgodnie z zamierzonym celem; 
  • sporządzenia dokumentacji technicznej w celu wykazania zgodności (compliance) i umożliwienia oceny tej zgodności, co jest szczególnie istotne dla firm z sektora biomedycznego; 
  • przygotowania szczegółowych instrukcji obsługi dla podmiotów wdrażających produkty wykorzystujące AI; 
  • kwestii cyberbezpieczeństwa; 
  • wprowadzenia systemu zarządzania jakością. 

Należy mieć świadomość, że chociaż procesy niezbędne do spełnienia wymagań wynikających z AI Act można zintegrować z równoważnymi procesami wymaganymi na mocy rozporządzeń MDR/IVDR, treść samych wymagań jest inna i obliguje do posiadania odrębnego zestawu wiedzy i know-how. 

  1. Na obecnym etapie prac nad AI Act nadal istnieje ryzyko wprowadzenia sprzecznych definicji i powielających się wymagań, w kontekście już obowiązujących ustaw dla sektora biomedycznego. 

REKLAMA

Celem jest aby AI Act był spójny z pozostałymi, obowiązującymi regulacjami, takimi jak np. MDR i IVDR. Zgodnie z aktualnym tekstem prawnym stosowanie rozporządzeń powinno mieć charakter równoczesny i komplementarny, a ustawa o Sztucznej Inteligencji może w pewnych obszarach rozszerzyć zakres wymagań obowiązujących na mocy MDR i IVDR. Warto podkreślić, że twórcy AI Act opowiadają się za pojedynczą oceną zgodności i jedną zintegrowaną dokumentacją techniczną, co ma kluczowe znaczenie dla ułatwienia prac nad innowacjami w zakresie AI w sektorze biomedycznym. 

Jednakże nadal można znaleźć w dokumentacji pewne niedoskonałości. Na przykład terminy w AI Act dotyczące „dostawcy” i „producenta” różnią się od definicji znanych z MDR. Ponadto, ustawa o Sztucznej Inteligencji wymaga wykorzystywania danych demograficznych (np. danych pacjentów) do szkolenia i walidacji opracowywanych systemów, bez uwzględnienia wymogów RODO odnoszących się do prywatności i przejrzystości danych dotyczących opieki zdrowotnej. Innym aspektem, wymagającym doprecyzowania jest zakres szkolenia i walidacji systemów AI. Biorąc pod uwagę ogromne zbiory danych potrzebne do odpowiedniego szkolenia i walidacji wyrobu opartego na Sztucznej Inteligencji, w świetle AI Act trudno jest stwierdzić, kiedy szkolenie zostanie „ukończone”. Ten aspekt może mieć większy wpływ na technologie biomedyczne niż na inne branże, ze względu na wrażliwy charakter danych potrzebnych do szkolenia i walidacji technologii medycznej opartej na Sztucznej Inteligencji. 

Podmioty sektora biomedycznego powinny jasno wyrażać oczekiwanie, że przyszłe wytyczne Komisji Europejskiej wyjaśnią pojawiające się niedoskonałości. 

Kiedy AI Act wejdzie w życie?  

Co dalej z AI Act? Na kwiecień 2024 roku zaplanowano przyjęcie ustawy przez Parlament Europejski. Następnie zostanie on zatwierdzony przez Radę UE i wejdzie w życie 20 dni po opublikowaniu w Dzienniku Urzędowym UE. Od tego momentu w terminie 6 miesięcy zaczną obowiązywać przepisy odnoszące się do systemów nieakceptowalnego ryzyka, czyli zakazy dotyczące niedozwolonych praktyk. Z kolei pozostałe przepisy mają zostać wprowadzone w terminie 2 lat.  

Dla sektora biomedycznego kluczowy może okazać się fakt, że ze względu na wymóg przejścia oceny zgodności (na podstawie odrębnych przepisów UE), objęcie opracowywanych systemów wysokiego ryzyka przepisami AI Act zostanie opóźnione o dodatkowy rok. W tym czasie będziemy bacznie przyglądać się zapowiadanym przez Komisję Europejską aktom prawa wtórnego oraz poczynaniom Biura ds. Sztucznej Inteligencji, pełniącego funkcję organu nadzorczego. 

Treść AI Act: https://artificialintelligenceact.eu/the-act/  

 

Autopromocja

REKLAMA

Źródło: Źródło zewnętrzne

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:

REKLAMA

QR Code
Moja firma
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Zamrożenie cen energii w 2025 r. Rzecznik Małych i Średnich Przedsiębiorstw krytycznie o wycofaniu się z działań osłonowych wobec firm

Zamrożenie cen energii w 2025 r. Rzecznik Małych i Średnich Przedsiębiorstw krytycznie o wycofaniu się z działań osłonowych wobec firm. Interweniuje u premiera Donalda Tuska i marszałka Sejmu Szymona Hołowni.

ZUS: Wypłacono ponad 96,8 mln zł z tytułu świadczenia interwencyjnego. Wnioski można składać do 16 marca 2025 r.

ZUS: Wypłacono ponad 96,8 mln zł z tytułu świadczenia interwencyjnego. Wnioski można składać do 16 marca 2025 r. Zakład Ubezpieczeń Społecznych poinformował, że przygotowuje kolejne wypłaty świadczenia.

Black Friday, Cyber Monday. Cyberprzestępcy już na to czekają. Jak firmy mogą się zabezpieczyć?

Black Friday, Cyber Monday. Cyberprzestępcy już na to czekają. Jak firmy mogą się zabezpieczyć przed zagrożeniami? Przedświąteczny sezon zakupowy może stwarzać zagrożenia nie tylko dla klientów ale także dla sklepów.

Wiarygodność ekonomiczna państwa. Problem dla Polski i Węgier

Polska i Węgry mają wyzwania związane z wiarygodnością ekonomiczną – tak wynika z tegorocznego Indeksu Wiarygodności Ekonomicznej. Dotyczy to w szczególności obszarów praworządności, finansów publicznych i stabilności pieniądza.

REKLAMA

Obowiązek integracji kas rejestrujących z terminalami odroczony do 31 marca 2025 r.

Obowiązek integracji kas rejestrujących z terminalami odroczony do 31 marca 2025 r. Zapisy zawarto w ustawie o opodatkowaniu wyrównawczym. W rządzie trwają prace nad całkowitą likwidację tego obowiązku.

Uwaga! Cyberprzestępcy nie odpuszczają. Coraz więcej wyłudzeń w branży transportowej – ofiara płaci dwa razy

Fałszywe e-maile coraz częściej są stosowane do wyłudzania środków z firm. Zastosowanie tej metody w transporcie bywa szczególnie skuteczne ze względu na wysoką częstotliwość transakcji oraz międzynarodowy charakter współpracy, co często utrudnia wykrycie oszustwa. Jak się bronić przed wyłudzeniami?

KAS i CBŚP zatrzymały 19 osób wystawiających tzw. puste faktury. Postawiono 29 zarzutów

KAS i CBŚP zatrzymały 19 osób wystawiających tzw. puste faktury. Postawiono 29 zarzutów. Sprawę prowadzi Kujawsko-Pomorski Urząd Celno-Skarbowy w Toruniu i CBŚP, pod nadzorem Zachodniopomorskiego Wydziału Zamiejscowego Departamentu ds. Przestępczości Zorganizowanej i Korupcji Prokuratury Krajowej w Szczecinie.

Co konkretnie możemy zrobić, by zadbać o zdrowie psychiczne i fizyczne pracowników? [Pobierz BEZPŁATNEGO E-BOOKA]

Pobierz bezpłatnego e-booka. Dbanie o dobrostan pracowników powinno stanowić priorytet dla zarządów i działów HR, zwłaszcza w kontekście współczesnych wyzwań, przed którymi staje zarówno biznes, jak i społeczeństwo. W obliczu prezydencji Polski w Unii Europejskiej, gdzie jednym z priorytetów staje się profilaktyka zdrowotna, warto podkreślić, jak fundamentalne znaczenie ma ona nie tylko dla jednostek, ale i dla całych organizacji.

REKLAMA

Efektywność energetyczna budynków. Nowe przepisy to dodatkowe obowiązki dla biznesu

Analizy rozwiązań w zakresie efektywności energetycznej dla wszystkich dużych inwestycji oraz certyfikowane systemy zarządzania energią dla firm energochłonnych. Takie rozwiązania przewidują założenia projektu zmiany ustawy o efektywności energetycznej.

ZUS otrzymał ponad 525,4 tys. wniosków o wakacje składkowe. Wnioski można składać do 30 listopada 2024 r.

ZUS otrzymał ponad 525,4 tys. wniosków o wakacje składkowe. Wnioski o wakacje składkowe można składać wyłącznie drogą elektroniczną do 30 listopada 2024 r. Czym są wakacje składkowe?

REKLAMA