REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

AI Act zatwierdzony. Kiedy wejdzie w życie? 5 wniosków, które są szczególnie ważne dla firm z sektora biomedycznego

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
https://artificialintelligenceact.eu/the-act/
https://artificialintelligenceact.eu/the-act/
ShutterStock

REKLAMA

REKLAMA

Znamy już finalny, zaakceptowany przez państwa członkowskie draft AI Act – unijnej ustawy o Sztucznej Inteligencji. Jaki wpływ wywrze ona na działalność firm z sektora biomedycznego? Prezentujemy 5 najważniejszych wniosków. 

AI Act - nowe prawo UE dot. sztucznej inteligencji

REKLAMA

 – Mając w pamięci brak regulacji prawnych w obszarze social media, gdy zaczynały one szturmem podbijać europejski rynek, Unia Europejska nie chce drugi raz popełnić tego samego błędu. Obserwując dynamiczny wzrost znaczenia AI w gospodarce, od ponad dwóch lat trwały prace nad przygotowaniem pierwszych, ramowych regulacji w tym zakresie. Luty 2024 roku przyniósł kolejne ważne rozstrzygnięcia: najpierw wszystkie państwa członkowskie jednogłośnie przyjęły AI Act, następnie został on zatwierdzony przez dwie komisje Parlamentu Europejskiego: Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych – komentuje Paweł Sieczkowski, Prezes Zarządu Frontline Biosciences S.A. 

Jakie wnioski z tych wydarzeń powinny wyciągnąć firmy z sektora biomedycznego? 

REKLAMA

Na wstępie należy podkreślić, że utrzymane zostało najważniejsze założenie AI Act, tzn. klasyfikacja systemów wykorzystujących Sztuczną Inteligencję na podstawie poziomu generowanego ryzyka

  • nieakceptowalne ryzyko - np. systemy scoringu społecznego, manipulacyjna sztuczna inteligencja, automatyczna identyfikacja biometryczna;
  • wysokie ryzyko – np. systemy związane z ochroną zdrowia, ale także bezpieczeństwem, aspektami prawnymi czy ochroną środowiska naturalnego; 
  • ograniczone ryzyko – np. chatboty i deepfakes; 
  • minimalne lub zerowe ryzyko – np. gry wideo wykorzystujące sztuczną inteligencję , filtry spamu. 
Ważne

Większość obowiązków wynikających z AI Act spoczywa na dostawcach (programistach) systemów AI wysokiego ryzyka. 

Najważniejsze wnioski z AI Act dla firm z sektora biomedycznego 

  1. Systemy wykorzystujące AI związane z ochroną zdrowia generują wysokie ryzyko. 

Oznacza to, że praktycznie wszystkie produkty oraz procesy, wykorzystujące Sztuczną Inteligencję, komercjalizowane przez spółki biomedyczne, zaliczone zostaną do kategorii generującej wysokie ryzyko. Należy mieć tego świadomość i już teraz przygotować się na konieczność spełnienia dodatkowych wymagań wynikających z AI Act. Wyjątek stanowią tutaj systemy wykorzystywane wyłącznie na potrzeby badań naukowych i prac B+R. Zostały one wyłączone z zakresu ustawy o Sztucznej Inteligencji. 

  1. Odpowiedzialność spoczywa przede wszystkim na dostawcach systemów. 

Firmy z branży biomedycznej będą musiały spełnić wymogi AI Act przede wszystkim gdy występują w roli „dostawców” (producentów lub programistów) systemów Sztucznej Inteligencji. To dostawcy będą odpowiedzialni za tworzony system i jego zgodność z regulacjami, zarówno w zakresie AI Act, jak i pozostałymi jak np. MRD czy IVDR. Warto mieć ten aspekt na uwadze już w trakcie realizacji prac B+R nad rozwiązaniem zawierającym komponent Sztucznej Inteligencji.  

Z kolei zasady dla „wdrażających” systemy wykorzystujące Sztuczną Inteligencję są mniej restrykcyjne i ograniczają się (w uogólnieniu) do zagwarantowania, że systemy AI będą stosowane zgodnie z ich przeznaczeniem. 

  1. Systemy wysokiego ryzyka podczas użytkowania muszą podlegać nadzorowi człowieka. 

Na twórcach i dostawcach systemów AI wysokiego ryzyka spoczywa obowiązek takiego zaprojektowania produktu, by umożliwić wdrażającym wprowadzenie nadzoru człowieka. Nadzór człowieka ma zapobiegać ryzyku dla zdrowia i bezpieczeństwa lub minimalizować je poprzez interwencję osób fizycznych podczas korzystania z systemu wykorzystującego Sztuczną Inteligencję. Oznacza to, że ogólnie rzecz biorąc, systemy AI należy udostępniać użytkownikom w taki sposób, aby osoby fizyczne były w stanie zrozumieć ograniczenia urządzenia i prawidłowo zinterpretować jego dane wyjściowe. 

Dalszy ciąg materiału pod wideo
  1. Dostawcy systemów AI generujących wysokie ryzyko zmierzą się z dodatkowymi wymogami. 

Największą część AI Act poświęcono na opisanie zagadnień związanych z systemami wysokiego ryzyka. W artykułach od 8 do 29 ustawy scharakteryzowane zostały wymogi dotyczące dostarczania, wdrażania i stosowania tego typu systemów. Odnoszą się one m. in. do: 

  • wprowadzenia i stosowania systemu zarządzania ryzykiem w całym cyklu życia produktu wykorzystującego AI; 
  • zarządzania danymi w taki sposób aby zapewnić, że zbiory danych szkoleniowych, walidacyjnych i testowych są odpowiednie, wystarczająco reprezentatywne oraz, w miarę możliwości, wolne od błędów i kompletne zgodnie z zamierzonym celem; 
  • sporządzenia dokumentacji technicznej w celu wykazania zgodności (compliance) i umożliwienia oceny tej zgodności, co jest szczególnie istotne dla firm z sektora biomedycznego; 
  • przygotowania szczegółowych instrukcji obsługi dla podmiotów wdrażających produkty wykorzystujące AI; 
  • kwestii cyberbezpieczeństwa; 
  • wprowadzenia systemu zarządzania jakością. 

Należy mieć świadomość, że chociaż procesy niezbędne do spełnienia wymagań wynikających z AI Act można zintegrować z równoważnymi procesami wymaganymi na mocy rozporządzeń MDR/IVDR, treść samych wymagań jest inna i obliguje do posiadania odrębnego zestawu wiedzy i know-how. 

  1. Na obecnym etapie prac nad AI Act nadal istnieje ryzyko wprowadzenia sprzecznych definicji i powielających się wymagań, w kontekście już obowiązujących ustaw dla sektora biomedycznego. 

REKLAMA

Celem jest aby AI Act był spójny z pozostałymi, obowiązującymi regulacjami, takimi jak np. MDR i IVDR. Zgodnie z aktualnym tekstem prawnym stosowanie rozporządzeń powinno mieć charakter równoczesny i komplementarny, a ustawa o Sztucznej Inteligencji może w pewnych obszarach rozszerzyć zakres wymagań obowiązujących na mocy MDR i IVDR. Warto podkreślić, że twórcy AI Act opowiadają się za pojedynczą oceną zgodności i jedną zintegrowaną dokumentacją techniczną, co ma kluczowe znaczenie dla ułatwienia prac nad innowacjami w zakresie AI w sektorze biomedycznym. 

Jednakże nadal można znaleźć w dokumentacji pewne niedoskonałości. Na przykład terminy w AI Act dotyczące „dostawcy” i „producenta” różnią się od definicji znanych z MDR. Ponadto, ustawa o Sztucznej Inteligencji wymaga wykorzystywania danych demograficznych (np. danych pacjentów) do szkolenia i walidacji opracowywanych systemów, bez uwzględnienia wymogów RODO odnoszących się do prywatności i przejrzystości danych dotyczących opieki zdrowotnej. Innym aspektem, wymagającym doprecyzowania jest zakres szkolenia i walidacji systemów AI. Biorąc pod uwagę ogromne zbiory danych potrzebne do odpowiedniego szkolenia i walidacji wyrobu opartego na Sztucznej Inteligencji, w świetle AI Act trudno jest stwierdzić, kiedy szkolenie zostanie „ukończone”. Ten aspekt może mieć większy wpływ na technologie biomedyczne niż na inne branże, ze względu na wrażliwy charakter danych potrzebnych do szkolenia i walidacji technologii medycznej opartej na Sztucznej Inteligencji. 

Podmioty sektora biomedycznego powinny jasno wyrażać oczekiwanie, że przyszłe wytyczne Komisji Europejskiej wyjaśnią pojawiające się niedoskonałości. 

Kiedy AI Act wejdzie w życie?  

Co dalej z AI Act? Na kwiecień 2024 roku zaplanowano przyjęcie ustawy przez Parlament Europejski. Następnie zostanie on zatwierdzony przez Radę UE i wejdzie w życie 20 dni po opublikowaniu w Dzienniku Urzędowym UE. Od tego momentu w terminie 6 miesięcy zaczną obowiązywać przepisy odnoszące się do systemów nieakceptowalnego ryzyka, czyli zakazy dotyczące niedozwolonych praktyk. Z kolei pozostałe przepisy mają zostać wprowadzone w terminie 2 lat.  

Dla sektora biomedycznego kluczowy może okazać się fakt, że ze względu na wymóg przejścia oceny zgodności (na podstawie odrębnych przepisów UE), objęcie opracowywanych systemów wysokiego ryzyka przepisami AI Act zostanie opóźnione o dodatkowy rok. W tym czasie będziemy bacznie przyglądać się zapowiadanym przez Komisję Europejską aktom prawa wtórnego oraz poczynaniom Biura ds. Sztucznej Inteligencji, pełniącego funkcję organu nadzorczego. 

Treść AI Act: https://artificialintelligenceact.eu/the-act/  

 

Zapisz się na newsletter
Zakładasz firmę? A może ją rozwijasz? Chcesz jak najbardziej efektywnie prowadzić swój biznes? Z naszym newsletterem będziesz zawsze na bieżąco.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: Źródło zewnętrzne

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Moja firma
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Reputacja przedsiębiorcy to jedno z kluczowych aktywów firmy. Tak uważa coraz więcej właścicieli firm w Polsce

Firmy w Polsce coraz częściej traktują reputację jako kapitał, który warto chronić, nawet kosztem wyników finansowych. To po części efekt walki stereotypu przedsiębiorcy, który chce osiągać zyski za wszelką cenę. Jest on wciąż głęboko zakorzeniony w świadomości społecznej.

Sztuczna inteligencja. McKinsey: Tylko 1 proc. menedżerów określa wdrożenia AI w swoich organizacjach jako dojrzałe

Choć zastosowanie gen-AI w 2024 r. znacząco wzrosło, a 78 proc. respondentów deklarowało w ub.r. użycie co najmniej jednej funkcji biznesowej tego rozwiązania w porównaniu do 55 proc. rok wcześniej, to jedynie 1 proc. menedżerów określa wdrożenie AI w ich w organizacjach jako dojrzałe.

Obligacje korporacyjne: wciąż wysoki popyt u inwestorów

W pierwszym kwartale tego roku emitenci przeprowadzili cztery publiczne emisje obligacji korporacyjnych o wartości 286,5 mln zł. Popyt inwestorów ponownie przekroczył wartość emisji i wyniósł 747 mln zł, a średni poziom redukcji dla emisji sięgnął 44 proc.

Przedsiębiorcy na całym świecie już nie patrzą w przyszłość optymistycznie

Spada poziom optymizmu przedsiębiorców na świecie. Powodem niepewność i nieprzewidywalność w globalnym handlu i wysokie stopy procentowe, tak wynika z przeprowadzonego przez Dun & Bradstreet badania na próbie ponad 10 tys. przedsiębiorców.

REKLAMA

Wystawianie faktur przez freelancerów w 2025 r. Zasady, narzędzia, terminy, opłaty, najczęstsze błędy przy wystawianiu faktur

Praca freelancera daje dużą swobodę – pozwala samodzielnie zarządzać czasem, projektami i klientami. Z tą niezależnością wiąże się jednak także odpowiedzialność za kwestie formalne, takie jak wystawianie faktur. Kto może wystawiać faktury jako freelancer? Co powinno znaleźć się na fakturze? Jakie są najczęstsze błędy?

Susza rolnicza może w tym roku być wcześniej

Instytut Meteorologii i Gospodarki Wodnej prognozuje, że susza rolnicza może w tym roku rozwinąć się wcześniej. W raporcie podał także, ze prognozy dotyczące opadów są optymistyczne.

Jak założyć spółkę z o.o. z aktem notarialnym?

Umowa spółki z o.o. w formie aktu notarialnego jest konieczna, gdy wspólnicy zamierzają wprowadzić do umowy postanowienia, których dodanie nie jest możliwe w przypadku spółki z o.o. zakładanej przez S24. Dotyczy to m.in. sytuacji, w których wspólnicy zamierzają wnieść wkłady niepieniężne, wprowadzić obowiązek powtarzających się świadczeń niepieniężnych, zmienić zasady głosowania w spółce, uprzywilejować udziały co do głosu, czy do dywidendy.

W jaki sposób hakerzy wykorzystują e-maile do ataków? Mają swoje sposoby

Najpopularniejszą formą cyberataku jest obecnie phishing. Fałszywe wiadomości są coraz trudniejsze do wykrycia, bo cyberprzestępcy doskonale się wyspecjalizowali. Jak rozpoznać niebzepieczną wiadomość? Jak chronić swoją firmę przed cyberatakami?

REKLAMA

Co nowego dla firm biotechnologicznych w Polsce? [WYWIAD]

Na co powinny przygotować się firmy z branży biotechnologicznej? O aktualnych problemach i wyzwaniach związanych z finansowaniem tego sektora mówi Łukasz Kościjańczuk, partner w zespole Biznes i innowacje w CRIDO, prelegent CEBioForum 2025.

Coraz trudniej rozpoznać fałszywe opinie w internecie

40 proc. Polaków napotyka w internecie na fałszywe opinie, wynika z najnowszego badania Trustmate.io. Pomimo, że UOKiK nakłada kary na firmy kupujące fałszywe opinie to proceder kwietnie. W dodatku 25 proc. badanych ma trudności z rozróżnieniem prawdziwych recenzji.

REKLAMA