REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

AI Act zatwierdzony. Kiedy wejdzie w życie? 5 wniosków, które są szczególnie ważne dla firm z sektora biomedycznego

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
https://artificialintelligenceact.eu/the-act/
https://artificialintelligenceact.eu/the-act/
ShutterStock

REKLAMA

REKLAMA

Znamy już finalny, zaakceptowany przez państwa członkowskie draft AI Act – unijnej ustawy o Sztucznej Inteligencji. Jaki wpływ wywrze ona na działalność firm z sektora biomedycznego? Prezentujemy 5 najważniejszych wniosków. 

AI Act - nowe prawo UE dot. sztucznej inteligencji

 – Mając w pamięci brak regulacji prawnych w obszarze social media, gdy zaczynały one szturmem podbijać europejski rynek, Unia Europejska nie chce drugi raz popełnić tego samego błędu. Obserwując dynamiczny wzrost znaczenia AI w gospodarce, od ponad dwóch lat trwały prace nad przygotowaniem pierwszych, ramowych regulacji w tym zakresie. Luty 2024 roku przyniósł kolejne ważne rozstrzygnięcia: najpierw wszystkie państwa członkowskie jednogłośnie przyjęły AI Act, następnie został on zatwierdzony przez dwie komisje Parlamentu Europejskiego: Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych – komentuje Paweł Sieczkowski, Prezes Zarządu Frontline Biosciences S.A. 

Jakie wnioski z tych wydarzeń powinny wyciągnąć firmy z sektora biomedycznego? 

REKLAMA

REKLAMA

Na wstępie należy podkreślić, że utrzymane zostało najważniejsze założenie AI Act, tzn. klasyfikacja systemów wykorzystujących Sztuczną Inteligencję na podstawie poziomu generowanego ryzyka

  • nieakceptowalne ryzyko - np. systemy scoringu społecznego, manipulacyjna sztuczna inteligencja, automatyczna identyfikacja biometryczna;
  • wysokie ryzyko – np. systemy związane z ochroną zdrowia, ale także bezpieczeństwem, aspektami prawnymi czy ochroną środowiska naturalnego; 
  • ograniczone ryzyko – np. chatboty i deepfakes; 
  • minimalne lub zerowe ryzyko – np. gry wideo wykorzystujące sztuczną inteligencję , filtry spamu. 
Ważne

Większość obowiązków wynikających z AI Act spoczywa na dostawcach (programistach) systemów AI wysokiego ryzyka. 

Najważniejsze wnioski z AI Act dla firm z sektora biomedycznego 

  1. Systemy wykorzystujące AI związane z ochroną zdrowia generują wysokie ryzyko. 

Oznacza to, że praktycznie wszystkie produkty oraz procesy, wykorzystujące Sztuczną Inteligencję, komercjalizowane przez spółki biomedyczne, zaliczone zostaną do kategorii generującej wysokie ryzyko. Należy mieć tego świadomość i już teraz przygotować się na konieczność spełnienia dodatkowych wymagań wynikających z AI Act. Wyjątek stanowią tutaj systemy wykorzystywane wyłącznie na potrzeby badań naukowych i prac B+R. Zostały one wyłączone z zakresu ustawy o Sztucznej Inteligencji. 

  1. Odpowiedzialność spoczywa przede wszystkim na dostawcach systemów. 

Firmy z branży biomedycznej będą musiały spełnić wymogi AI Act przede wszystkim gdy występują w roli „dostawców” (producentów lub programistów) systemów Sztucznej Inteligencji. To dostawcy będą odpowiedzialni za tworzony system i jego zgodność z regulacjami, zarówno w zakresie AI Act, jak i pozostałymi jak np. MRD czy IVDR. Warto mieć ten aspekt na uwadze już w trakcie realizacji prac B+R nad rozwiązaniem zawierającym komponent Sztucznej Inteligencji.  

Z kolei zasady dla „wdrażających” systemy wykorzystujące Sztuczną Inteligencję są mniej restrykcyjne i ograniczają się (w uogólnieniu) do zagwarantowania, że systemy AI będą stosowane zgodnie z ich przeznaczeniem. 

REKLAMA

  1. Systemy wysokiego ryzyka podczas użytkowania muszą podlegać nadzorowi człowieka. 

Na twórcach i dostawcach systemów AI wysokiego ryzyka spoczywa obowiązek takiego zaprojektowania produktu, by umożliwić wdrażającym wprowadzenie nadzoru człowieka. Nadzór człowieka ma zapobiegać ryzyku dla zdrowia i bezpieczeństwa lub minimalizować je poprzez interwencję osób fizycznych podczas korzystania z systemu wykorzystującego Sztuczną Inteligencję. Oznacza to, że ogólnie rzecz biorąc, systemy AI należy udostępniać użytkownikom w taki sposób, aby osoby fizyczne były w stanie zrozumieć ograniczenia urządzenia i prawidłowo zinterpretować jego dane wyjściowe. 

Dalszy ciąg materiału pod wideo
  1. Dostawcy systemów AI generujących wysokie ryzyko zmierzą się z dodatkowymi wymogami. 

Największą część AI Act poświęcono na opisanie zagadnień związanych z systemami wysokiego ryzyka. W artykułach od 8 do 29 ustawy scharakteryzowane zostały wymogi dotyczące dostarczania, wdrażania i stosowania tego typu systemów. Odnoszą się one m. in. do: 

  • wprowadzenia i stosowania systemu zarządzania ryzykiem w całym cyklu życia produktu wykorzystującego AI; 
  • zarządzania danymi w taki sposób aby zapewnić, że zbiory danych szkoleniowych, walidacyjnych i testowych są odpowiednie, wystarczająco reprezentatywne oraz, w miarę możliwości, wolne od błędów i kompletne zgodnie z zamierzonym celem; 
  • sporządzenia dokumentacji technicznej w celu wykazania zgodności (compliance) i umożliwienia oceny tej zgodności, co jest szczególnie istotne dla firm z sektora biomedycznego; 
  • przygotowania szczegółowych instrukcji obsługi dla podmiotów wdrażających produkty wykorzystujące AI; 
  • kwestii cyberbezpieczeństwa; 
  • wprowadzenia systemu zarządzania jakością. 

Należy mieć świadomość, że chociaż procesy niezbędne do spełnienia wymagań wynikających z AI Act można zintegrować z równoważnymi procesami wymaganymi na mocy rozporządzeń MDR/IVDR, treść samych wymagań jest inna i obliguje do posiadania odrębnego zestawu wiedzy i know-how. 

  1. Na obecnym etapie prac nad AI Act nadal istnieje ryzyko wprowadzenia sprzecznych definicji i powielających się wymagań, w kontekście już obowiązujących ustaw dla sektora biomedycznego. 

Celem jest aby AI Act był spójny z pozostałymi, obowiązującymi regulacjami, takimi jak np. MDR i IVDR. Zgodnie z aktualnym tekstem prawnym stosowanie rozporządzeń powinno mieć charakter równoczesny i komplementarny, a ustawa o Sztucznej Inteligencji może w pewnych obszarach rozszerzyć zakres wymagań obowiązujących na mocy MDR i IVDR. Warto podkreślić, że twórcy AI Act opowiadają się za pojedynczą oceną zgodności i jedną zintegrowaną dokumentacją techniczną, co ma kluczowe znaczenie dla ułatwienia prac nad innowacjami w zakresie AI w sektorze biomedycznym. 

Jednakże nadal można znaleźć w dokumentacji pewne niedoskonałości. Na przykład terminy w AI Act dotyczące „dostawcy” i „producenta” różnią się od definicji znanych z MDR. Ponadto, ustawa o Sztucznej Inteligencji wymaga wykorzystywania danych demograficznych (np. danych pacjentów) do szkolenia i walidacji opracowywanych systemów, bez uwzględnienia wymogów RODO odnoszących się do prywatności i przejrzystości danych dotyczących opieki zdrowotnej. Innym aspektem, wymagającym doprecyzowania jest zakres szkolenia i walidacji systemów AI. Biorąc pod uwagę ogromne zbiory danych potrzebne do odpowiedniego szkolenia i walidacji wyrobu opartego na Sztucznej Inteligencji, w świetle AI Act trudno jest stwierdzić, kiedy szkolenie zostanie „ukończone”. Ten aspekt może mieć większy wpływ na technologie biomedyczne niż na inne branże, ze względu na wrażliwy charakter danych potrzebnych do szkolenia i walidacji technologii medycznej opartej na Sztucznej Inteligencji. 

Podmioty sektora biomedycznego powinny jasno wyrażać oczekiwanie, że przyszłe wytyczne Komisji Europejskiej wyjaśnią pojawiające się niedoskonałości. 

Kiedy AI Act wejdzie w życie?  

Co dalej z AI Act? Na kwiecień 2024 roku zaplanowano przyjęcie ustawy przez Parlament Europejski. Następnie zostanie on zatwierdzony przez Radę UE i wejdzie w życie 20 dni po opublikowaniu w Dzienniku Urzędowym UE. Od tego momentu w terminie 6 miesięcy zaczną obowiązywać przepisy odnoszące się do systemów nieakceptowalnego ryzyka, czyli zakazy dotyczące niedozwolonych praktyk. Z kolei pozostałe przepisy mają zostać wprowadzone w terminie 2 lat.  

Dla sektora biomedycznego kluczowy może okazać się fakt, że ze względu na wymóg przejścia oceny zgodności (na podstawie odrębnych przepisów UE), objęcie opracowywanych systemów wysokiego ryzyka przepisami AI Act zostanie opóźnione o dodatkowy rok. W tym czasie będziemy bacznie przyglądać się zapowiadanym przez Komisję Europejską aktom prawa wtórnego oraz poczynaniom Biura ds. Sztucznej Inteligencji, pełniącego funkcję organu nadzorczego. 

Treść AI Act: https://artificialintelligenceact.eu/the-act/  

 

Zapisz się na newsletter
Zakładasz firmę? A może ją rozwijasz? Chcesz jak najbardziej efektywnie prowadzić swój biznes? Z naszym newsletterem będziesz zawsze na bieżąco.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: Źródło zewnętrzne

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Moja firma
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Bezpłatny ebook: Wydanie specjalne personel & zarządzanie - kiedy życie boli...

10 października obchodzimy Światowy Dzień Zdrowia Psychicznego – to dobry moment, by przypomnieć, że dobrostan psychiczny pracowników nie jest już tematem pobocznym, lecz jednym z kluczowych filarów strategii odpowiedzialnego przywództwa i zrównoważonego rozwoju organizacji.

ESG w MŚP. Czy wyzwania przewyższają korzyści?

Około 60% przedsiębiorców z sektora MŚP zna pojęcie ESG, wynika z badania Instytutu Keralla Research dla VanityStyle. Jednak 90% z nich dostrzega poważne bariery we wdrażaniu zasad zrównoważonego rozwoju. Eksperci wskazują, że choć korzyści ESG są postrzegane jako atrakcyjne, są na razie zbyt niewyraźne, by zachęcić większą liczbę firm do działania.

Zarząd sukcesyjny: Klucz do przetrwania firm rodzinnych w Polsce

W Polsce funkcjonuje ponad 800 tysięcy firm rodzinnych, które stanowią kręgosłup krajowej gospodarki. Jednakże zaledwie 30% z nich przetrwa przejście do drugiego pokolenia, a tylko 12% dotrwa do trzeciego. Te alarmujące statystyki nie wynikają z braku rentowności czy problemów rynkowych – największym zagrożeniem dla ciągłości działania przedsiębiorstw rodzinnych jest brak odpowiedniego planowania sukcesji. Wprowadzony w 2018 roku instytut zarządu sukcesyjnego stanowi odpowiedź na te wyzwania, oferując prawne narzędzie umożliwiające sprawne przekazanie firmy następnemu pokoleniu.

Ukryte zasoby rynku pracy. Dlaczego warto korzystać z ich potencjału?

Chociaż dla rynku pracy pozostają niewidoczni, to tkwi w nich znaczny potencjał. Kto pozostaje w cieniu? Dlaczego firmy nie sięgają po tzw. niewidzialnych pracowników?

REKLAMA

Firmy będą zdecydowanie zwiększać zatrudnienie na koniec roku. Jest duża szansa na podniesienie obrotu

Dlaczego firmy planują zdecydowanie zwiększać zatrudnienie na koniec 2025 roku? Chodzi o gorący okres zakończenia roku - od Halloween, przez Black Friday i Mikołajki, aż po kulminację w postaci Świąt Bożego Narodzenia. Najwięcej pracowników będą zatrudniały firmy branży produkcyjnej. Ratunkiem dla nich są pracownicy tymczasowi. To duża szansa na zwiększenie obrotu.

Monitoring wizyjny w firmach w Polsce – prawo a praktyka

Monitoring wizyjny, zwany również CCTV (Closed-Circuit Television), to system kamer rejestrujących obraz w określonym miejscu. W Polsce jest powszechnie stosowany przez przedsiębiorców, instytucje publiczne oraz osoby prywatne w celu zwiększenia bezpieczeństwa i ochrony mienia. Na kanwie głośnych decyzji Prezesa Urzędu Ochrony Danych Osobowych przyjrzyjmy się przepisom prawa, które regulują przedmiotową materię.

Akcyzą w cydr. Polscy producenci rozczarowani

Jak wiadomo, Polska jabłkiem stoi. Ale zamiast wykorzystywać własny surowiec i budować rynek, oddajemy pole zagranicznym koncernom – z goryczą mówią polscy producenci cydru. Ku zaskoczeniu branży, te niskoalkoholowe napoje produkowane z polskich jabłek, trafiły na listę produktów objętych podwyżką akcyzy zapowiedzianą niedawno przez rząd. Dotychczasowa akcyzowa mapa drogowa została zatem nie tyle urealniona, jak określa to Ministerstwo Finansów, ale też rozszerzona, bo cydry i perry były z niej dotąd wyłączne. A to oznacza duże ryzyko zahamowania rozwoju tej i tak bardzo małej, bo traktowanej po macoszemu, kategorii.

Ustawa o kredycie konsumenckim z perspektywy banków – wybrane zagadnienia

Ustawa o kredycie konsumenckim wprowadza istotne wyzwania dla banków, które muszą dostosować procesy kredytowe, marketingowe i ubezpieczeniowe do nowych wymogów. Z jednej strony zmiany zwiększają ochronę konsumentów i przejrzystość rynku, z drugiej jednak skutkują większymi kosztami operacyjnymi, koniecznością zatrudnienia dodatkowego personelu, wydłużeniem procesów decyzyjnych oraz zwiększeniem ryzyka prawnego.

REKLAMA

Coraz więcej firm ma rezerwę finansową, choć zazwyczaj wystarczy ona na krótkotrwałe problemy

Więcej firm niż jeszcze dwa lata temu jest przygotowanych na wypadek nieprzewidzianych sytuacji, czyli ma tzw. poduszkę finansową. Jednak oszczędności nie starczy na długo. 1 na 3 firmy wskazuje, że dysponuje rezerwą na pół roku działalności, kolejne 29 proc. ma zabezpieczenie na 2–3 miesiące.

Na koniec roku małe i średnie firmy oceniają swoją sytuację najlepiej od czterech lat. Jednak niewiele jest skłonnych ryzykować z inwestycjami

Koniec roku przynosi poprawę nastrojów w małych i średnich firmach. Najlepiej swoją sytuację oceniają mikrofirmy - najlepiej od czterech lat. Jednak ten optymizm nie przekłada się na chęć ryzykowania z inwestycjami.

REKLAMA