Komisja Europejska publikuje kodeks dla dostawców sztucznej inteligencji – co to oznacza dla dokumentacji medycznej

/appFiles/site_125/images/autor/jwY01exmsd7rU5i.jpeg

Autor: Redakcja Portalu

Dodano: 2 sierpnia 2025
Komisja Europejska publikuje kodeks dla dostawców sztucznej inteligencji – co to oznacza dla dokumentacji medycznej

Od 2 sierpnia 2025 r. zaczęły obowiązywać przepisy unijnej ustawy o sztucznej inteligencji (AI Act). Nowe wymagania dotkną również podmiotów, które korzystają z zaawansowanych modeli AI w dokumentacji medycznej, m.in. przy analizie danych pacjentów, generowaniu treści medycznych, asystowaniu w diagnozowaniu czy tworzeniu streszczeń dokumentów.

Komisja Europejska publikuje kodeks dla dostawców sztucznej inteligencji – co to oznacza dla dokumentacji medycznej

Co istotne: już teraz opublikowano tzw. kodeks postępowania dla modeli ogólnego przeznaczenia (GPAI Code of Practice). To dobrowolny dokument, ale jego stosowanie może pomóc w uniknięciu problemów z wdrożeniem nowych obowiązków prawnych.

Co to oznacza w praktyce dla placówki medycznej

Wiele nowoczesnych systemów dokumentacji medycznej oferuje dziś funkcje wspierane przez sztuczną inteligencję. Na pierwszy rzut oka wszystko działa jak należy: szybciej powstają streszczenia wywiadów, szybciej opisujesz wyniki badań, szybciej tworzysz informacje dla pacjenta. Ale od 2 sierpnia 2025 r. to, co dziś jest wygodne, może – jeśli nie spełnia przepisów – narazić placówkę na problemy prawne.

Co musisz zrobić jako osoba odpowiedzialna za dokumentację? Jeśli w Twoim systemie działa jakiekolwiek narzędzie oparte na AI, musisz wiedzieć:

  • Jakie dane przetwarza to narzędzie? (czy np. ma dostęp do danych osobowych pacjenta)
  • Na jakiej podstawie prawnej zostało wytrenowane? (czy dostawca AI zadbał o prawa autorskie i zgodność z RODO)
  • Jakie ma ograniczenia? (czy może generować błędne, niezweryfikowane informacje, które trafią do dokumentacji)
  • Czy wynik działania AI trafia do EDM – czy tylko wspiera pracę personelu?

To nie są pytania teoretyczne. Od 2025 r. każdy model AI ogólnego przeznaczenia używany w systemie dokumentacji będzie musiał spełniać konkretne wymogi prawne, a od 2026/2027 – będzie to weryfikowane podczas kontroli.

Kodeks ma pomóc Ci w tym procesie jeszcze zanim zacznie się kontrola.

Na co zwrócić uwagę, jeśli korzystasz z AI w dokumentacji

Kodeks zawiera trzy obszary, które warto znać:

  1. Przejrzystość – dostawca narzędzia AI powinien przedstawić formularz, z którego jasno wynika, jak działa model, jakich danych użyto do jego trenowania i jakie może mieć ograniczenia.
  2. Prawa autorskie – model nie może być trenowany na treściach naruszających unijne prawo autorskie. Jeśli więc AI w Twoim systemie „uczy się” na podstawie materiałów medycznych, dokumentacji pacjentów czy szkoleń – musi mieć do tego podstawę prawną.
  3. Bezpieczeństwo – przy korzystaniu z zaawansowanych modeli (np. generujących teksty kliniczne), potrzebna będzie analiza ryzyka. Dotyczy to m.in. ochrony danych wrażliwych i ryzyka nieprawidłowych podpowiedzi modelu.

Kodeks to nie obowiązek, ale realna ochrona przed karami

Unijna ustawa o AI przewiduje, że dostawcy modeli ogólnego przeznaczenia będą musieli spełniać konkretne obowiązki prawne (np. dokumentować sposób działania modelu, uwzględniać ryzyko dla użytkowników, zapewniać zgodność z RODO i prawem autorskim). Kodeks postępowania to narzędzie, które pokazuje, jak to zrobić w praktyce – krok po kroku.

Jeśli dostawca systemu, z którego korzysta Twoja placówka (np. system EDM, narzędzie do rozpoznawania mowy, generowania treści medycznych lub streszczeń), wdroży zasady kodeksu i się pod nimi podpisze, wtedy:

Nie musisz samodzielnie opracowywać dodatkowych procedur i formularzy, by wykazać zgodność z AI Act. Wystarczy, że posłużysz się dokumentacją dostawcy – która będzie zgodna z unijnym wzorem z kodeksu.

Jeśli w systemie masz narzędzie AI generujące karty informacyjne, a dostawca dostarczy Ci gotową kartę modelu z opisem jego działania, ryzyk i ograniczeń – nie musisz tworzyć jej od zera na potrzeby ewentualnej kontroli.

Stosowanie kodeksu oznacza, że dostawca musiał przeanalizować kwestie praw autorskich, ochrony danych, przejrzystości algorytmu. Dla Ciebie to sygnał, że nie pracujesz na „czarnym pudełku”, które może nagle okazać się nielegalne.

W praktyce unikniesz sytuacji, w której model AI został „nauczony” na bazie danych bez wymaganej zgody albo narusza prawa pacjentów – a odpowiedzialność za to spada również na użytkownika.

Zasady kodeksu wymuszają, by dostawca AI jasno informował:

  • jakie dane model przetwarza,
  • na jakiej podstawie prawnej to robi,
  • co może, a czego nie powinien robić.

Dzięki temu łatwiej ustalisz, czy i w jakim zakresie możesz z niego korzystać w dokumentacji medycznej.

Jeśli model AI generuje dokumenty (np. streszczenia, opisy), masz obowiązek wiedzieć, czy wynik działania modelu można uznać za element dokumentacji medycznej, czy tylko za pomocnicze narzędzie. Z kodeksem będzie to jasno opisane.

Co możesz zrobić już teraz?

  1. Zapytaj dostawcę systemu dokumentacji medycznej, czy wdroży Kodeks AI.
  2. Sprawdź, czy używane przez Ciebie narzędzia AI będą objęte nowymi przepisami.
  3. Zabezpiecz dokumentację – każda interakcja AI z danymi pacjentów musi być zgodna z RODO i zasadami poufności.

Jeśli potrzebujesz wsparcia w ocenie ryzyka przy wdrażaniu AI w dokumentacji medycznej – obserwuj nasz portal. Przygotowujemy praktyczne instrukcje krok po kroku.

Przepisy będą egzekwowane od 2026 roku (dla nowych modeli) i od 2027 roku (dla już istniejących). Nie warto czekać na ostatnią chwilę.