Sample project
01
Scope Of Work

Czym jest EU AI Act?

Wprowadzenie

Jeszcze niedawno programista martwił się tylko o code review i testy, a dziś na jego liście zadań pojawia się nowy punkt: zgodność z prawem. EU AI Act czyli unijne regulacje dotyczące sztucznej inteligencji wprowadza branżę AI i codzienną pracę jej twórców w zupełnie nową erę. To nie koniec eksperymentowania z algorytmami, ale początek ery, w której regulacje są tak samo ważne jak pull requesty.

Kontekst prawny: Czym jest EU AI Act?

EU AI Act (znany też jako Akt o Sztucznej Inteligencji) to nowe AI prawo UE 2025, które wprowadza jednolite zasady dla rozwoju i użycia systemów AI na terenie Unii Europejskiej. Ustawa została zatwierdzona w 2024 roku, a pierwsze przepisy wejdą w życie już w 2025 roku (pełne wdrożenie planowane do 2026-2027) . Sednem AI Act jest podejście oparte na ocenie ryzyka. Ustawa klasyfikuje systemy AI w cztery kategorie:

  • Zabronione – np. systemy masowej inwigilacji czy social scoring (całkowicie zakazane).
  • Wysokie ryzyko – AI w sektorach krytycznych (medycyna, transport, edukacja, rekrutacja, finanse) gdzie błędne działanie może poważnie naruszyć zdrowie lub prawa ludzi.
  • Ograniczone ryzyko – np. chatboty i generatory treści; wymóg przejrzystości (użytkownik musi wiedzieć, że rozmawia z AI).
  • Minimalne ryzyko – pozostałe zwykłe zastosowania (gry, filtry spam). Brak dodatkowych wymogów poza ogólnym prawem.

Kluczowe jest to, że AI Act dotyczy wszystkich dostawców i użytkowników systemów AI na rynku UE. Jeśli Twój model AI trafia do europejskich użytkowników, musisz określić jego kategorię ryzyka i spełnić odpowiednie wymagania.

Czy Twój projekt podlega EU AI Act?

Nie masz pewności, czy nowe regulacje dotyczą Twojego projektu AI? Oto krótka checklista. Jeśli o d p o w i e s z   t w i e r d z ą c o   n a   k t ó r e k o l w i e k   z   t y c h   p y t a ń, E U A I Act dladeveloperów najprawdopodobniej będzie miał zastosowanie do Twojej pracy:

  • Czy Twój system AI działa w sektorze wrażliwym społecznie lub regulowanym (np.zdrowie, prawo, edukacja, finanse, rekrutacja)?
  • Czy błędne działanie Twojego modelu może poważnie zaszkodzić zdrowiu, bezpieczeństwu lub prawom jednostki?
  • Czy Twój model automatycznie decyduje o sprawach ludzi (np. przyznanie kredytu, zatrudnienie, ocena pracownika) bez możliwości łatwej interwencji człowieka?

Jeśli choć jedno „Tak” pasuje do Twojego projektu, czas zagłębić się w wymagania AI Act – prawdopodobnie masz do czynienia z systemem przynajmniej ograniczonego albo wysokiego ryzyka. A to oznacza dodatkowe obowiązki.

Jakie nowe obowiązki czekają programistów AI?

Skoro już wiesz, że Twój projekt podpada pod EU AI Act (albo że może podpadać w najbliższej przyszłości), pora na sedno: co to oznacza dla codziennej pracy developera? Nowe obowiązki programistów AI można śmiało porównać do dołożenia nowego modułu do ich tech stacku, nazwijmy go „AI compliance”. Oto główne elementy tego modułu:

  • Zarządzanie ryzykiem i danymi – developer musi identyfikować ryzyka działania modelu i dbać o jakość danych. W praktyce: oceniać potencjalne szkody społeczne, zmniejszać bias w danych treningowych i zapewniać możliwość wyjaśnienia decyzji AI.
  • Dokumentacja i logi – należy prowadzić obszerną dokumentację techniczną każdego modelu wysokiego ryzyka oraz automatycznie rejestrować jego kluczowe zdarzenia (logi) w trakcie działania . Takie informacje i zapisy pozwolą łatwo wykazać zgodność systemu podczas audytu.
  • Nadzór człowieka (human oversight) – w projektowaniu systemów wysokiego ryzyka trzeba uwzględnić „klucz czerwony”, czyli mechanizmy pozwalające człowiekowi interweniować. Developer może musieć zaimplementować swoisty “hamulec bezpieczeństwa”: gdy model działa niewłaściwie lub przekracza ustalony próg ryzyka, system powinien oddać kontrolę człowiekowi.
  • Testy i audytowanie modeli AI – przygotuj się, że Twój model będzie musiał przejść nie tylko testy jednostkowe i integracyjne, ale też audyt zgodności. Firmy mogą zlecać wewnętrzne przeglądy algorytmów pod kątem biasów, bezpieczeństwa i zgodności z przepisami (AI audit), a w przypadku systemów wysokiego ryzyka przed wprowadzeniem na rynek konieczna będzie formalna ocena zgodności (coś jak certyfikacja). Dla programisty to ścisła współpraca z audytorami i działem compliance, a czasem konieczność wprowadzenia poprawek po takim audycie.

Nie da się ukryć, że to sporo dodatkowej pracy. Z drugiej strony, wiele z tych wymogów to po prostu dobre praktyki inżynieryjne (np. dokumentowanie modeli czy testowanie pod kątem biasów) – teraz staną się one obowiązkowe. Ignorowanie ich będzie grozić karami (np. brak dokumentacji może kosztować firmę do 10 mln euro ). To jasny sygnał dla programistów: czas rozwinąć kompetencje w obszarze AI compliance.

Jak reagują firmy: od paniki do planu działania

Wielu CTO początkowo bało się, że AI Act to widmo biurokracji hamującej innowacje. Coraz więcej firm zamiast panikować działa strategicznie: wplata wymagania ustawy w swoje procesy. Oto kluczowe trendy:

  • Tworzenie nowych ról (AI Compliance Engineer) – na rynku pracy pojawiają się ogłoszenia o pracę, o których dwa lata temu nikt nie słyszał. AI Compliance Engineer, AI Ethics Officer, Specjalista ds. AI Governance – te tytuły powoli stają się rzeczywistością. Ich wspólny mianownik to łączenie kompetencji technicznych z dogłębną znajomością regulacji. Firmy potrzebują ludzi, którzy pomogą projektom AI przejść przez te wymagania. Na takich specjalistów czekają też premie – już teraz mówi się o pensjach 20% wyższych od typowych, a na Zachodzie te role wyceniane są nawet na 200 tys. dolarów rocznie .
  • Dokształcanie obecnych zespołów – nie każde przedsiębiorstwo od razu zatrudnia nowego specjalistę. Często pierwszy krok to szkolenia dla istniejących developerów i managerów z zakresu AI Act regulacje, etyki AI i zarządzania ryzykiem. Programiści uczą się nowego „słowniczka” (np. czym jest ocena ryzyka algorytmu, co musi zawierać dokumentacja itp.), a firmy inwestują w kursy i warsztaty. Pojawiają się narzędzia ułatwiające życie, np. checklisty zgodności czy gotowe szablony dokumentacji.
  • Zmiany w procesie developmentu – Agile agilem, ale przy projektach AI dochodzą nowe etapy – np. przegląd etyczny przed wdrożeniem albo dodatkowa faza testów i oceny zgodności. W firmach pojawiają się np. wewnętrzne komitety ds. AI oceniające nowe pomysły pod kątem zgodności z prawem i możliwych ryzyk. Dokumentacja przestaje być tylko obowiązkiem – firmy tworzą centralne repozytoria wiedzy o modelach, łączące informacje techniczne i prawne (ułatwia to przyszłe audyty).

Co istotne, przewidujący liderzy traktują dostosowanie się do AI Act nie jako koszt, ale inwestycję. Reputacja firmy odpowiedzialnej za AI może zbudować zaufanie klientów i przewagę konkurencyjną. Zamiast narzekać, wolą być pierwsi na mecie wyścigu po zgodną z prawem AI.

Najczęściej zadawane pytania (FAQ)

Jakie obowiązki dokumentacyjne narzuca EU AI Act?

Dla systemów AI zaklasyfikowanych jako wysokiego ryzyka AI Act narzuca obowiązek prowadzenia obszernej dokumentacji technicznej. Obejmuje ona m.in. opis celu i funkcjonalności systemu, zastosowane algorytmy i modele, wykorzystane dane treningowe (wraz z informacją o ich pochodzeniu i jakości), wyniki testów (dokładność, błędy, testy na stronniczość), wdrożone mechanizmy nadzoru człowieka, zabezpieczenia. Dokumentacja musi być na bieżąco aktualizowana i może być wymagana do przedstawienia organom nadzorczym.

Jakie są sankcje za nieprzestrzeganie AI Act?

Najcięższe naruszenia (zakazane praktyki) zagrożone są karą do 30 mln euro lub 6% światowego obrotu firmy. Naruszenie wymogów dla systemów wysokiego ryzyka – do 20 mln euro lub 4% obrotu. Nawet brak wymaganej dokumentacji może kosztować do 10 mln euro lub 2% obrotu . Krótko mówiąc: regulator może zaboleć, więc lepiej podejść do sprawy poważnie.

Czy potrzebujemy nowych specjalistów do spraw AI Act, czy obecni developerzy sobie poradzą?

To zależy od skali waszych działań w obszarze AI. Większe organizacje już teraz inwestują w zatrudnianie specjalistów AI znających się na regulacjach – poprzez rekrutację nowych specjalistów (np. AI Compliance Engineer czy prawnika od AI) lub przeszkolenie obecnej kadry. W mniejszych zespołach możliwe, że obecni programiści i product managerowie rozdzielą między siebie nowe zadania. Ważne, by ktoś trzymał rękę na pulsie przepisów i koordynował te działania.

Podsumowanie

EU AI Act zmienia krajobraz branży technologicznej, wprowadzając nowy rozdział: od teraz liczy się nie tylko co Twój algorytm potrafi, ale czy robi to w sposób odpowiedzialny i zgodny z prawem. Dla developerów oznacza to ewolucję roli – stają się oni nie tylko twórcami kodu, ale też stróżami zasad, które ten kod wciela w życie. Może brzmieć to onieśmielająco, ale w gruncie rzeczy stanowi też szansę: na tworzenie lepszych, bardziej dopracowanych i godnych zaufania rozwiązań AI.

Można na to spojrzeć jak na kolejny framework do opanowania – AI compliance stanie się po prostu elementem procesu wytwarzania oprogramowania. Z czasem przejście od przepisów do pull requestów stanie się naturalne, a my stworzymy bardziej godne zaufania oprogramowanie AI.

Źródła wykorzystane w artykule

  1. European Commission – “AI Act: Regulatory framework for artificial intelligence”. Aktualny harmonogram wejścia w życie (1 VIII 2024, 2 II 2025, 2 VIII 2025, 2 VIII 2027). https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  2. artificialintelligenceact.eu – “Implementation Timeline”. Szczegółowa oś wdrażania obowiązków dla GPAI i systemów wysokiego ryzyka. https://artificialintelligenceact.eu/implementation-timeline/
  3. Data Protection Report (Norton Rose Fulbright) – “The EU AI Act – the countdown begins”. Zestawienie kar finansowych (do €35 mln / 7 % obrotu). https://www.dataprotectionreport.com/2024/07/the-eu-ai-act-the-countdown-begins/
  4. Holistic AI – “Penalties of the EU AI Act: The High Cost of Non-Compliance”. Analiza progów grzywien dla różnych naruszeń. https://www.holisticai.com/blog/penalties-of-theeu-ai-act
  5. EY Greece – “AI Act: Prohibited AI Practices Become Applicable”. Omówienie zakazów (m.in. predictive policing). https://www.ey.com/en_gr/technical/tax/tax-alerts/aiact-prohibited-ai-practices-become-applicable
  6. artificialintelligenceact.eu – “Article 5: Prohibited AI Practices”. Pełna lista praktyk niedozwolonych. https://artificialintelligenceact.eu/article/5/
  7. European Commission – FAQ “AI Literacy”. Wyjaśnienie obowiązku podnoszenia kompetencji pracowników (art. 4). https://digital-strategy.ec.europa.eu/en/faqs/ailiteracy-questions-answers
  8. Centre for Information Policy Leadership – “AI Act Article 4: AI Literacy – Best Practices and Recommendations” (white paper, V 2025). https://www.informationpolicycentre.com/uploads/5/7/1/0/57104281/cipl_ai_literacy_best_practices_may25.pdf
  9. ETH Zürich – Ogłoszenie o pracy “Research Engineer COMPL-AI”. Przykład nowej rol i AI Compliance Engineer. https://www.jobs.ethz.ch/job/view/JOPG_ethz_w9dRNXO2EwGmUhIVSM
  10. Reuters – “Tech lobby group urges EU leaders to pause AI Act” (25 VI 2025). Wzmianka o terminie 2 VIII 2025 dla GPAI. https://www.reuters.com/technology/tech-lobby-group-urges-eu-leaders-pause-ai-act-2025-06-25/

Najnowsze wpisy

Project thumbnail 01

Etyczne wyzwania sztucznej inteligencji w rekrutacji i biznesie

Project thumbnail 01

Dlaczego programiści odchodzą z pracy? 5 ukrytych powodów, o których nikt nie mówi

Project thumbnail 01

Jak stworzyć idealne CV programisty? 10 kluczowych wskazówek od ekspertów HR

Powiązane wpisy

Project thumbnail 01

Etyczne wyzwania sztucznej inteligencji w rekrutacji i biznesie

Project thumbnail 01

Dlaczego programiści odchodzą z pracy? 5 ukrytych powodów, o których nikt nie mówi

Project thumbnail 01

Jak stworzyć idealne CV programisty? 10 kluczowych wskazówek od ekspertów HR

Najnowsze oferty pracy

Project thumbnail 01

Site Reliability Engineer

Warsaw / Remote
Project thumbnail 01

Software Engineer UX/UI

Warsaw / Remote
Project thumbnail 01

IT Recruitment Consultant

Warsaw
Hello   Hallo   Namaste   やあ   Hola   Bonjour   Guten Tag   你好   Annyeong   haseyo   Zdrastwujtie
Head Illustration