Sztuczna inteligencja już nie tylko wspiera codzienną pracę, ale coraz częściej realnie wpływa na decyzje podejmowane w firmach – od działań marketingowych, przez rekrutację, aż po analizę ryzyka czy obsługę klientów. Wraz z jej dynamicznym rozwojem pojawił się nowy obowiązek organizacyjny wprowadzony przez AI Act – AI literacy.

Czym właściwie jest AI literacy?

AI literacy to nowy wymóg prawny, zgodnie z którym firmy i organizacje mają obowiązek wyposażania swoje zespoły, inne osoby korzystające z systemów AI w ich imieniu oraz osoby, na które te systemy mają wpływ w kompetencje w zakresie odpowiedzialnego korzystania z systemów opartych na AI.

AI literacy zostało wprowadzone w ramach tzw. AI Act, czyli ROZPORZĄDZENIEM PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (tzw. AI Act). Rozporządzenie weszło w życie w dniu 2 sierpnia 2024r., ale jego stosowanie zostało odroczone w czasie.  Przepisy uwzględniające m.in. AI literacy są stosowane już od 2 lutego 2025r. Kolejne przepisy wchodzą odpowiednio 2 sierpnia 2025 r. – w zakresie organów nadzoru i AI ogólnego przeznaczenia, 2 sierpnia 2026 r. – w pozostałym zakresie.

Wracając do definicji AI literacy.

Art. 4 AI Act stanowi, że: Dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być wykorzystywane.

Zgodnie z art. 3 pkt 56 AI Act kompetencje w zakresie AI oznaczają umiejętności, wiedzę oraz zrozumienie, które pozwalają dostawcom, podmiotom stosującym i osobom, na które AI ma wpływ – z uwzględnieniem ich odnośnych praw i obowiązków w kontekście niniejszego rozporządzenia – w przemyślany sposób wdrażać systemy sztucznej inteligencji oraz mieć świadomość, jakie możliwości i ryzyka wiążą się z AI oraz jakie potencjalne szkody może ona wyrządzić.

Kompetencje w zakresie AI zakładają więc m.in.:

  • znajomość możliwości i ograniczeń systemów AI,
  • świadomość związanych z nimi ryzyk i korzyści,
  • umiejętność oceny wiarygodności generowanych wyników,
  • zdolność do podejmowania świadomych decyzji w kontekście współpracy człowieka z AI.

Chodzi o to, żeby np. osoby pracujące z AI wiedziały kiedy ufać wynikom systemu, a kiedy należy je zakwestionować lub skonsultować z ekspertem. Ta umiejętność rozpoznania tzw. „halucynacji” AI, zrozumienia, skąd pochodzą dane wejściowe, czy jak zidentyfikować potencjalne błędy algorytmiczne jest kluczowe dla bezpiecznego korzystania z AI.

Znajomość i świadomość ryzyk jest równie istotna co świadomość i znajomość korzyści, jakie wiążą się z AI.

Dlaczego należy zadbać o AI literacy w organizacji?

Wprowadzenie AI do organizacji nie kończy się na zakupie licencji na narzędzie czy integracji z procesami firmowymi. To początek odpowiedzialności.

Organizacja, która wdraża narzędzia AI, bierze na siebie obowiązek m.in. przeszkolenia zespołu i monitorowania ryzyk. Brak świadomości – zarówno co do potencjalnych zagrożeń, jak i możliwych korzyści – może prowadzić do:

  • błędnych decyzji biznesowych,
  • naruszenia przepisów (np. RODO, DSA, prawa konsumenckiego),
  • utraty zaufania klientów lub kontrahentów,
  • naruszenia praw własności intelektualnej,
  • konsekwencji finansowych i wizerunkowych.

Co ważne – AI Act nie ogranicza obowiązku wdrożenia AI literacy tylko do systemów wysokiego ryzyka.

Obowiązek zadbania o AI literacy nie dotyczy tylko organizacji, które tworzą systemy AI. Obejmuje również te firmy, które korzystają z narzędzi AI, np. platform rekrutacyjnych z elementami automatyzacji, generatorów treści marketingowych czy chatbotów.

Jest to o tyle zrozumiałe, że na ryzyka związane z korzystaniem z systemów AI narażeni są faktyczni użytkownicy tego systemu.

Przykładowo: w sytuacji gdy firma korzysta z systemów AI do rekrutacji personelu, dział HR powinien mieć świadomość tego, że jednym z ryzyk związanych z korzystaniem z AI jest ryzyko dotyczące uprzedzeń i dyskryminacji. Jeśli system nie był trenowany na “czystych danych”, nieobciążonych uprzedzeniami, wynik wygenerowany przez system może być błędny i oparty na społecznych uprzedzeniach.

Personel powinien być świadomych tych ryzyk i podejmować próby ich wyeliminowania i oceny wyników.

Ryzyka związane z korzystaniem z AI

Każdorazowo organizacja powinno zweryfikować, jakie w jej przypadku ryzyka mogą wystąpić i jaki wpływ AI może mieć na inne osoby.

Ważne jest to, że wpływ AI będzie różnił się w zależności od organizacji. Inne konsekwencje działań AI będą miały systemy dotyczące ochrony zdrowia i generujące wyniki na temat potencjalnych chorób, a inne będą w systemach dedykowanych do tworzenia treści marketingowych.

Do przykładowych ryzyk, jakie przypisuje się AI należą:

  • nieprawdziwe informacje, halucyjnacje,
  • deepfake’i, dezinformacja, manipulacja,
  • naruszanie praw własności intelektualnej,
  • naruszenie prywatności i poufności,
  • propagowanie uprzedzeń i dyskryminacji,
  • tzw. black-box problem, czyli problem czarnej skrzynki,
  • podszywanie się pod inne osoby.

Świadomość ryzyk jest kluczowa, żeby prawidłowo wdrożyć AI literacy w organizacji.

Niezależnie od świadomości ryzyk, również istotna jest wiedza o korzyściach i umiejętności ich wydobywania z narzędzi sztucznej inteligencji.

Korzyści z rozwijania AI literacy w organizacji

Rozwijanie kompetencji w zakresie AI, zarówno w kontekście technicznych, biznesowym, jak i prawnym pozwala na:

  • zwiększenie nadzoru nad wdrażanymi rozwiązaniami technologicznymi – rozwijanie kompetencji w zakresie korzystania z narzędzi opartych na sztucznej inteligencji umożliwia organizacjom podejmowanie bardziej świadomych decyzji dotyczących wdrożeń technologicznych. Pracownicy nie tylko obsługują dane narzędzie, ale rozumieją jego mechanizmy działania oraz potrafią ocenić ryzyka związane z jego stosowaniem – co przekłada się na większą kontrolę operacyjną.
  • minimalizowanie ryzyk prawnych, wizerunkowych i reputacyjnych – brak odpowiednich procedur lub wiedzy dotyczącej funkcjonowania narzędzi opartych na AI może skutkować naruszeniami przepisów z zakresu ochrony danych, prawa konsumenckiego czy zasad uczciwego obrotu. Kompetencje AI literacy pozwalają ograniczyć ryzyko błędnych decyzji, niewłaściwego przetwarzania danych lub przekroczenia granic dopuszczalnej automatyzacji procesów.
  • optymalizację procesów i zasobów – odpowiednie przygotowanie zespołu do pracy z nowoczesnymi rozwiązaniami pozwala efektywniej wykorzystywać dostępne zasoby – zarówno czasowe, jak i kadrowe. Organizacje, które w sposób odpowiedzialny wdrażają technologie, zyskują przewagę nie przez automatyzację samą w sobie, ale przez jej świadome i bezpieczne zastosowanie w konkretnych obszarach działalności.
  • wzmocnienie pozycji konkurencyjnej i zgodność ze standardami zarządzania – przedsiębiorstwa dbające o rozwój kompetencji technologicznych kadry – w tym umiejętności związanych z oceną ryzyk, odpowiedzialnością i zgodnością działań z regulacjami – postrzegane są jako nowoczesne i godne zaufania. To element długofalowego zarządzania ryzykiem oraz compliance, który może stanowić przewagę w relacjach z partnerami biznesowymi i klientami.

Jakie działania można podejmować w ramach AI literacy?

AI literacy obejmuje szereg działań edukacyjnych, organizacyjnych i zarządczych, które mają na celu wyposażyć użytkowników, dostawców oraz osoby narażone na wpływ AI w wiedzę i umiejętności niezbędne do świadomego, bezpiecznego i zgodnego z prawem korzystania z systemów sztucznej inteligencji. Działania te mają również na celu ochronę praw podstawowych, zdrowia, bezpieczeństwa oraz wspieranie unijnych wartości, jak wskazano w art. 3 pkt 56 i motywie 20 AI Act.

Nie ma zamkniętej listy środków, narzędzi do budowania tych kompetencji. Każdorazowo należy oceniać je uwzględniają kontekst organizacji. Pomocne mogą być jednak w tym wyjaśnienia Komisji Europejskiej czy organizacji CIPL.

Kluczowe jest przede wszystkim:

  • zbadanie i analiza systemów AI działających w organizacji, w tym ocena co to za systemy, do jakich celów służą, kto z nich korzysta oraz w jakim zakresie,
  • zbadanie i analiza potrzeb edukacyjnych w organizacji,
  • dostosowanie narzędzi do ww. potrzeb i wdrażanie działań edukacyjnych, np. szkolenia bazowe dla wszystkich pracowników, a szkolenia specjalistycznych dla osób, które działają na systemach w sposób zaawansowany, szkolenia stacjonarne/ on-line, praktyczne warsztaty o charakterze prawnym, biznesowym, technicznym,
  • tworzenie kultury organizacyjnej wspierającej AI literacy, w tym zaangażowanie kierownictwa w promowanie AI literacy jako priorytetu strategicznego,
  • rozwój wspólnego języka AI i siatki pojęciowej, która będzie sprzyjała komunikacji wewnętrznej,
  • opracowanie dokumentacji, np. wytycznych, polityk wewnętrznych dotyczących korzystania z AI,
  • zapewnienie narzędzi do oceny wiarygodności, przejrzystości i zgodności systemów AI z przepisami.
  • monitorowanie wykorzystania AI w organizacji i jego zgodności z RODO, DSA, przepisami sektorowymi itp.,
  • wsparcie osób, na których AI może mieć wpływ, w tym edukowanie w zakresie praw i możliwości kwestionowania decyzji, pomoc w zrozumieniu jak działają narzędzia AI, informowanie o tym, kiedy informacja/odpowiedź jest przekazywana przez AI, a kiedy przez człowieka,
  • stała aktualizacja wiedzy i dostosowywanie programów do organizacji i korzystanych przez nią systemów.
  • dokumentowanie działań edukacyjnych np. rejestry szkoleń, materiały edukacyjne itp.

Czy należy dokumentować szkolenia i inne działania edukacyjne w ramach AI literacy?

Choć AI Act (art. 4) nie nakłada wprost obowiązku mierzenia wiedzy, zgodnie z zasadą rozliczalności i przejrzystości, organizacje powinny dokumentować:

  • udział w szkoleniach,
  • stosowane materiały edukacyjne,
  • osoby przeszkolone w zakresie nadzoru nad systemami wysokiego ryzyka (art. 26 ust. 1 i 2 AI Act).

Nie ma jednak obowiązku odbywania szkoleń certyfikowanych. Udział w szkoleniach może być odnotowywany np. poprzez prowadzenie rejestru szkoleń, oznaczania udziału w szkoleniach na platformie e-learningowej.


Podsumowanie

Działania w ramach AI literacy są kluczowe dla zapewnienia zgodności z przepisami, ale również dla budowania kultury zaufania do AI w organizacji. Obejmują one nie tylko szkolenia, ale też działania organizacyjne, techniczne i etyczne, które wspólnie mają zapewnić, że wykorzystanie AI jest bezpieczne, odpowiedzialne i zgodne z wartościami UE.

  • Szukasz wsparcia w przygotowaniu umów, regulaminów lub innych dokumentów?
  • Potrzebujesz konsultacji prawnej?
  • Potrzebujesz szkolenia z aspektów prawnych dotyczących AI lub eksperckiego materiału?

Napisz do nas. 

W zależności od tego, czego potrzebujesz, dobierzemy dla Ciebie najlepsze rozwiązanie.

Podstawa prawna: AI ACT