Przejdź do treści
TEAM POLAND

Sześć instytucji, jedna oferta. Kompleksowe wsparcie polskich firm w ekspansji zagranicznej.

Publikacje Data publikacji: 23 kwietnia 2026

AI w administracji #Wdrożenia AI

Autor Magdalena Bryś Ekspertka ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Autor Patryk Bitner Młodszy Specjalista ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.

AI w administracji publicznej to cykl rozmów poświęcony wdrażaniu rozwiązań sztucznej inteligencji w jednostkach samorządu terytorialnego oraz rozwijaniu kompetencji cyfrowych pracowników. Tym razem rozmowa koncentruje się na praktycznych wdrożeniach AI – od pierwszych kroków, przez wybór odpowiednich narzędzi, aż po skalowanie rozwiązań w organizacji. Rozmowa z Bartoszem Ledzionem, ekspertem w zakresie zastosowań AI w sektorze publicznym, dotyczy diagnozy dojrzałości AI w administracji publicznej oraz przygotowania organizacji do jej skutecznego wdrażania.
 

W jakich obszarach administracji AI może – Twoim zdaniem – przynieść największe korzyści?

Administracja ma paradoksalnie idealne warunki do wdrażania AI. Wynika to z dużej skali powtarzalnych zadań oraz dostępu do ustrukturyzowanych rejestrów, które często są dodatkowo uregulowane przepisami prawa, takimi jak ustawy, rozporządzenia czy wewnętrzne zarządzenia.

Największy potencjał widzę w obszarze back office, w szczególności w klasyfikacji dokumentów, obsłudze rutynowej korespondencji oraz sprawozdawczości. Są to procesy, w których dane stosunkowo łatwo poddają się analizie, zwłaszcza jeśli mają formę cyfrową, a tych z roku na rok przybywa.

Niedocenianym obszarem jest również budowa wewnętrznych baz wiedzy prawno proceduralnej. Można myśleć o AI jako o pamięci instytucjonalnej, która zabezpiecza organizację przed utratą know how w przypadku rotacji pracowników. W praktyce oznacza to utrwalenie sposobów pracy z przepisami, interpretacjami oraz procedurami, czyli tego, co często pozostaje w głowach ekspertów. Ślady ich pracy mogą stać się cennym zasobem, który AI pomaga uporządkować i wykorzystać w przyszłości, zwiększając odporność organizacji.

Kolejna istotna wartość to nie tyle robienie więcej, co wiedzenie więcej. AI umożliwia odkrywanie wzorców, zależności oraz anomalii w dużych zbiorach danych, takich, których człowiek nie jest w stanie wychwycić ze względu na ich skalę.

Gdybym więc miał wskazać obszary szczególnie predestynowane do wdrożeń AI w administracji, byłyby to procesy back office, zarządzanie wiedzą oraz zaawansowana analiza danych.

A gdybyśmy przeszli do konkretnych korzyści, czy mógłbyś podać przykłady zastosowania AI w obszarach takich jak obsługa wniosków, analiza dokumentów czy automatyzacja procesów? Jakie wymierne efekty może dzięki temu uzyskać urzędnik?

Z mojej perspektywy warto skupić się na kilku najważniejszych obszarach, zamiast mnożyć przykłady. Pierwszym z nich jest dostęp do informacji, szczególnie w kontekście obsługi mieszkańców. Kluczowe jest to, że urzędnik ma szybki dostęp do aktualnych przepisów oraz do wiedzy o tym, jak podobne sprawy były rozpatrywane wcześniej. To pozwala zachować spójność działania w całej organizacji.

Można to sobie wyobrazić jako rozbudowaną, wewnętrzną bazę wiedzy, do której dostęp ma każda osoba obsługująca mieszkańców. Dzięki temu decyzje są bardziej jednolite, a pracownicy nie muszą za każdym razem szukać informacji od podstaw. Jednocześnie istotne jest, że AI pełni tu rolę wsparcia, a nie zastępuje człowieka. Badania pokazują, że mieszkańcy wciąż oczekują kontaktu z urzędnikiem, a nie pełnej automatyzacji obsługi.

Drugim ważnym obszarem jest sprawozdawczość. To element pracy administracji, który jest powszechny, czasochłonny i często postrzegany jako obciążenie. Właśnie tutaj AI może przynieść bardzo konkretne korzyści, automatyzując zbieranie danych, ich analizę oraz przygotowywanie raportów. Dzięki temu urzędnicy mogą ograniczyć czas poświęcany na zadania odtwórcze i skupić się na bardziej merytorycznych działaniach.

Od czego instytucja publiczna powinna zacząć, zanim wdroży AI? Jak powinna się do tego przygotować?

Powiedziałbym przewrotnie, że instytucja publiczna powinna zacząć nie od strategii, tylko od bólu. Może to brzmieć nietypowo, ale w praktyce to właśnie identyfikacja najbardziej czasochłonnych i nielubianych zadań w poszczególnych komórkach organizacji jest kluczowa. Taka lista kilku najbardziej uciążliwych procesów jest znacznie bardziej wartościowa na start niż ogólne prezentacje o transformacji cyfrowej.

Jednym z największych błędów jest wdrażanie narzędzi bez jasno zdefiniowanego problemu. Bardzo często organizacje najpierw kupują rozwiązania, a dopiero później zastanawiają się, do czego je wykorzystać. To odwrócenie logiki działania, które prowadzi do braku realnych efektów.

Równie istotne jest określenie, jak będziemy mierzyć sukces wdrożenia. Jeśli na początku nie ma odpowiedzi na pytanie, co konkretnie ma się poprawić w ciągu trzech miesięcy, to istnieje duże ryzyko, że projekt stanie się jedynie działaniem wizerunkowym, a nie rzeczywistą zmianą.

Dlatego kluczowe jest zidentyfikowanie konkretnego problemu, a następnie zdefiniowanie mierzalnych efektów, które pozwolą ocenić, czy wdrożenie AI faktycznie przyniosło poprawę, nawet jeśli będzie to częściowe ograniczenie danego problemu.

Czy w Twojej opinii najlepszym podejściem do wdrażania AI są pilotaże i małe projekty, czy widzisz inną, skuteczniejszą drogę działania?

Uważam, że w obecnych realiach pilotaże i małe projekty to bardzo dobre podejście, zwłaszcza że technologia rozwija się dziś w ogromnym tempie i pozwala stosunkowo szybko testować rozwiązania w praktyce. Kluczowe jest jednak to, jak rozumiemy sam pilotaż.

Nie powinien on kończyć się wyłącznie sukcesem albo porażką, ale konkretną decyzją. Albo skalujemy rozwiązanie, albo wiemy już, czego nie robić. I oba te wyniki są równie wartościowe. Nawet jeśli coś się nie sprawdzi, to nie oznacza zmarnowanych zasobów, tylko zdobycie wiedzy, która chroni nas przed większymi błędami w przyszłości.

Ważnym elementem pilotaży jest także dobór uczestników. Powinni to być innowatorzy i osoby otwarte na nowe technologie, które naturalnie chcą z nich korzystać. Testowanie rozwiązań na osobach przypadkowych lub wyznaczonych „z obowiązku” często prowadzi do zafałszowanych wyników i nie pomaga przekonać sceptyków.

Dlatego pilotaże mają sens, ale pod warunkiem, że są dobrze zaprojektowane, nastawione na szybkie wnioski i realizowane z udziałem właściwych ludzi.

Jak wygląda typowy proces wdrożenia sztucznej inteligencji w administracji publicznej?

Mam wrażenie, że ten proces bardzo przypomina wizytę u lekarza i zaczyna się od diagnozy. Najpierw oceniamy dojrzałość organizacji oraz jej gotowość do wdrożenia AI. To pozwala zrozumieć, na jakim etapie jesteśmy i jakie mamy realne możliwości.

Kolejnym krokiem jest identyfikacja konkretnych problemów, czyli obszarów, które wymagają usprawnienia. Chodzi o wskazanie tych procesów, które faktycznie chcemy zmienić i w których AI może przynieść wartość.

Następnie projektujemy rozwiązania i zastanawiamy się, jakie podejście będzie najskuteczniejsze. Może to być wsparcie pracy urzędników przez chatboty, automatyzacja procesów albo bardziej zaawansowane systemy działające w sposób częściowo autonomiczny. Na tym etapie kluczowe jest także określenie mierników sukcesu.

Kolejny etap to pilotaż, prowadzony z jasno zdefiniowanymi kryteriami oceny. Po jego zakończeniu następuje ewaluacja, która pozwala podjąć decyzję, czy rozwiązanie skalujemy i wprowadzamy szerzej, czy rezygnujemy z dalszych działań. W przypadku skalowania pojawia się również potrzeba uporządkowania kwestii związanych z zarządzaniem rozwiązaniem i jego dalszym rozwojem.

A jakie zespoły powinny być zaangażowane w projekt?

Kluczowe w samym wdrożeniu jest zbudowanie odpowiedniego „trójkąta współpracy”.

Z jednej strony mamy właściciela merytorycznego, czyli osobę, która odpowiada za dany obszar i finalnie podpisuje się pod wynikami. Z drugiej strony mamy kompetencje techniczne, czyli IT i bezpieczeństwo, które odpowiadają za wdrożenie od strony technologicznej. Trzecim, absolutnie kluczowym elementem jest użytkownik końcowy, czyli pracownik, który będzie korzystał z rozwiązania na co dzień. Bez jego zaangażowania wdrożenie po prostu się nie uda.

Bardzo ważną rolę pełni również osoba odpowiedzialna za zgodność z przepisami o ochronie danych. Powinna ona uczestniczyć w projekcie od samego początku jako recenzent, a nie pojawiać się dopiero na etapie gotowego rozwiązania. Włączenie jej na wczesnym etapie pozwala uniknąć sytuacji, w której projekt zostaje zablokowany tuż przed wdrożeniem z powodów formalnych.

Warto też pamiętać, że projekty prowadzone wyłącznie przez zespoły IT, bez realnego udziału właściciela merytorycznego i użytkowników, rzadko kończą się sukcesem. Technologia nie powinna zastępować perspektywy biznesowej czy urzędowej, tylko ją wspierać. Dlatego tak istotna jest współpraca wszystkich tych ról od samego początku procesu.

Przejdźmy do barier. Jakie przeszkody samorządy napotykają podczas wdrażania AI w administracji i jakiego są one rodzaju?

Podzieliłbym te bariery na trzy główne obszary. Pierwszym są dane, które często są w złym stanie technicznym. Mówimy tu o starych plikach bez OCR, dokumentach bez wersjonowania czy licznych duplikatach. Jeśli takie dane „nakarmią” system AI, to trudno oczekiwać wysokiej jakości wyników. W efekcie organizacja szybko traci zaufanie do rozwiązania, mimo że problem leży nie w technologii, lecz w jakości danych.

Drugą barierą jest to, co można nazwać paradoksem odpowiedzialności. Pojawia się pytanie, kto odpowiada za błędy AI. Jeśli nie ma na nie jasnej odpowiedzi, użytkownicy instynktownie rezygnują z korzystania z narzędzi. To nie jest bariera technologiczna, tylko kulturowo prawna, która wymaga wprowadzenia jasnych zasad weryfikacji i odpowiedzialności jeszcze przed wdrożeniem.

Trzecim wyzwaniem jest zjawisko tak zwanego Shadow AI. W praktyce oznacza to, że pracownicy już korzystają z narzędzi AI poza oficjalnymi systemami, często bez wiedzy organizacji. Skala tego zjawiska jest duża i realnym pytaniem nie jest to, czy ono występuje, tylko czy organizacja je widzi i potrafi nim zarządzać. Kluczowe jest budowanie świadomości, jakie dane można wykorzystywać, a jakich nie, oraz wprowadzenie zasad bezpiecznego korzystania z AI. Bez tego istnieje ryzyko niekontrolowanego obiegu informacji i błędnych założeń dotyczących bezpieczeństwa danych.

A na ile istotne w tym kontekście są kwestie prawne, formalne procedury oraz czynnik ludzki, czyli kultura organizacyjna samorządu? Jak te elementy wpływają na wdrażanie AI?

Ja bym zaczął od tego drugiego aspektu, czyli czynnika ludzkiego. Najgorszą formą porażki jest tak naprawdę opór pasywny. Formalnie AI jest wdrożone, ale w praktyce pracownicy korzystają z niego tylko do prostych, mało istotnych zadań, omijając te obszary, w których technologia mogłaby przynieść największą wartość. To cicha i kosztowna porażka, bo z jednej strony organizacja może wykazywać wykorzystanie narzędzi, ale realna efektywność pozostaje bez zmian.

Drugim istotnym elementem są zmiany organizacyjne. Sama technologia jest dziś na tyle dojrzała, że można ją skutecznie wykorzystywać w wielu obszarach. Procedury jej wdrożenia również można przygotować stosunkowo szybko. Natomiast największym wyzwaniem jest zmiana nawyków pracy.

Wdrożenie technologii to jedno, ale rzeczywiste jej wykorzystanie przez zespoły to proces, który trwa miesiące, a czasem nawet dłużej. Wymaga konsekwentnego wsparcia, budowania kompetencji i utrwalania nowych sposobów działania. Bez tego nawet najlepsze rozwiązania nie przyniosą oczekiwanych efektów.

Jak w tym kontekście podejść do kwestii bezpieczeństwa i regulacji? Z jednej strony procedury mogą być zbyt sformalizowane i stanowić barierę, z drugiej często brakuje jasnych zasad. Jak administracja może zapewnić transparentność i bezpieczeństwo systemów AI?

Każda instytucja publiczna wypracowuje dziś własne standardy. Przykładem może być kodeks wykorzystania sztucznej inteligencji w mieście stołecznym Warszawa, ale podejścia mogą się różnić w zależności od organizacji. Są jednak pewne zasady, które powinny pozostać niezmienne.

Pierwsza z nich to odpowiedzialność człowieka. Niezależnie od tego, jak bardzo zaawansowane jest rozwiązanie, to człowiek powinien weryfikować i podpisywać decyzje. To fundamentalny element, który buduje bezpieczeństwo i zaufanie do systemu.

Druga kwestia to pełna audytowalność wykorzystania AI. Każde użycie technologii w procesie decyzyjnym powinno być rejestrowane w taki sposób, aby możliwe było odtworzenie, jakie dane i przesłanki doprowadziły do konkretnej decyzji. To pozwala nie tylko kontrolować poprawność działania, ale także uczyć się na przyszłość.

Istotnym elementem jest również transparentność wobec obywateli. Jeśli AI była wykorzystywana przy przygotowaniu dokumentu lub decyzji, obywatel powinien mieć możliwość uzyskania takiej informacji. Nie musi to wynikać wyłącznie z obowiązku prawnego, ale może stanowić standard etyczny, który wzmacnia zaufanie do instytucji.

Doświadczenia pokazują, że obywatele są w stanie zaakceptować wykorzystanie AI, o ile zachowana jest przejrzystość i odpowiedzialność po stronie urzędu. Dlatego kluczowe jest nie tylko tworzenie procedur, ale także budowanie świadomego i bezpiecznego sposobu korzystania z tych technologii.

Czy mógłbyś podać przykład wdrożenia AI w samorządzie, najlepiej z własnego doświadczenia?

Paradoksalnie chciałbym przywołać przykład wdrożenia, które się nie udało, bo z takich sytuacji można wyciągnąć najwięcej wniosków. Dobrym case’em jest holenderski system SyRI, który w 2020 roku został zablokowany przez sąd za naruszenie praw obywatelskich.

System miał służyć do wykrywania nadużyć w wypłacie świadczeń socjalnych, jednak pojawiło się kilka poważnych problemów. Po pierwsze, algorytm działał jak czarna skrzynka, a obywatele nie mieli możliwości zrozumienia, dlaczego zostali uznani za podejrzanych. Po drugie, system koncentrował się głównie na uboższych dzielnicach, co prowadziło do stygmatyzacji i poczucia niesprawiedliwości. Po trzecie, sąd uznał, że walka z nadużyciami nie może odbywać się kosztem praw obywateli. W efekcie projekt został całkowicie wycofany, a rząd nie odwołał się od tej decyzji.

To bardzo ważna lekcja, szczególnie w kontekście dzisiejszych, jeszcze bardziej zaawansowanych rozwiązań. W obszarach wrażliwych społecznie AI musi być wdrażana z dużą ostrożnością, a ostateczne decyzje powinny zawsze pozostawać po stronie człowieka.

Z drugiej strony warto spojrzeć na przykład Estonii, która często jest wskazywana jako lider cyfryzacji. Jej sukces nie wynika jednak wyłącznie z wdrożeń AI, ale przede wszystkim z wieloletniego budowania spójnych systemów danych i zaufania do infrastruktury państwowej. AI jest tam raczej naturalnym kolejnym krokiem, a nie punktem wyjścia.

To pokazuje, że kluczowe w skutecznych wdrożeniach nie jest samo narzędzie, ale jakość danych, przygotowanie organizacji i odpowiedzialne podejście do technologii.

Dziękujemy za rozmowę!
 

Cykl rozmów „AI w administracji” jest realizowany w ramach programu Centrum Kompetencji AI oraz programu „AI w administracji publicznej. Od strategii do wdrożenia”.

 

Bartosz Ledzion - ekspert w dziedzinie stosowania generatywnej sztucznej inteligencji, service design oraz UX usług cyfrowych w projektach dla sektora publicznego i prywatnego.

Ukończył kierunek User Experience Design SWPS, rozwijał swoje kompetencje w ośrodkach akademickich MIT Media Lab i Cambridge Business Analytics. Dwukrotnie otrzymał nagrodę Ministra Nauki i Szkolnictwa Wyższego za projekty naukowe o charakterze wdrożeniowym podczas Gali Nauki Polskiej.

W ostatnich 5 latach koncentrował się na projektach związanych z adaptacją i wdrażaniem sztucznej inteligencji w administracji publicznej i dużych przedsiębiorstwach — od diagnozy gotowości organizacyjnej, przez projektowanie procesów z wykorzystaniem AI, po nadzór nad pilotażowymi implementacjami narzędzi Gen AI w instytucjach publicznych. Był jednym z autorów kodeksu wykorzystania Gen AI w Urzędzie m.st. Warszawy oraz publikacji dotyczącej zastosowania Gen AI w ewaluacji polityk publicznych (PARP).