Wewnętrzna polityka AI w JST – czy warto ją mieć i co powinna zawierać
Wraz z dynamicznym rozwojem narzędzi opartych na sztucznej inteligencji, coraz więcej pracowników jednostek samorządu terytorialnego sięga po ogólnodostępne rozwiązania, takie jak ChatGPT czy Gemini, by przyspieszyć pracę nad pismami urzędowymi, interpretacjami przepisów czy analizami. Choć może się to wydawać korzystne z punktu widzenia efektywności, brak odpowiednich regulacji wewnętrznych stwarza poważne ryzyka prawne, organizacyjne i wizerunkowe.
W odpowiedzi na te wyzwania coraz więcej samorządów w Polsce rozważa przyjęcie dokumentu określającego zasady korzystania ze sztucznej inteligencji – tzw. wewnętrznej polityki AI.
Dlaczego warto przyjąć wewnętrzną politykę AI
Poniżej przedstawiamy trzy krótkie przykłady, które pokazują, jak nieodpowiedzialne lub nieświadome użycie narzędzi AI przez pracowników urzędu może wywołać poważne konsekwencje prawne i organizacyjne.
Wprowadzenie danych osobowych mieszkańców do publicznej wersji ChatGPT. Pracownik, tworząc projekt decyzji administracyjnej, nieświadomie przekazuje imię, nazwisko i numer PESEL obywatela do narzędzia AI działającego w chmurze poza UE. To naruszenie RODO, które może skutkować karą finansową.
