nowe technologie
Nie ma skutecznych narzędzi prawnych do obrony przed deepfake’ami
Obecne przepisy nie chronią obywateli przed wygenerowanymi lub zmanipulowanymi przez AI treściami. O podjęcie prac zmierzających do rozwiązania tego problemu apelują zarówno eksperci, jak i prezes Urzędu Ochrony Danych Osobowych
Ostatnimi czasy głośna była sprawa dotycząca wygenerowania za pomocą AI oraz upubliczniania nagiego wizerunku uczennicy. Organy ścigania początkowo odmówiły wszczęcia śledztwa w tej sprawie. Zmieniły zdanie dopiero po interwencji prezesa UODO.
Kolejny problem z deepfake’ami to oszustwa finansowe. Wizerunek znanych osób często wykorzystywany jest do tworzenia przez naciągaczy reklam namawiających do inwestowania pieniędzy. Opisywane problemy poruszane były na niedawnej konferencji zorganizowanej przez Urząd Ochrony Danych Osobowych.
Dylematy organów ścigania
Podczas wydarzenia zastępca komendanta Centralnego Biura Zwalczania Cyberprzestępczości (CBZC) insp. Michał Pudło mówił m.in. o tym, że kwalifikacje prawne, które dotykają tej materii, nie są jasne.
