Wyszukaj po identyfikatorze keyboard_arrow_down
Wyszukiwanie po identyfikatorze Zamknij close
ZAMKNIJ close
account_circle Jesteś zalogowany jako:
ZAMKNIJ close
Powiadomienia
keyboard_arrow_up keyboard_arrow_down znajdź
removeA addA insert_drive_fileWEksportuj printDrukuj assignment add Do schowka
comment

Artykuł

Data publikacji: 2023-06-06

analiza

ChatGPT kontra ochrona danych osobowych

Sztuczna inteligencja (AI) w coraz większym stopniu jest wykorzystywana w wielu branżach. Posiłkują się nią zarówno programiści, copywriterzy, jak i prawnicy. Zaprojektowany przez firmę Open AI ChatGPT okazał się prawdziwą bolączką europejskich organów nadzorczych. Nieustannie rozwijające się narzędzia oparte na AI zbierają terabajty danych osobowych, tworząc przy tym wiele pytań o prywatność użytkowników.

Globalna sensacja

Początki projektu, który stał się obecnie jednym z najgorętszych tematów na świecie dotyczących sztucznej inteligencji, możemy znaleźć w 2018 r. To wówczas firma OpenAI przygotowała pierwszy model swojego chatbota, który nosił nazwę GPT-1. Jego celem było udzielanie użytkownikowi odpowiedzi na pytania dotyczące szerokiego zakresu wiedzy oraz realne angażowanie się w rozmowę z nim. Z tego powodu chat bazował na ogromnych zbiorach danych.

close POTRZEBUJESZ POMOCY?
Konsultanci pracują od poniedziałku do piątku w godzinach 8:00 - 17:00