ChatGPT kontra ochrona danych osobowych
Sztuczna inteligencja (AI) w coraz większym stopniu jest wykorzystywana w wielu branżach. Posiłkują się nią zarówno programiści, copywriterzy, jak i prawnicy. Zaprojektowany przez firmę Open AI ChatGPT okazał się prawdziwą bolączką europejskich organów nadzorczych. Nieustannie rozwijające się narzędzia oparte na AI zbierają terabajty danych osobowych, tworząc przy tym wiele pytań o prywatność użytkowników.
Globalna sensacja
Początki projektu, który stał się obecnie jednym z najgorętszych tematów na świecie dotyczących sztucznej inteligencji, możemy znaleźć w 2018 r. To wówczas firma OpenAI przygotowała pierwszy model swojego chatbota, który nosił nazwę GPT-1. Jego celem było udzielanie użytkownikowi odpowiedzi na pytania dotyczące szerokiego zakresu wiedzy oraz realne angażowanie się w rozmowę z nim. Z tego powodu chat bazował na ogromnych zbiorach danych.
Przez kolejne lata sztuczna inteligencja przeczesywała posty w sieci, fora tematyczne i książki. Zapoznawała się też z niektórymi danymi osobowymi, które udostępniasz na swój temat w internecie (już za późno, żeby je usunąć). Wszystko to, by nauczyć się sposobu komunikacji, zrozumieć język, rozumieć treści pytań i znać na nie odpowiedzi… albo przynajmniej umieć zgrabnie kłamać, ale o tym później.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.