AI może być groźna dla użytkowników mediów społecznościowych
Plany Elona Muska to nie tylko zagrożenie dla prywatności, lecz – przez wykorzystanie potencjału sztucznej inteligencji – także możliwość uzyskania ogromnej kontroli nad użytkownikami platformy X
Kiedy w 2019 r. niemiecki urząd antymonopolowy wydawał zakaz łączenia przez Facebook danych z różnych źródeł, wywołało to niemałe poruszenie, że oto urząd antymonopolowy przejmuje obszar prawny spoza prawa antymonopolowego. Prezes urzędu podkreślał wówczas, że dane i sposób postępowania z nimi są decydującymi czynnikami konkurencyjnymi dla gospodarki cyfrowej, co uzasadnia interwencję jego urzędu.
Kiedy uwaga świata skupiała się wokół działań nowej administracji amerykańskiej związanych z wojną w Ukrainie czy zapowiedziami wprowadzania ceł, Elon Musk ogłosił, że jego firma xAI przejęła platformę mediów społecznościowych X (dawniej Twitter), co zakończyło proces pełnej integracji xAI z X Corp. Celem tych działań było stworzenie własnego, suwerennego źródła danych do trenowania modeli AI, jednocześnie dających przewagę konkurencyjną wobec takich podmiotów jak Google czy innych firm AI, które nie mają włas nych platform społecznościowych. Jednak to nie przewaga konkurencyjna powinna najbardziej martwić użytkowników. Integracja tych dwóch podmiotów, xAI i X, powoduje możliwość swobodnego i mniej przejrzystego wykorzystywania danych. Daje bezpośredni dostęp do postów użytkowników, komentarzy, metryk zaangażowania i danych behawioralnych, w tym nawyków przewijania i reakcji. Trzeba pamiętać, że platformy mają dostęp nie tylko do danych publicznych, ale także do prywatnych wiadomości, usuniętych postów i innych form zaangażowania. LinkedIn już jest oskarżany o udostępnianie prywatnych wiadomości użytkowników stronom trzecim w celu trenowania modeli sztucznej inteligencji.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.