Dziennik Gazeta Prawana logo

Jak dobrze zna nas AI

ai, sztuczna inteligencja
Kilka lajków wystarczy, by algorytmy bezbłędnie określiły naszą inteligencję, poglądy, a nawet ukryte preferencje.Shutterstock
12 marca, 21:00

Kilka lajków wystarczy, by algorytmy bezbłędnie określiły naszą inteligencję, poglądy, a nawet ukryte preferencje. Profesor Michał Kosiński ze Stanford University ostrzega, że nowoczesne modele językowe nie tylko nas analizują, lecz także potrafią dopasować przekaz tak, by skutecznie wpływać na nasze decyzje wyborcze i konsumenckie.

Czy algorytmy sztucznej inteligencji mogą stanowić zagrożenie dla naszej prywatności?

W mojej pracy naukowej chcę pokazać groźny potencjał modeli AI tworzonych przez big techy. Już 15 lat temu wykazaliśmy, że modele stworzone przez Facebooka, ale także przez innych gigantów cyfrowych, na podstawie zaledwie kilku lajków, opublikowanych komentarzy czy lokalizacji, są w stanie określić nasz wiek, płeć, inteligencję czy poglądy polityczne. Te dane są wykorzystywane, by poprawić nasze doświadczenie w korzystaniu z ich portali. Ma to swoją zaletę, bo łączy nas z ludźmi podobnymi do nas, ale jest też niebezpieczne, ponieważ możemy się uzależnić od aplikacji. Korzystając z tych informacji, firmy mogą też pokazywać nam specjalnie dopasowane reklamy, co jest skuteczniejsze od reklam w telewizji czy prasie. Diametralnie zmieniło to marketing.

A w jaki sposób zmieniło to zachowania konsumentów?

Marketing czy propaganda to potężne narzędzia oddziaływania na ludzi. Poprawienie skuteczności narzędzia o 5–10 proc. w przypadku konkurencji rynkowej czy politycznej może zadecydować o sukcesie. Dla przykładu, wybory prezydenckie zazwyczaj wygrywa się małą różnicą głosów, więc zwiększenie skuteczności działań marketingowych przy tym samym budżecie daje znaczącą przewagę. Przykładem takiego efektu są wygrane wyborcze Donalda Trumpa w Stanach Zjednoczonych. Modele językowe są kontynuacją tej technologii. ChatGPT czy Gemini rozpoznaje naszą osobowość i preferencje, dzięki czemu z każdym z nas rozmawia nieco inaczej, dostosowuje się do tego, co chcemy usłyszeć.

Czy można powiedzieć, że sztuczna inteligencja zajmuje się już psychometrią?

Tak, inżynierowie tworzący aplikacje czy modele językowe starają się dopasować swój produkt do naszych cech osobowości w taki sposób, bo korzystanie z niego było dla nas jak najprzyjemniejsze. Tego też oczekujemy od prawdziwych osób – chcemy, by znali nas na tyle, żeby mogli nam doradzić, polecić nam film czy książkę.

Wszystkie technologie wiążą się z możliwościami i ryzykami. Sztuczna inteligencja może nas edukować, mamy dzięki niej błyskawiczny dostęp do porad, jakich wcześniej mogli nam udzielić tylko lekarze czy prawnicy. Dostęp do wiedzy i postępu się zdemokratyzował, bo korzystają z niego wszyscy, niezależnie od statusu społecznego. Jednak ten doradca jest pod kontrolą wielkich firm technologicznych, a te z kolei – pod kontrolą rządów, które sterują ich rozwojem. Nowością jest to, że sam robot staje się podmiotem, ma swoje preferencje i uprzedzenia, które nie do końca rozumiemy i nie jesteśmy w stanie kontrolować. Choć stworzyliśmy technologię, przestajemy ją rozumieć.

Jakie największe zagrożenie się z tym wiąże?

Korzystamy z modeli sztucznej inteligencji, które pracują szybciej, taniej i lepiej od nas. Naukowcy zdołali stworzyć cyfrową siatkę neuronową z ilością wewnętrznych połączeń na poziomie mózgu małej ryby, znacznie mniejszego niż ludzki. Tymczasem ten mały mózg jest w stanie wytrenować się w zawrotnym tempie, uczy się na podstawie interakcji z użytkownikami i w kilka tygodni jest on w stanie wielokrotnie prześcignąć człowieka, któremu proces nauki zajmuje nawet do 30 lat. Jednocześnie przewaga AI polega na tym, że człowiek oddziałuje zazwyczaj na swoje najbliższe otoczenie, a modele językowe na miliardy ludzi. Jest to piękne, ale i groźne, że po raz pierwszy w historii naszego gatunku mamy do czynienia z inteligencją inną niż nasza własna, taką, która nas przewyższa.

Czy obszar ten wymaga uregulowania?

Bez wątpienia. Temat ten podejmują już politycy. Problem polega na tym, że zawsze regulacje są za postępem, co widzimy na przykładach, takich jak: prawo pracy, ochrona środowiska czy bezpieczeństwo. To opóźnienie było szczególnie wyraźnie widoczne przy rozwoju internetu. Tymczasem modele językowe rozwijają się 10–12 razy szybciej niż pierwsze technologie językowe, a nasze organy regulacyjne działają powolnie, bo są kierowane przez pokolenie ludzi, którzy sami dorośli w epoce analogowej. To niekoniecznie musi być złe – często władze przed uregulowaniem danego obszaru chcą go obserwować, by go lepiej poznać. Jednak w tym przypadku mamy do czynienia z technologią, która rozwija się błyskawicznie i jest w stanie zmienić oblicze gospodarki, każdego aspektu życia prywatnego czy publicznego. Big techy mają pomysł, jak to zrobić: proponują mianowicie, by regulowaniem sztucznej inteligencji zajęła się sztuczna inteligencja. To z kolei każe postawić pytanie, kto będzie regulował sztuczną inteligencję, która miałaby regulować sztuczną inteligencję.

Rozmawiała Patrycja Otto not. MP

Partnerzy projektu:

cyfrowa gospodarka belka
cyfrowa gospodarka belka
Dziękujemy za przeczytanie artykułu!
Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.