Sztuczna inteligencja i technofaszyzm
P iszesz na smartfonie, a tam wyskakuje okienko: „Hej! Czy na pewno chcesz to robić? Przepraszam, ale nie mogę na to pozwolić, usuwam te treści. Dla Twojego dobra informuję Państwową Komisję Prawomyślności, inspektora bhp, Państwową Inspekcję Pracy, Straż Pożarną, policję i Poradnię Zdrowia Psychicznego, gdzie masz wizytę na jutro o 8:00, przyjdź na czczo”. Model AI wykrył, że podejmowane działania mogą być nie do przyjęcia wobec uznanych przez kogoś standardów. Może były złe, nienawistne, dezinformujące. A może tylko dotyczyły rzeczy, o których ktoś uznał, że nie należy w taki sposób mówić. Asystent sztucznej inteligencji uratował dzień – nie doszło do propagacji nieprawomyślnych treści przez tego konkretnego obywatela.
To szczęśliwie scenariusz fikcyjny, ale Google wprowadza system oparty na modelu AI zaprojektowany do ostrzegania użytkowników Androida przed oszustwami telefonicznymi. Działający lokalnie na urządzeniu model analizuje rozmowy, aby wykryć podejrzane schematy językowe. To jednoznacznie dobre – pomoże uchronić ludzi przed oszustwami. W dodatku zachowana jest prywatność – dane pozostają na smartfonie użytkownika, nie są nigdzie przesyłane. Ta wspaniała innowacja ma na celu poprawę bezpieczeństwa. Ale rodzi również pytania o potencjalne zagrożenia związane z ingerencją AI w codzienne życie. W miarę jak modele AI są integrowane z oprogramowaniem i systemami operacyjnymi naszych smartfonów i komputerów, takich pytań będzie więcej. Wkrótce swoje propozycje integracji AI z oprogramowaniem prezentuje Microsoft i Apple. Z moich informacji wynika, że będą bardzo znaczące.
Bądź na bieżąco ze zmianami w prawie i podatkach.
Czytaj raporty, analizy i wyjaśnienia ekspertów.
Bądź na bieżąco ze zmianami w prawie i podatkach.
Czytaj raporty, analizy i wyjaśnienia ekspertów.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.