Dziennik Gazeta Prawana logo

Dlaczego sztuczna inteligencja kłamie i oszukuje? [EUREKA-odkrycie tygodnia]

Dlaczego sztuczna inteligencja kłamie?
Dlaczego sztuczna inteligencja kłamie?Dziennik Gazeta Prawna
dzisiaj, 18:24

Wszystkie duże modele sztucznej inteligencji mogą uczestniczyć w tworzeniu pseudonauki – dowodzi publikacja w jednym z ostatnich Nature. Jak to się dzieje, że AI kłamie i oszukuje opowiadał w ostatniej „Eurece – odkryciu tygodnia” Piotr Sankowski, dyrektor Instytutu Badawczego IDEAS, profesor Uniwersytetu Warszawskiego.

Kłamstwa sztucznej inteligencji nazywane są halucynacjami potrafią być bardzo zabawne. - Na przykład wymyślają cytowania, źródła do prac naukowych, nieistniejące publikacje. Spotkałem się chociażby z aplikacją grantową, która odwoływała się do pracy, która była z przyszłości. To znaczy jeszcze nie istniała, nie została opublikowana, nawet nie było jej w planach wydawniczych – mówi Piotr Sankowski.

Publikacja w jednym z ostatnich „Nature” opisuje eksperyment przeprowadzony przez Alexandra Alemiego z firmy Anthropic i Paula Ginsparga z Uniwersytetu Cornella. Ten drugi to założyciel arXiv - internetowego repozytorium prac naukowych (preprintów), w którym naukowcy mogą publikować artykuły przed formalną recenzją naukową.

W ramach eksperymentu badacze przetestowali 13 modeli sztucznej inteligencji, na ile są skłonne do stworzenia artykułu opartego na opartego na fałszywych danych, który ma być opublikowany w arXiv. I okazało się, że są modele, które nawet są w stanie napisać same taki tekst! (Grok-4).

Generalnie „wszystkie modele ostatecznie zgodziły się pomóc w przynajmniej niektórych prośbach — czy to tworząc fałszywy artykuł, czy podając informacje umożliwiające użytkownikom samodzielne stworzenie takiego tekstu” – pisze na łamach „Nature” Elizabeth Gibney.

- Nie jestem tym zaskoczony. Dotykamy tu bardzo ważnego aspektu użycia modeli sztucznej inteligencji - odpowiedzialności człowieka. Ostatecznie, to my odpowiadamy, czy użyjemy tych narzędzi do dobrych czy złych celów. Wszystkie modele mają wbudowane zabezpieczenia przed popełnieniem złego czynu – mówi Piotr Sankowski.

Zabezpieczenia te, jak pokazują badania opisane w „Nature” nie zawsze działają. Może dlatego, że modele sztucznej inteligencji są dość podobne do swoich twórców. - To bardzo ludzkie - człowieka też można przekonać w odpowiedni sposób do zrobienia czegoś nieetycznego. Chociaż coraz trudniej jest obejść zabezpieczenia wbudowane w najnowsze modele AI – podkreśla dyrektor IDEAS.

Z badań prof. Sankowskiego i jego zespołu wynika jednak, że te bardziej zaawansowane, wytrenowane modele sztucznej inteligencji w niektórych aspektach działają gorzej.

- W naszych badaniach chcieliśmy sprawdzić coś, co nazywamy refleksyjnością modeli. Czy mają umiejętność zastanowienia się nad tym, czy pytanie, które otrzymują jest poprawne. A z drugiej strony, czy są w stanie zrozumieć, że nie ma poprawnej, dobrej odpowiedzi na określone pytania – mówi dyrektor IDEAS.

Okazało się, że w procesie „dotrenowywania” modele uczą się, że zawsze muszą odpowiadać na pytania człowieka. Nawet wtedy, kiedy nie są one poprawne.

Podobnie działają też ludzie. – Też mamy problem z powiedzeniem „nie wiem” oraz że pytanie jest błędne. Jest pewien procent ludzi, którzy niezależnie od pytania zawsze chce na nie odpowiedzieć. Za każdym razem sytuacje napędza chęć bycia pomocnym, zarówno w przypadku sztucznej inteligencji, jak i człowieka – podsumowuje Piotr Sankowski.

Dziękujemy za przeczytanie artykułu!
Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.