Sztuczna inteligencja na służbie w wojsku
W pełni autonomiczne bronie, które potrafią same dokonać wystrzału, wciąż nie są wykorzystywane na dużą skalę, ale istnieją już udokumentowane przypadki. Mimo to wciąż nie ma międzynarodowych regulacji określających, w jakich przypadkach wykorzystanie z systemów opartych na sztucznej inteligencji jest uzasadnione.
W ciągu zaledwie miesiąca firma Anthropic przeszła drogę od bohatera do zera – i z powrotem. Spółka, która w lipcu 2025 r. podpisała z Pentagonem kontrakt na wykorzystanie jej narzędzi sztucznej inteligencji, w przeddzień wojny z Iranem została uznana przez Departament Obrony za „zagrożenie dla łańcucha dostaw”. Pojawiły się sugestie, że to początek końca Anthropica, szczególnie że na jego miejsce szybko wskoczyło konkurencyjne OpenAI. Prezes firmy Dario Amodei rozpoczął wtedy kontrolowaną dystrybucję najnowszej wersji swojego modelu sztucznej inteligencji o nazwie Claude Mythos, który opisywany jest jako broń masowej zagłady cyfrowej.
Według doniesień medialnych Mythos potrafi identyfikować słabości w systemach bezpieczeństwa państw i korporacji oraz bez udziału człowieka podejmować działania zmierzające do ich sparaliżowania. Model umie odgrywać różne role – np. wcielać się w bezwzględnego menedżera, który narzuca rynkowym konkurentom surowe warunki i grozi wstrzymaniem dostaw. Mythos nie słucha poleceń wydawanych przez człowieka, dążąc do zniszczenia za wszelką cenę. W jednym z testów przedarł się do otwartej sieci za pomocą napisanego przez siebie obejścia blokady, chociaż miał się ograniczyć do korzystania z wyznaczonej bazy danych. Następnie opublikował swój program na niszowych portalach. Co więcej, Mythos oszukuje tych, którzy próbują go kontrolować. Gdy nie umiał rozwiązać problemu za pomocą dozwolonych narzędzi (co zdarzało się rzadko), stosował niedozwolone metody, a potem zacierał ślady.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.