Zbadać AI jak człowieka. Czy sztuczna inteligencja ma poglądy ekonomiczne?
Duże modele językowe znajdują zastosowanie w coraz liczniejszych zadaniach. Czynności takie jak pisanie tekstów, programowanie czy doradztwo finansowe są dziś często realizowane z ich pomocą. Czy użytkownicy naprawdę rozumieją, z kim lub z czym prowadzą rozmowę?
Modele językowe potrafią generować odpowiedzi, które brzmią przekonująco, ale nie zawsze odzwierciedlają rzeczywistość obiektywnie. Świadomość tego, że sztuczna inteligencja może przedstawiać świat zniekształcony, jest kluczowa dla właściwej interpretacji jej sugestii. Załóżmy, że w rozmowie o inwestycjach Państwa rozmówca to osoba skłonna do ryzyka. Czy wpłynęłoby to na sposób, w jaki oceniają Państwo jej rady? A jeśli podobne tendencje przejawiałby model językowy, to czy nadal ufaliby Państwo jego rekomendacjom?
John J. Horton z Massachusetts Institute of Technology postanowił sprawdzić, jak modele językowe z rodziny GPT-3 – czyli te, na których oparty jest m.in. słynny ChatGPT – radzą sobie z podejmowaniem decyzji ekonomicznych. Czy ich „sposób myślenia” przypomina ludzkie wybory? Aby to zweryfikować, badacz przeprowadził serię klasycznych eksperymentów behawioralnych, które od lat stosuje się do analizy zachowań ludzi. Tym razem obiektami badań były modele językowe. Horton mógł więc porównać reakcje sztucznej inteligencji z dobrze udokumentowanymi wcześniej decyzjami podejmowanymi przez człowieka.
Załóż konto lub zaloguj się
i zyskaj dostęp na 14 dni za darmo.
Załóż konto lub zaloguj się
i zyskaj dostęp na 14 dni za darmo.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.