Jak odpowiedzialnie wykorzystać AI
Transparentność, dobre ramy regulacyjne, łączne uwzględnianie etyki, prawa i technologii to niektóre czynniki warunkujące właściwe wykorzystanie sztucznej inteligencji. Generatywna AI ma ogromny potencjał w kontekście ESG
W panelu „Społeczna odpowiedzialność biznesu w czasach AI” podczas III Kongresu ESG – Europa wzięli udział: Maciej Chojnowski, współtwórca i dyrektor programowy Centrum Etyki Technologii Instytutu Humanites, członek grupy roboczej ds. AI w KPRM, autor publikacji „Etyka sztucznej inteligencji. Wprowadzenie”; dr Damian Flisak, radca prawny, ekspert Team Europe Direct Przedstawicielstwa Komisji Europejskiej w Polsce; Ryszard Hordyński, dyrektor ds. strategii i komunikacji Huawei Polska oraz Radosław Kozieja, prezes zarządu COGIT. Rozmowę poprowadził Karol Tokarczyk, starszy analityk do spraw gospodarki cyfrowej, Polityka Insight.
Debatę poprzedziło wystąpienie liderki, którą była dr hab. Aleksandra Przegalińska, prof. ALK, prorektor ds. współpracy z zagranicą Akademii Leona Koźmińskiego. Swoje wystąpienie prof. Przegalińska zaprezentowała poprzez awatara, który dodatkowo unaocznił możliwości zawarte w sztucznej inteligencji.
Jedna z czołowych polskich ekspertek wyjaśniła rolę AI w kwestiach klimatycznych, społecznych czy zmianach na rynku pracy. W tym kontekście mówiła o szansach i wyzwaniach, takich jak efektywność energetyczna, monitorowanie zmian środowiskowych, równość w dostępie do technologii AI, sprawiedliwym i inkluzywnym społeczeństwie, dostosowanie edukacji i szkoleń do nowych realiów, utylizacja e-odpadów, automatyzacji z udziałem AI, polaryzacji społecznej czy przejrzystości w podejmowaniu decyzji.
– Ponadto mamy do czynienia z wyzwaniami etycznymi i w zakresie prywatności, bo AI może być wykorzystywana do inwazyjnego monitorowania, naruszania prywatności, a także podejmowania decyzji na podstawie uprzedzeń – przestrzegała prof. Przegalińska, wymieniając np. manipulowanie ludźmi czy przeprowadzanie cyberataków.
Podkreśliła, że transparentność jest fundamentem odpowiedzialnego wykorzystania AI. Oprócz tego niezwykle ważnym elementem jest rozwój odpowiednich ram prawnych, muszą one gwarantować bezpieczeństwo, prywatność i etyczne wykorzystanie AI.
– Sztuczna inteligencja, a zwłaszcza generatywna AI ma ogromny potencjał w kontekście ESG – mówiła liderka debaty. – Stoi przed nami, jako globalną społecznością, wyzwanie, aby kształtować AI w sposób, który wspiera w zrównoważony sposób rozwój i dobro wspólne. Dalszy rozwój AI musi być uważnie obserwowany i kształtowany zgodnie z zasadami ESG – podsumowała prof. Aleksandra Przegalińska.
Doktor Damian Flisak, jako prawnik, skupił się na unijnym AI Act określającym prawne ramy sztucznej inteligencji. Wskazał, że prace nad dokumentem i jego wejście w życie są wolniejsze niż tempo rozwoju technologii AI. Lecz są też plusy.
– Ustawodawca brukselski ukształtował ten dokument trochę w duchu ESG, ponieważ jest on bez reszty antropocentryczny – mówił ekspert, zauważając, że tworzy on barierę przeciwko zagrożeniom płynącym z nieetycznego wykorzystywania AI.
Prezes Radosław Kozieja stwierdził, że trudno byłoby się nie zgodzić z prof. Aleksandrą Przegalińską.
– Dla mnie najbardziej istotny w całej wypowiedzi jest fragment o transparentności i wyjaśnianiu, w jaki sposób te narzędzia działają – mówił.
Także kwestie środowiskowe uznał za szczególnie ciekawe. Zdaniem eksperta technologia AI będzie zwiększać możliwości interakcji z coraz bardziej cyfrowym światem.
– Zachęcam do obserwowania rozwoju AI, żeby wiedzieć, jak ona działa, abyśmy mogli poruszać się w tym świecie, który na pewno przyniesie nam mnóstwo niespodzianek. Stanisław Lem, pytany o przyszłość internetu, powiedział, że nie wie, w jakim kierunku on pójdzie, ale na pewno część ludzi znajdzie sposób, aby wykorzystać to narzędzie w niegodziwy sposób. Regulacje AI są na pewno potrzebne – podkreślił ekspert.
Maciej Chojnowski, odnosząc się do słów prof. Przegalińskiej, stwierdził, że etyka, prawo i coś, co nazywa się solidnością techniczną w europejskim ujęciu „godnej zaufania sztucznej inteligencji”, to trzy filary, które należy postrzegać całościowo. W przekonaniu eksperta traktowanie tych trzech obszarów silosowo jest dziś największym problemem i wyzwaniem, bo mamy często do czynienia z eticswashingiem, zjawiskiem podobnym do greenwashingu. Obok antropocentryzmu AI Act równie ważny jest aspekt środowiskowy. Tu zwrócił uwagę m.in. na łańcuch dostaw metali ziem rzadkich, często wydobywanych w krajach trzecich, co ma znaczenie w kontekście ESG. Stwierdził, że łączne traktowanie etyki, prawa i solidności technicznej są na razie bardziej postulatem niż rzeczywistością.
– Sposób postrzegania współzależności w tym ekosystemie i w zrównoważonym rozwoju jest kluczowy – mówił etyk.
– Trudno jest komentować wystąpienie pani profesor, wybitnej specjalistki, ale postaram się nie być gorszym od przedmówców – rozpoczął swoje wystąpienie dyrektor Ryszard Hordyński. Ekspert podkreślił, że należy z uznaniem przyjąć finalizowanie prac nad AI Act, bo biznes technologiczny jest szybszy niż regulacje, a potrzebne są jasne zasady funkcjonowania. Przypomniał, że AI to jest jednak tylko algorytm i nie należy jej demonizować, bo ona już od dawna jest stosowana.
– Najważniejsze, aby ta technologia służyła ludzkości, postępowi cywilizacyjnemu – stwierdził, nawiązując do ESG.
Mówiąc o przyszłości, Ryszard Hordyński zwrócił uwagę, że mogą to być samochody autonomiczne, drony będące taksówkami powietrznymi, sterowanie energetyką i wiele innych elementów rzeczywistości, które zresztą już stają się faktem. Ekspert przestrzegł, aby uważać, jakie treści zostawia się w sieci, „bo na pewno będzie to miało krytyczne znaczenie w przyszłości”.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.