Autopromocja
Dziennik Gazeta Prawana logo
Technologie

Korzyści i pułapki AI w ESG

30 lipca 2024
Ten tekst przeczytasz w 9 minut

Biznes szuka punktów wspólnych między dwoma największymi trendami naszych czasów. Generatywna sztuczna inteligencja staje się podstawą do konstruowania modeli dedykowanych tematyce ESG.

44d14689-66d3-4594-9089-5f226c5a83d6-38254797.jpg

Na firmy i specjalistów od raportowania ESG, którzy głowią się nad tym, od czego zacząć przygotowanie raportu ESG, w sieci czekają już rozwiązania AI. – Firmy dostrzegają ogromny potencjał w wykorzystaniu sztucznej inteligencji w ESG – od gromadzenia i analizy wskaźników, aż po zaawansowane modelowanie, które pomoże nawet w podejmowaniu decyzji inwestycyjnych. Obowiązuje tutaj tylko jedna zasada: sky is the limit – mówi Marta Biernacka-Miernik, członkini zarządu Polskiego Stowarzyszenia ESG.

Podejście przedsiębiorców i menedżerów do AI jest przy tym bardzo racjonalne. – Szukają sposobów, które pozwolą rozwiązać realne problemy i nie zrujnują ich finansowo. Biznes jest też świadom problemów ze sztuczną inteligencją – prawnych, technologicznych, związanych z bezpieczeństwem. Tutaj nie ma hurraoptymizmu – przyznaje ekspertka.

AI w gąszczu danych

Przygotowując raport „Sztuczna inteligencja a ESG. Wyzwania przyszłości” specjaliści Polskiego Stowarzyszenia ESG przeprowadzili wywiady jakościowe z ekspertami zajmującymi się obszarami ESG i AI w dużych organizacjach. Wynika z nich, że pierwszym obszarem, do którego AI może się przydać biznesowi, jest raportowanie ESG, które – jak wskazano w publikacji – można rozumieć dwojako: jako proces gromadzenia danych związanych z raportem oraz jako przygotowywanie samego raportu.

Drugi obszar wykorzystania AI obejmuje realizację celów ESG. „Nadzieja jest taka, że sztuczna inteligencja będzie tutaj w stanie nie tylko wspomagać człowieka w przebijaniu się przez gąszcz danych, ale też będzie mogła optymalizować procesy biznesowe, a nawet podsuwać możliwe rozwiązania, które pomogą firmom osiągać założone cele lub określać, jakie cele są do osiągnięcia”– czytamy w raporcie.

W uproszczeniu AI może pomóc firmom policzyć, przeanalizować, podsumować i zoptymalizować ich wpływ na środowisko i pozostałe obszary ESG.

– Biznes dostrzega możliwość wykorzystania AI w każdej z literek ESG, przy czym zastosowania te są najłatwiej dostrzegalne w dziedzinie „E” (m.in. do wyliczenia śladu węglowego), a nieco mniej – w obszarze „S”. Najwięcej znaków zapytania budzi literka „G”, chociaż i w tym przypadku trafiliśmy na głosy, że AI może być gamechangerem, chociażby w analizie regulacji firmowych pod kątem zgodności z obowiązującym prawem – komentuje Joanna Dargiewicz-Rożek, członkini zarządu Polskiego Stowarzyszenia ESG. Dodaje, że firmy już teraz wykorzystują oprogramowanie oparte na AI do różnych działań w dziedzinie ESG.

Z szacunków Międzynarodowej Agencji Energetyki wynika, że zużycie energii elektrycznej przez centra danych, sztuczną inteligencję oraz sektor kryptowalut może podwoić się do 2026 r. To realne koszty finansowe, a zarazem – środowiskowe

W obszarze środowiskowym nadzieje pokłada się w zastosowaniu sztucznej inteligencji w służbie szeroko rozumianej transformacji energetycznej i walki ze zmianami klimatu. Większość firm widzi też gigantyczny potencjał sztucznej inteligencji w szeroko rozumianym zarządzaniu wyzwaniami energetycznymi, począwszy od bieżącego monitorowania zużycia energii aż po wysublimowane narzędzia, które nie tylko pozwalałyby prognozować i optymalizować te kwestie, ale też dostosowywałyby procesy firmowe do aktualnej sytuacji na rynku energetycznym.

Gambit technologiczny

Maciej Chojnowski, współtwórca i dyrektor programowy Centrum Etyki Technologii Instytutu Humanites, uważa, że AI z pewnością może pomóc w walce ze zmianami klimatu, jeśli zostanie sensownie wykorzystana do usprawnienia realizacji konkretnych zadań, np. w obszarze wspomnianej optymalizacji energetycznej lub przy monitorowaniu przestrzegania norm zanieczyszczeń albo wykrywaniu nielegalnej wycinki lasów.

– Z drugiej strony należy za wszelką cenę unikać pokusy tzw. technosolucjonizmu – przestrzega ekspert. I wyjaśnia, że termin ten, ukuty przez Jewgienija Morozowa, określał postawę, w której technologia staje się ważniejsza od problemów, które ma pomóc rozwiązywać – stajemy się wtedy zakładnikami błędnego myślenia, wedle którego technologie są lekarstwem na wszystkie bolączki ludzkości. Tymczasem wiele najbardziej palących problemów wymaga dziś rozwiązań natury polityczno-ekonomicznej lub zmiany nawyków konsumpcyjnych. Zastosowanie technologii nie stanowi na nie remedium.

Jak tłumaczy Maciej Chojnowski, w badaniach nad odpowiedzialnym rozwojem i stosowaniem systemów AI odróżnia się tzw. AI for sustainability od sustainable AI. W pierwszym wypadku chodzi o wykorzystywanie systemów sztucznej inteligencji do realizacji celów zrównoważonego rozwoju, np. optymalizacji sieci energetycznych. W drugim zaś o pozytywne oddziaływanie systemów AI na obszary ujęte w Celach Zrównoważonego Rozwoju. – Można sobie bowiem wyobrazić, że AI – choć wykorzystywana w obszarze sustainability – sama w sobie będzie działać w sposób niezrównoważony – opisuje ekspert.

Przywołuje przy tym kolejny termin – „gambit technologiczny” – ukuty przez specjalizującego się w filozofii technologii prof. Luciano Floridiego: chodzi o tymczasową zgodę na większy ślad węglowy systemów AI, jeśli miałyby nam one pomóc walczyć z kryzysem klimatycznym.

– Inni naukowcy postulują, by już teraz systemy sztucznej inteligencji, szczególnie te najpotężniejsze, oparte na uczeniu głębokim, były tworzone w sposób uwzględniający ich ślad węglowy i wodny. Chodzi o to, by maksymalnie ograniczyć ich energochłonność i zużycie wody potrzebne do chłodzenia infrastruktury obliczeniowej. Profesor Mark Coeckelbergh zaproponował w tym kontekście np. wprowadzenie tzw. sustainability budgets, czyli kwot (limitów) mocy obliczeniowych dla danego projektu AI – opowiada dyrektor programowy CET Humanites.

Jest o czym rozmawiać, bo moc obliczeniowa wymagana dla sztucznej inteligencji podwaja się co 100 dni i – wedle prognoz autorów artykułu naukowego „Intelligent Computing: The Latest Advances, Challenges, and Future” opublikowanego w styczniu 2023 r. – wzrośnie ponad milion razy w ciągu następnych pięciu lat. Taki wzrost oznacza również dużo większe zapotrzebowanie na energię i wodę. Z szacunków Międzynarodowej Agencji Energetyki wynika, że zużycie energii elektrycznej przez centra danych, sztuczną inteligencję oraz sektor kryptowalut może podwoić się do 2026 r. To realne koszty finansowe, a zarazem – środowiskowe.

Pułapki raportowania śladu węglowego

Postęp technologiczny, który może przysłużyć się ludzkości, wymaga określonych zasobów i stwierdzenie to nie powinno budzić kontrowersji. Być może jednak – w odpowiedzi na ambitne cele unijnego regulatora oraz zainteresowanie biznesu wykorzystaniem AI do raportowania ESG – warto zadać podchwytliwe pytanie: czy firmy nie powinny uwzględniać w raporcie ESG śladu węglowego wytrenowania algorytmów sztucznej inteligencji, a ściślej – dużych modeli językowych, z ang. Large Language Model – LLM, wspierających przygotowywanie raportów?

Wykorzystanie AI w raportowaniu ESG samo w sobie nie pomoże przecież w zmniejszeniu śladu węglowego. Ułatwi za to biznesowi aktywność, jaką jest samo raportowanie. W tym wymiarze narzędzie będzie przydatne przede wszystkim do podołania unijnym obowiązkom biurokratycznym przez firmy, a nie do realizacji ambitnych celów klimatycznych.

Pytanie: czy w raportach ESG nie należałoby uwzględniać śladu węglowego wygenerowanego przez pracowników firmy w związku z korzystaniem z modeli językowych – zarówno przy użyciu dedykowanych narzędzi AI wykupionych przez firmę, jak i przy zastosowaniu modeli typu ChatGPT bez wiedzy pracodawcy. Wszak pojedyncze zapytanie do ChatGPT oznacza zużycie energii w wysokości 2,9 Wh – podano w raporcie Międzynarodowej Agencji Energetycznej, a z raportu Work Trend Index 2024 przygotowanego przez Microsoft i LinkedIn wynika, że trzy czwarte pracowników umysłowych na całym świecie korzysta z AI w pracy. W Europie to 65 proc., a w Polsce 61 proc.

Na tak postawione pytania Maciej Chojnowski odpowiada, że firmy z pewnością powinny uwzględniać ślad węglowy związany z użytkowaniem AI w swoich raportach – i to w różnych zakresach, obejmujących także podwykonawców. Aby świadomość w tej materii była większa, niezbędne jest zaś zintegrowanie postrzegania obszarów ESG z koncepcją godnej zaufania sztucznej inteligencji (ang. trustworthy AI), obejmującą wytyczne z zakresu etyki AI, kwestie solidności technicznej oraz zagadnienia prawne (AI Act).

– Znajomość wymogów etyczno-prawnych dotyczących AI i rozpatrywanie ich łącznie z kwestiami ESG są kluczowe, aby działania firm w tym zakresie mogły odnieść realny skutek i nie sprowadziły się do kwestii proceduralnych czy powierzchownego rozumienia wdrożonych w firmie zasad postępowania zgodnie z przepisami prawa krajowego i międzynarodowego oraz innymi normami postępowania (ang. compliance) – wskazuje ekspert.

Przyznaje, że trudno oczekiwać, iż każda interakcja pracownika z narzędziami AI będzie monitorowana i przeliczana na zużycie energii. – Wymagałoby to zapewne zastosowania zaawansowanych narzędzi, których działanie z kolei także generowałoby ślad węglowy i wodny, co prowadziłoby do błędnego koła. To zresztą najlepszy kontrargument przeciwko pokładaniu nadmiernej ufności w technologiach – przekonuje dyrektor programowy Centrum Etyki Technologii Instytutu Humanites.

Jak przekonuje, kluczowe jest spójne podejście do zarządzania sztuczną inteligencją (ang. AI governance), obejmujące wszystkie poziomy organizacji – od zarządu, przez menedżerów średniego szczebla, aż po szeregowych pracowników. – Firmy muszą mieć politykę odpowiedzialnego stosowania AI, która będzie sprzęgnięta z ESG i realizowana na każdym poziomie. Dopóki decydenci nie zrozumieją tych zależności, dopóty będzie nam grozić wiele działań pozornych lub po prostu brak integracji w poszczególnych obszarach. A to zapewne nie wpłynie pozytywnie na realizację Celów Zrównoważonego Rozwoju – podsumuje Maciej Chojnowski.

Dziękujemy za przeczytanie artykułu!
Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.