Dziennik Gazeta Prawana logo

AI Act. Dlaczego polskie firmy muszą myśleć o ryzyku, a nie o technologii?

Unia Europejska
AI Act traktuje systemy sztucznej inteligencji jak produkty, które działają w określonym kontekście i mogą powodować realne szkody.
16 lutego, 21:00

AI Act to regulacja o ryzyku i odpowiedzialności, a nie o samej technologii. Nie pyta, czy w ogóle używasz sztucznej inteligencji w firmie, tylko czy wiesz, gdzie ona podejmuje decyzje za ciebie. Nakazuje tworzenie mechanizmów kontroli narzędzia, które może wpływać na ludzi, ich zdrowie, prawa czy sytuację finansową.

Sztuczna inteligencja weszła do firm szybciej niż governance. Zazwyczaj zaczyna się niewinnie: ktoś w marketingu używa chatu do draftów, ktoś w sprzedaży uruchamia bota, ktoś w IT testuje narzędzie do automatyzacji kodu. Na tym etapie rzadko pojawia się „problem prawny”. Pojawia się natomiast coś znacznie groźniejszego: chaos decyzyjny – brak zasad, brak właściciela, brak świadomości, gdzie i do czego AI jest używana.

W tym właśnie miejscu trzeba postawić kluczową tezę: AI Act nie pyta, czy używasz AI. Pyta, czy wiesz, gdzie ona podejmuje decyzje za ciebie. To jest regulacja o ryzyku i odpowiedzialności, a nie o samej technologii.

Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.