Sztuczna inteligencja, prawny kłopot
AKTUALNOŚCI Komputer rozmawiający z klientem to pomysł przyszłościowy, ale i ryzykowny. Zwłaszcza gdy maszyna wykorzystuje do identyfikacji dane biometryczne
System komputerowy dzwoniący do dłużnika i pytający, kiedy zwróci należności - to już nie jest fikcja naukowa. Takiego wirtualnego windykatora wprowadza właśnie Alior Bank. Komputer identyfikuje rozmówcę na podstawie próbki głosu i przypomina o nieuregulowanej płatności. W programie pilotażowym maszyna okazała się wydajniejsza od człowieka, skuteczność w odzyskiwaniu należności wzrosła o 10 proc., a koszty obsługi jednego dłużnika spadły pięciokrotnie. Inne firmy, nie tylko instytucje finansowe czy windykatorzy, zastanawiają się nad wprowadzeniem u siebie podobnych systemów.
Ale uwaga! Takie wykorzystanie technologii wiąże się też ze sporym ryzykiem prawnym po stronie przedsiębiorcy. Jakakolwiek awaria systemu może narazić go na poważne sankcje. Przykładowo, jeżeli komputer zacznie wydzwaniać na niewłaściwe numery, przedsiębiorca może zostać oskarżony o uporczywe nękanie albo obciążony karą z tytułu nieposiadania zgody na kontakt od przypadkowego rozmówcy. A jeżeli system źle zidentyfikuje rozmówcę i zdradzi poufne informacje osobie postronnej, to naraża przedsiębiorcę na sankcje z powodu naruszenia tajemnicy bankowej, ochrony danych osobowych albo dóbr osobistych.
Eksperci zwracają też uwagę na jeszcze jeden aspekt: prawo zabrania obecnie, by system komputerowy samodzielnie dokonywał oceny. To człowiek powinien podjąć np. decyzję o nałożeniu kary, odsetek etc.
Prawdziwy problem może jednak wiązać się z gromadzeniem i przetwarzaniem danych biometrycznych. Żeby maszyna mogła bowiem zidentyfikować rozmówcę - przedsiębiorca musi najpierw zgromadzić próbki głosu. W przypadku ich kradzieży konsekwencje mogą być dużo poważniejsze niż w razie przechwycenia hasła do konta. - Skradzione hasła można zmienić, danych biometrycznych nie - zauważa Magdalena Jarosz, radca prawny w kancelarii Squire Patton Boggs. A to oznacza, że przestępcy przechwytując dane biometryczne w postaci próbki głosu mogliby zyskać dostęp do wszystkich innych kont danego klienta, które są weryfikowane na tej podstawie.
Dlatego też generalny inspektor ochrony danych osobowych mówi, że nie popiera bezrefleksyjnego wykorzystywania danych biometrycznych w sytuacjach, w których dla osiągnięcia zamierzonego celu wystarczy wykorzystać inne dane, mniej ingerujące w naszą prywatność. - Gdy tego typu dane dostaną się w ręce osób niepowołanych, umożliwią kradzież tożsamości, a to może rodzić bardzo poważne i trudne do odwrócenia konsekwencje - podkreśla Małgorzata Kałużyńska-Jasak, rzecznik prasowy generalnego inspektora ochrony danych osobowych. I zapowiada wprowadzenie w planowanej ustawie (implementacja dyrektywy RODO, którą musimy wprowadzić do 6 maja 2018 r.) surowych kar dla tych, którzy będą odpowiedzialni za wyciek tego typu danych. ⒸⓅ
GIODO nie popiera bezrefleksyjnego wykorzystywania danych biometrycznych. Zapowiada wprowadzenie surowych kar za doprowadzenie do ich wycieku
Jakub Styczyński
C3
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Wpisz adres e-mail wybranej osoby, a my wyślemy jej bezpłatny dostęp do tego artykułu