Pracownicy banków robią to bezprawnie. Polska firma ujawnia proceder
W świecie finansów zaufanie i bezpieczeństwo to podstawa. Nowy raport pokazuje jednak, że za kulisami dzieje się coś niepokojącego.

Chodzi o sztuczną inteligencję. A konkretnie o zjawisko zwane "Shadow AI". To używanie przez pracowników narzędzi AI, które nie zostały zatwierdzone przez ich firmę. Badanie na ten temat opublikowała firma DeepL, znana w Polsce z rewelacyjnego translatora, która swoje korzenie ma właśnie w naszym kraju. Prezesem i założycielem firmy jest Jarosław Kutyłowski.
Wyniki ankiety przeprowadzonej wśród brytyjskich pracowników sektora finansowego są alarmujące. Aż 65% z nich przyznało się do korzystania z nieoficjalnych narzędzi AI w swojej pracy, w tym w interakcjach z klientami. To prosta droga do problemów z cyberbezpieczeństwem i naruszenia surowych regulacji bankowych.



Wygoda wygrywa z zasadami
Pracownicy nie robią tego ze złej woli. Wręcz przeciwnie – chcą być bardziej efektywni. Aż 70% ankietowanych uważa, że AI znacząco poprawiło szybkość i jakość obsługi klienta. Problem w tym, że narzędzia dostarczane przez pracodawców często są niewystarczające lub przestarzałe. Pracownicy szukają więc drogi na skróty.
Zamiast korzystać z bezpiecznych, firmowych rozwiązań, sięgają po ogólnodostępne narzędzia, takie jak ChatGPT i inne chatboty czy translatory. Używają ich do komunikacji z klientami, analizy danych, a nawet monitorowania transakcji pod kątem oszustw.
Twoje dane w cudzych rękach
Niebezpieczeństwo jest ogromne. Pracownik, rozmawiając z publicznie dostępnym chatbotem, może mieć wrażenie, że to prywatna, bezpieczna konwersacja. W rzeczywistości wszystkie wpisane tam dane – w tym potencjalnie wrażliwe informacje o klientach banku – trafiają do firmy, która za tym chatbotem stoi. To stwarza gigantyczne ryzyko wycieku danych.
Jak zauważa Mantas Sabeckis, badacz bezpieczeństwa w Cybernews, ludzie zapominają, że dane udostępniane chatbotom są de facto udostępniane firmie, która go stworzyła.
Problem nie leży jednak w samych pracownikach. David Parry-Jones z DeepL podkreśla, że prawdziwe ryzyko to nie to, że pracownicy eksperymentują z AI, ale to, że firmy nie dają im bezpiecznych i skutecznych narzędzi do pracy. Dopóki to się nie zmieni, zjawisko "Shadow AI" będzie tylko narastać, a bezpieczeństwo naszych danych w bankach będzie stało pod coraz większym znakiem zapytania.