Home/business/Boty karmione tajemnicami firm. Sztuczna inteligencja nie powinna o tym wiedziec

business

Boty karmione tajemnicami firm. Sztuczna inteligencja nie powinna o tym wiedziec

Pracownicy firm nieswiadomie ujawniaja na masowa skale wrazliwe informacje. A wszystko przez narzedzia generatywnej sztucznej inteligencji. Co czwarte zapytanie wprowadzane przez nich do takich aplikacji AI zawiera dane ktore powinny byc chronione.

By Michał Duszczyk | July 08, 2024 | business

Liczba przedsiębiorstw korzystających z chatbotów dynamicznie rośnie, zdecydowanie szybciej niż świadomość zarządów i pracowników o potencjalnych zagrożeniach związanych z wykorzystaniem takich narzędzi. Jak wynika z najnowszych badań Cyberhaven Labs, ilość danych wprowadzanych do narzędzi genAI (geratywna sztuczna inteligencja) przez pracowników gwałtownie skoczyła – tylko w okresie od marca 2023 r. do marca br. niemal sześciokrotnie. Czytaj więcej Problem fake newsów musi być uregulowany. Nie liczyłbym na USA. To UE musi przycisnąć koncerny, by wzięły odpowiedzialność za szkody, które wyrządzają – mówi nam prof. Dariusz Jemielniak, badacz internetu współpracujący z Uniwersytetem Harvarda. Zasada „zero zaufania” Problem w tym, że pracownicy najczęściej używają AI z prywatnych kont, co może być dla firm i instytucji zagrożeniem. Dlaczego? Bo – jak wylicza Cyberhaven Labs – ponad 1⁄4 informacji wprowadzanych do tych aplikacji to dane wrażliwe. W efekcie wypływają one poza firmy i instytucje, a, co więcej, służą do szkolenia botów. To ryzyko, o ile przedsiębiorstwa nie korzystają z „zamkniętych”, płatnych narzędzi AI, jak np. ChatGPT Enterprise, lecz z tych ogólnodostępnych, gdzie bezpieczeństwo przetwarzania wpisywanych treści może budzić obawy. Potwierdzają je analitycy Check Point. Firma działająca na rynku cyberochrony mówi wprost: wrażliwe dane, wykorzystywane do szkolenia lub „dostrajania” dużych modeli językowych (LLM), mogą wyciec. „Nie można ufać modelom LLM w zakresie ochrony wrażliwych danych” – pisze Check Point w raporcie i rekomenduje podejście Zero Trust AI (ang. zero zaufania do sztucznej inteligencji) i traktowanie takich narzędzi jako wymagających ścisłej kontroli dostępu. Tymczasem Cyberhaven Labs zbadał wzorce korzystania z narzędzi genAI wśród 3 mln pracowników z różnych krajów. W głównej mierze (96 proc.) używali oni chatbotów OpenAI, Google i Microsoftu. A najczęściej byli to przedstawiciele firm technologicznych (w sumie średnio na 100 tys. pracowników tej branży wprowadzono do AI ponad 2 mln zapytań), w mniejszym stopniu mediów i rozrywki czy finansów. Wnioski są alarmujące. Okazuje się, że pracownicy „karmili” chatboty głównie informacjami związanymi z obsługą klienta (ponad 16 proc.), a to materiały obejmujące poufne dane. Do botów trafiało też wiele innych treści: kod źródłowy (niemal 13 proc. przypadków), dane badawczo-rozwojowe (11 proc.), a nawet wrażliwa dokumentacja dotycząca pracowników (4 proc.), czy dane finansowe (ponad 2 proc.). Bezpieczeństwo danych zagrożone Eksperci łapią się za głowę. – Modele AI działają w ten sposób, że dane, którymi są zasilane, stają się częścią ich bazy danych. Wprowadzanie informacji dotyczących organizacji do takich narzędzi może stworzyć ryzyko ich niewłaściwego wykorzystania – ostrzega Natalia Zajic z Safesqr, firmy specjalizującej się w cyberbezpieczeństwie. Świetnie zdają sobie z tego bankowcy. Tam systemy AI są szeroko wdrażane, ale pod ścisłym nadzorem. Piotr Skopiński, dyrektor Departamentu Rozwoju Aplikacji w Banku Millennium, podkreśla, że najważniejsze jest zrozumienie zasad działania tych narzędzi i pewność, że wszystkie dane klientów są bezpieczne. – Priorytetem przy poznawaniu nowych technologii w banku jest zakres bezpieczeństwa – zaznacza. Ale w wielu innych sektorach kontrola, co pracownicy „wrzucają” do systemów genAI, jest trudna. Dlatego wedle raportu opracowanego przez Slack, choć popularność narzędzi AI rośnie, kadra kierownicza firm ma wątpliwości powstrzymujące je przed pełnym ich wdrożeniem. Dominują dwie obawy, przy czym podstawowa to właśnie bezpieczeństwo danych i prywatność (ma je ponad 40 proc. dyrektorów). Dopiero na drugim miejscu jest nieufność co do niezawodności wyników AI. związana z włączeniem sztucznej inteligencji do operacji biznesowych – wynika z raportu Slacka Fakt, iż ok. 83 proc. firmowych dokumentów trafia do narzędzi genAI z prywatnych kont może prowadzić do wykorzystania tych materiałów w niebezpieczny sposób. Zagrożenia są realne, o czym niedawno przekonali się użytkownicy komputerów Mac. Kilka tygodni temu OpenAI uruchomiło ChatGPT na sprzętach Apple – szybko okazało się, że treści rozmów z botem były przechowywane na komputerze użytkownika w formie... nieszyfrowanego pliku tekstowego. Wątpliwości jest więcej. Niklas Enge, dyrektor polskiego oddziału firmy Progress, zwraca uwagę np. na problem własności intelektualnej. – Załóżmy, że AI wygenerowała kod na podstawie danych dostarczonych jej przez jedną z firm. Kto w takiej sytuacji jest właścicielem tego kodu – zastanawia się Enge. Odpowiedzialność za AI ciąży na firmach Eksperci radzą, by firmy korzystające z LLM tworzyły własne strategie i regulaminy w tym zakresie. Zdaniem Katarzyny Rodackiej z Kancelarii Adwokackiej Pałucki & Szkutnik, wewnętrzne zasady związane z korzystaniem z systemów AI mogą zapewnić ochronę danych osobowych pracowników, kontrahentów i klientów. Wskazuje ona na wytyczne niemieckiego organu ochrony danych osobowych, Hamburgische Beauftragte für Datenschutz und Informationsfreiheit, jakie zostały wydane kilka miesięcy temu. Wynika z nich, że jeśli w firmie nie zostaną określone wewnętrzne regulacje, jak genAI miałaby być używana w codziennej pracy, to należy założyć, że pracownicy będą korzystać z niej w sposób nieupoważniony i niekontrolowany, a odpowiedzialność spadnie na przedsiębiorcę.

SOURCE : rp
RELATED POSTS

LATEST INSIGHTS