Miliony pracowników korzystają z narzędzi AI w codziennej pracy – często nie zdając sobie sprawy, że wklejane przez nich dane firmowe mogą trafiać do zewnętrznych systemów dostawców, a w części usług dla użytkowników indywidualnych także służyć do ulepszania modeli. Wyjaśniamy, jakie zagrożenia się z tym wiążą i co możesz zrobić, żeby pracować z AI bezpiecznie.
Wyobraź sobie taką sytuację: musisz szybko skrócić długi raport dla klienta. Wklejasz go do ChatGPT, dostajesz zgrabne streszczenie i wszyscy są zadowoleni. Ale raport zawierał dane sprzedażowe, nazwiska kontrahentów i nieopublikowane prognozy finansowe. Gdzie teraz są te informacje? Na serwerach firmy, dla której pracujesz? Niekoniecznie.
Takie scenariusze nie są wyjątkiem. W analizie Cyberhaven opartej na danych z użycia narzędzi przez 3 miliony pracowników, ilość danych firmowych wpisywanych do narzędzi AI wzrosła o 485% rok do roku. Z kolei w polskim skrócie badania KPMG i Uniwersytetu Melbourne 46% respondentów przyznało, że używało AI w pracy w niewłaściwy sposób, a 45% deklarowało korzystanie z niej w sposób sprzeczny z politykami lub wytycznymi. To dobry moment, żeby zrozumieć, na czym polega ryzyko i jak je ograniczać.
Co się dzieje z danymi, które wklejasz do narzędzi AI?
Żeby zrozumieć ryzyko, musisz najpierw wiedzieć, jak popularne narzędzia AI przetwarzają dane. Treść, którą wpisujesz do publicznego chatbota, zwykle trafia do infrastruktury dostawcy usługi. To nie znaczy jeszcze, że każdy dostawca robi z tym to samo. Zasady zależą od konkretnego narzędzia, planu i ustawień prywatności.
W przypadku usług OpenAI dla użytkowników indywidualnych firma podaje, że może używać treści do ulepszania modeli. Możesz to wyłączyć w ustawieniach Kontrolki danych, wyłączając opcję „Ulepsz model dla wszystkich”, albo skorzystać z portalu prywatności. OpenAI podkreśla też, że po wyłączeniu tej opcji nowe rozmowy nie będą używane do trenowania modeli. Dodatkowo tryb Czatu Tymczasowego nie trafia do historii i nie służy do trenowania modeli, choć jest przechowywany do 30 dni ze względów bezpieczeństwa.
Inaczej wyglądają zasady w usługach biznesowych OpenAI. Firma podaje, że domyślnie nie trenuje modeli na danych z ChatGPT Business, ChatGPT Enterprise ani z API, chyba że organizacja sama wyraźnie zdecyduje się na udostępnianie danych. To właśnie dlatego przy pracy na prawdziwych danych firmowych bezpieczniejsze są rozwiązania biznesowe niż prywatne konto założone na prywatny adres e-mail.
Czym jest „shadow AI” i dlaczego to problem?
Specjaliści od bezpieczeństwa używają pojęcia „shadow AI” na określenie sytuacji, w której pracownicy korzystają z narzędzi AI bez wiedzy, zgody albo nadzoru działu IT i bezpieczeństwa. To w praktyce odpowiednik dawnego „shadow IT”, tylko w wersji związanej ze sztuczną inteligencją.
Problem nie polega wyłącznie na tym, że pracownik używa niezatwierdzonego narzędzia. Kłopot zaczyna się wtedy, gdy do zewnętrznego systemu trafiają dane klientów, dokumenty handlowe, kod źródłowy, wyniki analiz albo wewnętrzne procedury. PARP wprost wskazuje taki scenariusz jako przykład shadow AI: wykorzystanie zewnętrznego modelu do analizy danych wrażliwych bez zgody przełożonego.
Ryzyko nie kończy się przy samym trenowaniu modeli. Dane mogą też zostać ujawnione wskutek błędu po stronie usługi albo incydentu bezpieczeństwa. OpenAI opisało w 2023 roku błąd, przez który część użytkowników mogła zobaczyć tytuły cudzych rozmów, a w niektórych przypadkach także pierwszą wiadomość nowej konwersacji i fragmenty danych związanych z płatnościami. To dobry przykład tego, że problemem bywa nie tylko polityka prywatności, ale również zwykły błąd techniczny.
Jakich danych absolutnie nie wklejać do publicznych narzędzi AI?
To pytanie, na które każdy pracownik powinien znać odpowiedź. Oto kategorie informacji, które nie powinny trafiać do zewnętrznych asystentów AI w ramach publicznych lub konsumenckich usług.
- Dane osobowe – imiona i nazwiska klientów lub pracowników, adresy, numery telefonów, dane z umów, numery PESEL czy identyfikatory. Wklejanie takich danych do narzędzi, z którymi firma nie ma odpowiednich podstaw, procedur i zabezpieczeń, może prowadzić do naruszenia przepisów o ochronie danych osobowych.
- Dane finansowe i handlowe – prognozy sprzedaży, wyniki finansowe przed publikacją, oferty dla klientów, marże, ceny negocjowane z dostawcami. To informacje, których ujawnienie może narazić firmę na realne straty biznesowe.
- Dane techniczne i własność intelektualna – kody źródłowe, opisy nieopublikowanych rozwiązań, wyniki badań, dokumentacja projektowa i specyfikacje produktów.
- Dane objęte umowami o poufności – jeśli dana treść jest objęta NDA albo inną klauzulą poufności, nie powinna trafiać do zewnętrznego systemu bez wyraźnej zgody i ustalonej podstawy.
- Dane dotyczące bezpieczeństwa organizacji – hasła, klucze, dane dostępowe, konfiguracje systemów i informacje o architekturze sieci.
Jak pracować z AI bezpiecznie? Praktyczne zasady
Bezpieczne korzystanie z narzędzi AI w pracy nie oznacza rezygnacji z ich używania – oznacza używanie ich świadomie. Oto kilka zasad, które warto stosować na co dzień.
Sprawdź ustawienia prywatności narzędzia, zanim zaczniesz go używać. W ChatGPT możesz wyłączyć używanie nowych rozmów do ulepszania modeli. W Google Workspace z Gemini oraz w Microsoft 365 Copilot dane klientów biznesowych podlegają innym zasadom niż w usługach konsumenckich. Google deklaruje, że nie używa danych klientów Workspace do trenowania modeli bez ich zgody lub instrukcji, a Microsoft podaje, że polecenia, odpowiedzi i dane używane przez Microsoft 365 Copilot nie służą do trenowania modeli bazowych.
Anonimizuj dane przed wklejeniem do chatbota. Jeśli musisz skonsultować z AI treść zawierającą dane klientów, usuń lub zastąp elementy identyfikujące konkretne osoby. To nie rozwiązuje każdego problemu, ale wyraźnie zmniejsza ryzyko.
Korzystaj z firmowych planów zamiast prywatnych kont. Jeśli Twoja firma wdrożyła ChatGPT Business, Microsoft 365 Copilot, Gemini w Google Workspace albo inne zatwierdzone rozwiązanie biznesowe, używaj właśnie ich. Prywatne konto na prywatny e-mail to zwykle gorszy wybór przy pracy z danymi służbowymi.
Zanim prześlesz dokument, przeczytaj go jeszcze raz. W pośpiechu łatwo przeoczyć nazwiska, numery umów, fragment poufnej tabeli albo nieopublikowane wyniki.
Pytaj dział IT lub bezpieczeństwa o dozwolone narzędzia. Jeśli Twoja firma ma politykę AI, trzeba ją znać. Jeśli jeszcze jej nie ma, tym bardziej nie warto zgadywać na własną rękę.
Czym różni się darmowy ChatGPT od wersji biznesowej?
To pytanie zadaje sobie wielu pracowników. Różnica jest istotna. W usługach OpenAI dla użytkowników indywidualnych treści mogą być używane do ulepszania modeli, chyba że użytkownik wyłączy tę opcję. Sam zakup planu Plus nie zmienia automatycznie zasad na biznesowe.
Usługi biznesowe, takie jak ChatGPT Business, ChatGPT Enterprise czy API, działają na innych zasadach. OpenAI podaje, że domyślnie nie trenuje na tych danych modeli i udostępnia dokumenty umowne dotyczące przetwarzania danych. To nie zwalnia firmy z własnej oceny ryzyka, ale jest wyraźnie bezpieczniejszym punktem wyjścia niż prywatne konto konsumenckie.
Co grozi za naruszenie bezpieczeństwa danych?
Skutki wycieku danych firmowych za pośrednictwem narzędzi AI mogą być poważne na kilku poziomach. Z perspektywy ochrony danych osobowych RODO przewiduje m.in. kary do 20 milionów euro albo do 4% całkowitego rocznego światowego obrotu przedsiębiorstwa – w zależności od tego, która wartość jest wyższa.
W przypadku AI Act kary zależą od rodzaju naruszenia. Przy zakazanych praktykach mogą sięgać do 35 milionów euro albo 7% światowego rocznego obrotu. Przy innych naruszeniach – do 15 milionów euro albo 3% obrotu. Za podanie nieprawdziwych lub wprowadzających w błąd informacji – do 7,5 miliona euro albo 1% obrotu.
Do tego dochodzą skutki praktyczne: utrata zaufania klientów, ryzyko sporów, konsekwencje wewnętrzne w firmie i utrata przewagi konkurencyjnej, jeśli poufne informacje trafią w niepowołane ręce.
Podsumowanie
Bezpieczeństwo danych firmowych w narzędziach AI to dziś jeden z ważniejszych tematów w każdej organizacji. Każdy pracownik powinien rozumieć jego podstawy. Narzędzia takie jak ChatGPT, Copilot czy Gemini potrafią realnie przyspieszyć pracę, ale wymagają świadomego użycia.
Podstawowe zasady są proste: nie wklejaj danych osobowych klientów ani pracowników, nie przesyłaj tajemnic handlowych, sprawdź ustawienia prywatności i korzystaj z narzędzi zatwierdzonych przez Twoją firmę. Jeśli masz wątpliwości, co jest dozwolone, a co nie – zapytaj. Chwila refleksji przed kliknięciem „Wyślij” może uchronić i Ciebie, i Twoją firmę przed niepotrzebnymi problemami.