Tajemnice przedsiębiorstwa w erze AI: Jak chronić dane w logistyce z generatywną sztuczną inteligencją?

Autor artykułu: Marta Lampart

W dzisiejszym zglobalizowanym świecie logistyka odgrywa kluczową rolę w zapewnieniu efektywnego przepływu towarów i usług między wieloma krajami. Wykorzystanie danych jest stałym i nieodłącznym elementem optymalizacji procesów logistycznych. Również dla tej branży wraz z zastosowaniem narzędzi generatywnej sztucznej inteligencji (gen AI) pojawiły się nowe wyzwania i ryzyka związane z przetwarzaniem danych i analizą danych. Mimo tego, że dzisiejsze możliwości zachęcają do korzystania z różnych rozwiązań warto zwrócić uwagę, czy podejmowane działania nie będą skutkować ujawnieniem danych, które mogą stanowić tajemnicę przedsiębiorstwa i mają istotne znaczenie.

Dane w logistyce stanowią podstawę wielu działań i wykorzystywane są w szeroki sposób – począwszy od optymalizacji tras i harmonogramów, zarządzania zapasami, prognozowaniem sprzedaży, automatyzacji procesów magazynowych, zarządzania flotą czy monitorowania przesyłek. Bez dobrej znajomości danych i potrzeb nie jest możliwe zaplanowanie żadnej dostawy. Analiza danych pozwala m.in. na zwiększenie efektywności działań, redukcję kosztów oraz poprawę jakości dostaw. Integracja danych z różnych źródeł pozwala na tworzenie bardziej precyzyjnych planów oraz podejmowanie lepszych i szybszych decyzji biznesowych. To wszystko przekłada się na zyski oraz zadowolenie klientów. W logistyce istotną kwestią pozostaje dobra organizacja przetwarzania i korzystania z danych oraz zachowanie ich w poufności, tak aby nie naruszyć tajemnicy przedsiębiorstwa i nie narazić się na działania nieuczciwych konkurentów.

W jaki sposób rozwiązania generatywnej sztucznej inteligencji mogą być przydatne w logistyce? Przede wszystkim jest to automatyzacja procesów decyzyjnych. Rozwiązania te pozwalają na szybsze analizowanie wielu zbiorów danych i wskazywanie wzorców, które trudno dostrzec przy takim ogromie danych. Inne przydatne zastosowanie to przykładowo zarządzenie łańcuchem dostaw, optymalizacja tras, czy przewidywanie ewentualnych opóźnień. Wreszcie chociażby usprawnienie zdalnych spotkań pracowników czy zarządu z podmiotami zewnętrznymi może również zapewnić odpowiednie narzędzie AI. Rozwiązania wspierające pracę w logistyce (i nie tylko) zyskują coraz bardziej na popularności i kuszą łatwością dostępu oraz przyspieszeniem zamierzonych wyników. Na chwilę obecną rozwiązania AI mogą stanowić istotne wsparcie dla logistyki, jednak nadal powinny być używane pod czujnym okiem człowieka.

Ryzyka związane z korzystaniem z AI w logistyce

Korzyści z używania narzędzi sztucznej inteligencji można byłoby wymieniać wiele, ale nie można tracić z pola widzenia także ryzyk jakie niesie za sobą korzystanie z tych narzędzi. W odniesieniu do danych należy wyróżnić kilka najważniejszych ryzyk takich jak bezpieczeństwo danych, wykorzystanie luk w zabezpieczeniach rozwiązań sztucznej inteligencji, tajemnica przedsiębiorstwa, prywatność, błędy w danych, brak przejrzystości czy zależność od technologii i zbytnie poleganie jedynie na tak otrzymanych wynikach.

Bezpieczeństwo danych to podstawa w działalności każdego przedsiębiorcy, a więc i w branży logistycznej, w której przetwarzanie dużej ilości danych stanowi normę i  jest nieuniknione. Takie przetwarzanie danych w narzędziach sztucznej inteligencji zwiększa ryzyko wycieku danych lub nieautoryzowanego dostępu. Nierzadko dane mogą zawierać informacje o klientach i partnerach biznesowych, które objęte są poufnością wynikającą z zawartych umów o zachowaniu poufności (umowy NDA). Również ten aspekt obok tajemnicy przedsiębiorstwa powinien być brany pod uwagę w przypadku użycia narzędzi AI.

Dostępne rozwiązania sztucznej inteligencji nie są doskonałe, rozwijają się coraz bardziej, ale mogą zawierać różne luki w zabezpieczeniach co może z kolei doprowadzić do uzyskania dostępu osób trzecich do informacji poufnych. Co więcej, wiele z danych wykorzystywanych w logistyce może być objęte przecież tzw. tajemnicą przedsiębiorstwa. Pod tym pojęciem rozumiemy informacje techniczne, technologiczne, organizacyjne przedsiębiorstwa lub inne informacje posiadające wartość gospodarczą, które jako całość lub w szczególnym zestawieniu i zbiorze ich elementów nie są powszechnie znane osobom zwykle zajmującym się tym rodzajem informacji albo nie są łatwo dostępne dla takich osób, o ile uprawniony do korzystania z informacji lub rozporządzania nimi podjął, przy zachowaniu należytej staranności, działania w celu utrzymania ich w poufności. Z kolei naruszenie poufności może kosztować przedsiębiorcę wiele w przypadku naliczenia kar umownych wynikających z zawartej umowy NDA. Nie można zapomnieć również o ryzyku przetwarzania danych osobowych w rozwiązaniach generatywnej AI, co może pozostawać w sprzeczności z RODO.

Kolejne ryzyko jakie może mieć znaczenie dla branży logistyki to ewentualnie zdarzające się błędy w wynikach uzyskiwanych w narzędziach sztucznej inteligencji. Powszechnie wiadomo, że rozwiązania te nie są jeszcze doskonałe, cały czas uczą się i mogą popełniać błędy. Nawet niejednokrotnie zawierają w swoich warunkach korzystania zastrzeżenia, że błędy mogą pojawiać się i sugeruje się, aby nie ufać w pełni wynikom bez ich sprawdzenia. Może dochodzić do zjawiska tzw. halucynacji. Problemem w takim wypadku może stać się brak możliwości prześledzenia w jaki sposób sztuczna inteligencja doszła do takiego a nie innego wyniku. Odtworzenie jej procesu „myślenia” nie jest tutaj zazwyczaj możliwe. Poleganie w 100% na rozwiązaniach AI może spowodować również uśpienie czujności organizacji, co może prowadzić do osłabienia zdolności pracowników do samodzielnego podejmowania decyzji i braku zapanowania nad przepływem informacji. Co więcej, narzędzia sztucznej inteligencji mogą czasami zawodzić – mogą zdarzyć się awarie systemów, błędy wynikające z niezrozumienia danego działania i inne czynniki, które mogą mieć znaczenie dla prawidłowego działania AI. Otwiera to również pole do dyskusji kto w takim wypadku powinien ponieść odpowiedzialność za błędy sztucznej inteligencji, jednak jest to temat na inny artykuł. Niezależnie od tego niezbędna jest weryfikacja otrzymywanych wyników i konfrontowanie ich z posiadaną wiedzą oraz wypracowanymi strategiami.

Zrozumienie tych przykładowo wskazanych ryzyk i podjęcie odpowiednich działań może pomóc przedsiębiorcom działającym w branży logistycznej w skutecznym korzystaniu z rozwiązań sztucznej inteligencji.

W jaki sposób można zminimalizować wskazane ryzyka?

Przede wszystkim istotne jest ustalenie zakresu danych, które będą wprowadzane do narzędzi AI. Weryfikacja tych danych, możliwości ich użycia i zakresu ich poufności jest niezbędne dla podjęcia działań mających na celu wdrożenie rozwiązań AI. Kluczowe jest także dokładne zweryfikowanie narzędzia, z którego chcemy korzystać przy przetwarzaniu danych, jakie są warunki korzystania z niego oraz w jaki sposób i w jakich celach narzędzie to gromadzi dane. Istotne jest kto jest dostawcą danego narzędzia, czy spełnia ono aktualne wymogi prawne. Najlepiej więc korzystać ze sprawdzonych rozwiązań, a jeśli jest to nowe rozwiązanie to przeprowadzenie odpowiednich testów zanim narzędzie to będzie wykorzystywane w codziennej pracy. Mówiąc o narzędziach AI mam na myśli nie tylko te dedykowane dla branży logistycznej, ale i powszechnie dostępne rozwiązania AI, które mogą pomóc usprawnić podejmowane działania.

Czy dane Twojej organizacji trenują AI?

Ważne jest też przykładowo, czy wprowadzone przez nas dane staną się danymi treningowymi takiego narzędzia, czy zapisywana jest historia zapytań czy innych działań. Odpowiedzi na te wątpliwości mogą rozwiać warunki korzystania (Terms of Use), reguły różnych planów dostępu do narzędzia oraz poznanie zasad działania danego narzędzia czy funkcjonalności rozwiązania. Nierzadko być może kontakt z dostawcą planowanych do wykorzystania narzędzi pozwoli na uzyskanie adekwatnej wiedzy. Co też wymaga uwagi to sprawdzenie, czy dane narzędzie może być wykorzystywane w celach komercyjnych. Tutaj jak wcześniej wspomniano warunki korzystania będą odpowiednim dokumentem, w którym należy poszukiwać odpowiedzi i rozwiać wątpliwości. Ostatnio na popularności zyskują rozwiązania usprawniające spisywanie notatek ze zdalnych spotkań. To dobry przykład na to, aby przed skorzystaniem z takiego narzędzia poznać jego reguły działania i zastanowić się, czy dane przekazywane podczas takich spotkań nie będą prowadzić do naruszenia tajemnicy przedsiębiorstwa. Warto użycie odpowiednich narzędzi skonsultować z prawnikiem. Nie można też tracić z pola widzenia faktu, że ustalenie przez dostawcę rozwiązania AI warunków korzystania może zmienić się po pewnym czasie lub wbrew tym warunkom dochodzi do ujawnienia danych osobom trzecim ze względu na błędy tego rozwiązania. Tym bardziej więc należy na bieżąco sprawdzać warunki korzystania z takich rozwiązań. Czasami pojawiają się nowe funkcjonalności danego rozwiązania, które mogą mieć tutaj znaczenie.

Czy Twoja organizacja posiada procedurę?

Trudno wskazać idealne rozwiązanie dla zachowania zasad bezpieczeństwa danych, zwłaszcza, że rozwiązania sztucznej inteligencji są cały czas rozwijane, dają wiele możliwości, ale również mogą powodować różne ryzyka. Minimalizacja ryzyk wymaga współpracy i świadomości wszystkich uczestników organizacji. Dla przedsiębiorcy i jego pracowników lub współpracowników przede wszystkim sugerowane jest tutaj wprowadzenie odpowiednich procedur wewnętrznych zapewniających legalność oraz etyczność podejmowanych działań w związku z wykorzystaniem danych w rozwiązaniach sztucznej inteligencji. Pracownicy powinni wiedzieć jakie są wytyczne dotyczące tego w jaki sposób i w jakim zakresie oraz które dane mogą być przetwarzane w narzędziach AI. Ważne jest również, aby dysponowali informacjami jak mają postępować w przypadku zaistnienia nieprawidłowości czy ujawnienia tajemnicy przedsiębiorstwa (tym bardziej tej niezamierzonej). Istotne są także szkolenia i stała edukacja pracowników na temat potencjalnych zagrożeń i konsekwencji niezgodnego z prawem użycia danych w narzędziach AI oraz ujawnienia danych. Wiedza pracowników na temat tego jak działają poszczególne narzędzia, jakie dane wprowadzane są do nich oraz jak są wykorzystywane przez AI może pomóc uniknąć niemałych problemów prawnych. Pracownicy muszą mieć świadomość tego kiedy użycie danych w systemach AI prowadzi do naruszeń przepisów prawa, zasad ochrony tajemnicy przedsiębiorstwa, czy poufności informacji wynikających z zawartych umów NDA. Bieżące omawianie zauważanych problemów także może być pomocne dla użycia AI.

Również regularne sprawdzanie warunków korzystania, zasad działania i zgodności z prawem stosowanych rozwiązań może stać się pomocne dla uniknięcia wycieku danych oraz zachowania zasad bezpieczeństwa. Dla uniknięcia ewentualnych roszczeń kontrahentów warto przeanalizować też możliwość użycia narzędzi AI, czy zawarte umowy dopuszczają ich użycie. Być może jest to kwestia renegocjacji zawartych już kontraktów.

Nie można zapominać o konieczności upewnienia się co do podstawy przetwarzania danych osobowych w rozwiązaniach AI. Przydatne będzie w takim wypadku przeanalizowanie istniejących polityk prywatności i ich zaktualizowanie w niezbędnym zakresie, w szczególności zasad związanych z przetwarzaniem danych osobowych, podstaw przetwarzania czy weryfikacja udzielonych zgód przez użytkowników. Zasadnicze jest określenie jakie dane mogą być wprowadzane do narzędzi AI, w jakim zakresie, na jakiej podstawie oraz czy powinny pozostać zanonimizowane.

Podsumowanie

Jak widać na podstawie powyższego używanie narzędzi AI w logistyce wymaga często przeanalizowania i wzięcia pod uwagę wielu ryzyk związanych z wykorzystaniem danych. Minimalizacja ryzyka naruszenia tajemnicy przedsiębiorstwa czy zgodnego z prawem wykorzystania danych może pozwolić na usprawnienie działań i czynności podejmowanych na co dzień podczas wielu procesów decyzyjnych. Wieloaspektowość wykorzystania danych w rozwiązaniach AI wymaga zwrócenia uwagi na szereg ryzyk i podjęcia środków zapewniających bezpieczeństwo pracy z danymi.

 

 

O autorce: Marta Lampart – radca prawny, specjalizuje się w prawie własności intelektualnej oraz prawie ochrony danych. Pasjonują ją zagadnienia prawne związane z funkcjonowaniem sztucznej inteligencji. Ukończyła Podyplomowe Studium Prawa Autorskiego, Wydawniczego i Prasowego w dawnym Instytucie Prawa Własności Intelektualnej UJ oraz Szkołę IT dla prawników organizowanej przez Akademię Leona Koźmińskiego w Warszawie. Reprezentuje przedsiębiorców przed UPRP i EUIPO.

Powrót do blogu