Logo

Marketing MIXTylko w OOH magazine

Własny asystent AI w firmie? Wykorzystanie systemów sztucznej inteligencji jako wsparcie w pracy – korzyści, wyzwania i aspekty prawne | Dr Katarzyna Turcza

Nie ulega wątpliwości, że na przestrzeni ostatnich lat sztuczna inteligencja (dalej także jako: „AI”) stała się niezwykle ważnym narzędziem technologicznym, wspomagającym rozwój firm na całym świecie. Szczególne wyzwania w tym zakresie przyniosły minione miesiące, co podyktowane było przede wszystkim wejściem w życie Aktu o AI – pierwszej kompleksowej regulacji prawnej dla systemów i modeli sztucznej inteligencji[1].

Obecnie wielu przedsiębiorców oraz firm staje przed zadaniem zaadaptowania i wdrożenia AI do prowadzonego biznesu. Zyskującym bardzo szybko na popularności zagadnieniem jest wykorzystanie systemu AI w zamkniętym środowisku pracy, gdzie stworzony w ten sposób „asystent”, pracując na firmowych dokumentach i materiałach, przetwarza i wykorzystuje wewnętrzne zasoby firmy.

Systemy sztucznej inteligencji pozwalają zautomatyzować wiele powtarzalnych i rutynowych zadań, wśród których można wymienić chociażby analizę dokumentów, przeszukiwanie informacji czy tworzenie podsumowań, raportów oraz prostych pism. Takie odciążenie pozwala natomiast pracownikom poświęcić się innym, bardziej istotnym oraz wymagającym czynnościom. O ile taka współpraca między człowiekiem a systemem pozostaje nieoceniona, to dla jej efektywności niezbędne jest właściwe zaprogramowanie i przeszkolenie sytemu AI do środowiska, w którym ma ono funkcjonować.

DR Katarzyna Turcza

Jak można sądzić, a co sugeruje także dotychczasowa praktyka, jednym z najpoważniejszych wyzwań przy wdrażaniu AI w firmie jest ryzyko związane z poufnością danych. Nie jest bowiem tajemnicą, że duże i aktywnie działające na rynku przedsiębiorstwa, przetwarzają każdego dnia ogromne ilości informacji, związane z pracownikami, klientami czy partnerami biznesowymi. Nie należy przy tym zapominać, że żyjemy w czasach tzw. RODO[2], które nakłada na każdy podmiot będący administratorem czyichś danych osobowych bezwzględny obowiązek ich ochrony przed kradzieżą, nieuprawnionym dostępem, modyfikacją czy utratą. Dopuszczenie AI do pracy w firmie powoduje, że system nieuchronnie staje się elementem procesu przetwarzania danych, co z kolei nakłada na przedsiębiorstwo liczne obowiązki prawne. Kluczowym wymogiem dla zapewnienia zgodności systemu AI z regulacjami dot. ochrony danych osobowych jest stworzenie bezpiecznego środowiska, w którym sztuczna inteligencja te dane przetwarza. Obejmuje to przede wszystkim stosowanie systemów szyfrowania, indywidualnie przygotowanych technik zarządzania dostępem oraz regularne audyty bezpieczeństwa.

Planując wdrożenie systemu AI, warto również dokładnie przeanalizować rynek pod kątem odpowiedniego partnera technologicznego, dostarczającego nam to narzędzie wraz z jednoczesną analizą stosowanej przez ten podmiot polityki bezpieczeństwa oraz przestrzegania zgodności z obowiązującymi przepisami. Zawarta przez przedsiębiorstwo umowa z takim dostawcą powinna w szczególności regulować kwestie, takie jak zakres odpowiedzialności za przetwarzanie danych czy procedury postępowania w przypadku incydentów zagrażających ich bezpieczeństwu. Należy także rozważyć wprowadzenie klauzuli poufności (NDA), której postanowienia mogą zabezpieczyć interesy biznesowe firmy, w tym dostęp do wypracowanego do tej pory i stosowanego know-how.

DR Katarzyna Turcza

Wśród innych newralgicznych aspektów związanych z wprowadzeniem pomocnika AI do firmy wymienić należy wykonanie audytu technologicznego, którego wyniki pozwolą ocenić czy istniejące systemy informatyczne są odpowiednie do kooperacji z narzędziami sztucznej inteligencji. Nieodzowna jest ponadto gruntowna analiza wewnętrznych potrzeb, pozwalająca na identyfikację obszarów, w których AI może przynieść największe korzyści, a także szkolenie pracowników, które powinno zapewnić personelowi korzystającemu z AI umiejętności i wiedzę konieczną do efektywnej, a przede wszystkim zgodnej z obowiązującymi regulacjami współpracy z AI. Należy pamiętać, że AI doświadcza obecnie bardzo dynamicznego rozwoju, co wiąże się z regularnymi nowościami i zmianami prawnymi w tym obszarze. W związku z tym, pracownicy powinni być nieustannie dokształcani, tak, aby pozostać na bieżąco z obowiązującymi normami oraz wymogami w tym obszarze.

Z wykorzystywaniem asystenta AI w codziennych czynnościach wiąże się ponadto zagadnienie, budzące prawdopodobnie największe obawy i wątpliwości wśród potencjalnie zainteresowanych takim rozwiązaniem podmiotów. Mianowicie kwestia odpowiedzialności za decyzje podejmowane przez algorytmy. O ile AI ma być wyłącznie pomocą funkcjonującą w oparciu o wprowadzone dane, to w sytuacji, kiedy na podstawie jej działań podejmowane są decyzje odnoszące się do sfer prawnych lub finansowych, ewentualny błąd w takich ustaleniach może prowadzić do wymiernych konsekwencji. W tym momencie pojawia się zatem pytanie, czy błędna decyzja AI obciąża przedsiębiorstwo, które wykorzystuje dany system, czy też producenta, który go dostarczył? Odpowiedź na tę wątpliwość daje częściowo unijny Akt o AI, który wskazuje, że w praktyce będzie to strona, która nie dopełniła swoich obowiązków. Nie jest zarazem wykluczone, aby odpowiedzialność ta miała charakter łączny, proporcjonalny do stopnia winy każdej ze stron. Ustawodawca unijny wyróżnia jednocześnie odpowiedzialność na zasadzie winy oraz na zasadzie ryzyka.

Pierwsza z nich odnosi się do operatora i obejmuje szkody będące wynikiem działania systemu sztucznej inteligencji oraz działania urządzenia sterowanego przez ten system, jeżeli operator zawinił w wystąpieniu zdarzenia powodującego szkodę. Drugi z rodzajów odpowiedzialności dotyczy natomiast podmiotów wdrażających systemy AI o poziomie ryzyka określonym jako wysokie. W przypadku wystąpienia zdarzenia powodującego szkodę, podmiot ten nie może zwolnić się od odpowiedzialności poprzez wykazanie braku winy w swoim działaniu.

DR Katarzyna Turcza

Warto pamiętać, zwłaszcza w okresie następującym bezpośrednio po wdrożeniu systemu AI do organizacji, że algorytmy stosowane przez sztuczną inteligencję mogą utrwalać powielane stereotypy lub błędy, co może prowadzić do nieprawidłowych wyników w odpowiedziach asystenta. Aby temu zapobiec, należy nieustannie monitorować i korygować zachowanie AI. Użytkownicy systemu powinni także wiedzieć, kiedy mają do czynienia ze sztucznym pomocnikiem, a kiedy z prawdziwym człowiekiem. Taka transparentność buduje niewątpliwie zaufanie i pozwala na odpowiedzialne stosowanie technologii w pracy. Rezultaty pracy AI powinny pozostawać zatem pod nadzorem ludzkim, w szczególności, jeśli chodzi o najważniejsze obszary działalności firmy. Wskazane jest wobec tego podejście, zgodnie z którym AI wspiera, a nie całkowicie zastępuje ludzką wiedzę. Może się to okazać kluczowe w tych aspektach, gdzie oprócz czystych danych oraz umiejętności, istotne pozostają także empatia czy zdolność dokonania etycznego i sprawiedliwego osądu sytuacji.

Wprowadzenie w firmie systemu AI jako asystenta przy realizacji codziennych zadań i czynności, to niewątpliwie milowy krok w rozwoju przedsiębiorstwa, który – przy odpowiedniej organizacji oraz zabezpieczeniu ryzyk prawnych – może przynieść ogromne korzyści. Przystępując do tego procesu, należy jednak dochować szczególnej staranności i zapewnić, aby został przeprowadzony w oparciu o zasady poufności i z poszanowaniem bezpieczeństwa danych firmowych, a także osób trzecich, w szczególności klientów oraz partnerów biznesowych. Wdrożenie AI z zachowaniem powyższych wymogów, pozwoli nie tylko zwiększyć efektywność pracy, ale także odciążyć niektórych pracowników od żmudnych i czasochłonnych zadań, które teraz będą mogły zostać wykonane w nieporównywalnie szybszym tempie. Podsumowując, sztuczna inteligencja to narzędzie, które może zostać nieodzownym i nieocenionym wsparciem w codziennej działalności firmy, wynosząc jej funkcjonowanie na wyższy poziom.


[1] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)Tekst mający znaczenie dla EOG (Dz. U. UE. L. z 2024 r. poz. 1689).
[2] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz. U. UE. L. z 2016 r. Nr 119, str. 1 z późn. zm.).

DR Katarzyna TurczaDr Katarzyna Turcza
Radca Prawny i Doradca Restrukturyzacyjny.

Posiada bogate doświadczenie w obsłudze prawnej krajowych i zagranicznych podmiotów m.in. z branży e-commerce, reklamowej, motoryzacyjnej oraz HORECA. Oprócz bieżącego doradztwa prawnego opracowuje strategie prawno-biznesowe, przygotowuje umowy i dokumenty handlowe ukierunkowane na ochronę praw przedsiębiorców. Publikuje artykuły prawnicze oraz udziela się na ogólnopolskich konferencjach naukowych. www.turcza.com.pl


Artykuł ukazał się w ostatnim numerze OOH magazine. Do wglądu online TUTAJ.