
Czy sztuczna inteligencja jest godna zaufania? O szansach, zagrożeniach i odpowiedzialności
Sztuczna inteligencja przestała być nowinką techniczną – stała się codziennością i realnym wsparciem w wielu dziedzinach. Usprawnia funkcjonowanie biznesu, ma wkład w rozwój nauki, wspomaga rozmaite instytucje. Czy szerokie wykorzystanie AI idzie w parze z zaufaniem do tego narzędzia? Jakie są oczekiwania wobec tzw. odpowiedzialnej sztucznej inteligencji i jakie korzyści może ona przynieść?
Wraz z upowszechnieniem AI zaczęto badać stosunek do tej technologii zarówno indywidualnych osób, jak i organizacji: nie tylko czy – choć to już przyjmuje się prawie za pewnik – ale też jak korzystają ze sztucznej inteligencji i czy jej ufają, jak szacują szanse i ryzyka.
W Polsce kwestia ta jawi się jako dość skomplikowana, co dobrze oddaje tytuł raportu KPMG, który poświęcono temu zagadnieniu – „Sztuczna inteligencja w Polsce. Krajobraz pełen paradoksów”.1 77% uczestników deklaruje co najmniej umiarkowaną zgodę na obecność sztucznej inteligencji w codziennych zadaniach, zaś 69% regularnie korzysta z AI (przynajmniej raz na kilka miesięcy). W obu przypadkach to wynik powyżej globalnej średniej, która wynosi odpowiednio 72% i 66%, lepszy niż w USA czy Niemczech. Równocześnie zaledwie 41% respondentów ufa AI, mniej niż średnia światowa, która wynosi 46%. Dla porównania: nieufność deklaruje aż 43% ankietowanych z Polski (globalnie – 35%). Zatem korzystamy, ale z dystansem.
Jako czynniki zwiększające zaufanie do AI Polacy najczęściej wskazują m.in. prawo do wycofania zgody na wykorzystywanie przez AI danych osobowych (89%), monitorowanie dokładności i niezawodności AI (86%) oraz przestrzeganie standardów międzynarodowych w zakresie przejrzystości i zarządzania ryzykiem związanym z AI (86%). To, w jakim stopniu ufamy wykorzystaniu sztucznej inteligencji, zależy od typu organizacji. Co ciekawe, całkiem sporym zaufaniem w Polsce cieszą się big techy, które uzyskały 70% wskazań (więcej niż w innych krajach rozwiniętych, gdzie ten wynik czasem wynosi poniżej 60%). Jeszcze lepiej wypada sektor opieki zdrowotnej (72%), zaś na czele znajdują się uniwersytety i ośrodki naukowo-badawcze – aż 87% badanych uważa, że instytucje nauki wykorzystują i rozwijają AI w najlepszym interesie społecznym. Z kolei najniższy poziom zaufania w kwestii AI deklarujemy wobec organizacji komercyjnych (64%) i instytucji państwowych (55%).2
Tu należałoby postawić pytanie: co robi AI, żeby zapracować na nasze zaufanie, a może właśnie brak zaufania? Czasy, gdy algorytm, który służył do rozpoznawania obrazów, po niewielkiej modyfikacji obiektu widział coś zupełnie odmiennego niż człowiek (np. strzelbę zamiast żółwia), to dla technologii AI wręcz prehistoria. Jednocześnie nadal potrafi się ona mylić, czego dowodzi badanie przeprowadzone przez BBC i Europejską Unię Nadawców (EBU), a opublikowane w październiku 2025 r.3
Polegało ono na analizie zdolności asystentów AI do interpretowania wiadomości z internetu. Na warsztat wzięto ponad 3000 odpowiedzi udzielonych przez ChataGPT, Microsoft Copilot, Google Gemini i Perplexity, które były oceniane pod kątem dokładności, pozyskiwania informacji, odróżniania opinii od faktów i dostarczania kontekstu. Aż 45% odpowiedzi zawierało przynajmniej jeden znaczący błąd, w 31% zastrzeżenia budziły źródła (np. brak przypisów, nieprawidłowe odsyłacze), 20% to problemy z dokładnością odpowiedzi. Najgorzej wypadł Gemini, u którego w 75% odpowiedzi wystąpiły poważne błędy. Przykładowo, we wcześniejszej edycji badania ChatGPT i Copilot twierdziły, że Rishi Sunak (premier Wielkiej Brytanii) i Nicola Sturgeon (Pierwsza Minister Szkocji) nadal pełnią swoją funkcję, mimo że już zrezygnowali ze stanowiska.
Tu należy zwrócić uwagę, że umiejętności zreferowania czy porównania już istniejących informacji to coś o stosunkowo małym ciężarze. Skoro AI nie radzi sobie dobrze nawet z tym, to jak zaufać jej w autonomicznych samochodach, zarządzaniu procesami w przedsiębiorstwie czy diagnozowaniu chorób? Omylność sztucznej inteligencji rzutuje na ocenę jej wiarygodności. Przeważająca większość (od 73% do 84%) uczestników badania BBC i EBU deklaruje, że na ich stosunek do sztucznej inteligencji – w domyśle negatywny – miałyby wpływ błędy w udzielanych przez nią odpowiedziach (merytoryczne, dotyczące źródeł albo przedstawiania opinii jako faktów).
Tymczasem duże modele językowe wypowiadają się z dużą pewnością siebie, nawet jeśli ich odpowiedzi są błędne lub nieprawdziwe, co zbadali naukowcy z Carnegie Mellon University w USA4. Przez to ludzie są skłonni nadmiernie ufać chatbotom, co może rodzić dalsze problemy. Według „Reuters Institute Digital News Report 2025” obecnie 7% odbiorców wiadomości w internecie uzyskuje je za pomocą asystentów AI, przy czym aż 15% wśród osób poniżej 25. roku życia. We wspomnianym badaniu KPMG 54% ankietowanych z Polski przyznaje, że doświadczyło wprowadzenia w błąd (dezinformacji) w związku z użyciem AI, zaś 86% wyraża niepokój z tego powodu. Lęki te mają charakter globalny – wielu użytkowników AI obawia się, że deepfake’i, które generuje AI, będą odbierane jako prawdziwe informacje, a pozbawiona ludzkiego nadzoru AI wymknie się spod kontroli.5
W tej sytuacji na znaczeniu zyskuje odpowiedzialna sztuczna inteligencja, rozumiana jako odpowiednio zaprojektowane systemy – tak by były przejrzyste, uczciwe i bezpieczne dla użytkowników – ale też sposób adaptowania ich i rozwijania przez organizacje. Kwestie te reguluje AI Act, unijne rozporządzenie w sprawie sztucznej inteligencji, które częściowo weszło w życie w 2025 r. Jednak należy pamiętać, że w wielu dziedzinach AI zmierza w stronę coraz większej autonomii, co wiąże się z większą efektywnością działania, a jednocześnie stwarza nowe ryzyka. Firma doradcza EY wymienia trzy etapy odpowiedzialnej implementacji AI: zakomunikowanie jasnych zasad korzystania ze sztucznej inteligencji wewnątrz i na zewnątrz organizacji, realizację, czyli opracowanie mechanizmów kontroli (uwzględniających też rolę człowieka), kluczowych wskaźników efektywności i szkolenia pracowników oraz finalnie – wdrożenie ustalonych reguł i nadzoru.6
Świadomość skutków użycia AI i konieczności przestrzegania zasad powinna obejmować wszystkie szczeble organizacji. Jak się jednak okazuje, w polskich firmach tylko niespełna połowa pracowników (45%) zawsze lub zazwyczaj weryfikuje poprawność wyniku uzyskanego dzięki AI. 1/3 rozważa korzyści i zagrożenia związane z narzędziem AI przed jego użyciem, a jeszcze mniej (30%) zastanawia się nad etycznymi konsekwencjami korzystania z treści generowanych przez AI. Co piąty pracownik nie wie, czy w jego organizacji istnieją zasady i praktyki regulujące odpowiedzialne korzystanie z AI. Jednocześnie ponad połowa (55%) używających AI w pracy nie przyznaje się do tego, a wygenerowane efekty przedstawia jako własne . Dlatego tak istotną rolę odgrywa edukacja i zwiększanie kompetencji w tej dziedzinie, do czego zresztą zobowiązuje organizacje AI Act.
Odpowiedzialna AI to nie tylko idea, która dobrze wygląda na papierze, element strategii i wartości firmy, lecz wymierne korzyści dla firm, które wcieliły ją w życie, bo pomaga minimalizować zagrożenia. Świadczą o tym wyniki badania EY „Global Responsible AI Pulse” . 99% firm, które wzięły w nim udział, ujawniło szkody finansowe z powodu incydentów związanych ze sztuczną inteligencją, a ich średnia wartość to 4,4 mln dolarów. Widać jednak, że ryzyko strat maleje wraz z liczbą wdrożonych mechanizmów kontroli i wsparcia AI. Aż 80% respondentów deklaruje poprawę wydajności i produktywności, do czego przyczyniło się wdrożenie odpowiedzialnej AI, a 79% potwierdza skrócenie czasu od prototypowania do wdrożenia oraz pobudzenie innowacji. 57% badanych zauważa pozytywny wpływ AI na satysfakcję pracowników, 54% wzrost przychodów, a 48% – oszczędności. Dla osiągnięcia takich wyników kluczowe jest funkcjonowanie w organizacji środków zarządzania AI, w tym monitorowania w czasie rzeczywistym i komitetów nadzoru.
1) https://assets.kpmg.com/content/dam/kpmg/pl/pdf/2025/07/pl-Raport-KPMG-w-Polsce-KPMG-AI-Trust-2025-web.pdf [dostęp 20.11.2025].
2) Tamże.
3) https://www.bbc.co.uk/aboutthebbc/documents/audience-use-and-perceptions-of-ai-assistants-for-news.pdf [dostęp 20.11.2025].
4) https://www.cmu.edu/news/stories/archives/2025/july/ai-chatbots-remain-confident-even-when-theyre-wrong [dostęp 20.11.2025].
5) https://www.ey.com/pl_pl/newsroom/2025/05/ey-ai-sentiment [dostęp 20.11.2025].
6) https://www.ey.com/pl_pl/newsroom/2025/11/ey-responsible-ai-polska [dostęp 20.11.2025].
Dziękujemy za zapisanie się do Newslettera!
Spodobał Ci się artykuł i chcesz otrzymywać więcej ciekawych treści?
Bądź na bieżąco z naszymi najnowszymi artykułami i raportami specjalnymi, które pomogą Ci rozwijać Twój biznes.
