Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124

Choć generatywnej AI ufa dziś więcej organizacji niż jakiejkolwiek innej technologii sztucznej inteligencji, większość firm nie podejmuje konkretnych kroków, by to zaufanie naprawdę uzasadnić — wynika z raportu Data and AI Impact Report: The Trust Imperative, przygotowanego przez IDC na zlecenie SAS.
Według badania aż 81 % ankietowanych firm deklaruje użycie generatywnej AI, podczas gdy tradycyjnych modeli uczenia maszynowego używa 66 %, agentowej AI — 52 %, a technologii kwantowej — 30 %. Co więcej, aż 48 % respondentów przyznaje najwyższy poziom zaufania do GenAI, podczas gdy zaufanie do tradycyjnej AI deklaruje tylko 18 %. W środowiskach mniej zaawansowanych technologicznie generatywna AI cieszy się nawet trzykrotnie wyższym zaufaniem niż klasyczne modele.
Ten rozdźwięk — między percepcją a realną odpowiedzialnością — stanowi centralne zagadnienie raportu. Zaufanie organizacji do AI jako takiej deklaruje 78 %, ale tylko 40 % firm faktycznie inwestuje w praktyki podnoszące wiarygodność (transparentność, zarządzanie, etyka).
Raport wskazuje, że organizacje traktujące kwestie zaufania jako kluczowe mają aż o 60 % większą szansę na podwojenie zwrotu z inwestycji w AI. Z kolei mniej dojrzałe podmioty — jeśli w ogóle wdrażają praktyki odpowiedzialnej AI — najczęściej wybierają jedynie generatywne modele, mimo że ich zachowanie bywa bardziej nieprzewidywalne.
To klasyczny dylemat: AI staje się centralną osią operacji, ale fundamenty — dane, zarządzanie, nadzór — pozostają niedomknięte.
Główne bariery technologiczne
Wśród trzech kluczowych wyzwań, które hamują rozwój AI, liderzy wskazują:
1. Nieoptymalne środowiska danych i brak scentralizowanych architektur (49 %).
2. Brak ustandaryzowanych procesów zarządzania danymi (44 %).
3. Niedobór wykwalifikowanych kadrowo specjalistów (41 %).
Dostęp do użytecznych źródeł danych — wskazany przez 58 % respondentów — jest najczęstszą przeszkodą. Ponadto, obawy dotyczące prywatności (62 %), braku transparentności (57 %) i aspektów etycznych (56 %) towarzyszą każdemu wdrożeniu GenAI.
Choć technologie kwantowe nadal funkcjonują głównie w fazie badań, prawie 30 % decydentów deklaruje ich znajomość, a 26 % — pełne zaufanie do Quantum AI.([sas.com][1]) To sygnał, że hype wyprzedza praktykę.
Analiza wykazuje geograficzne różnice: kraje o bardziej uregulowanym rynku (jak niektóre państwa w UE) wykazują lepsze wskaźniki rzetelności (Trustworthy AI Index) i skuteczności AI (Impact Index). Tam, gdzie równoważenie zaufania i wiarygodności jest zrozumiane jako strategiczny warunek, skoki efektywności są największe.
Wdrażanie AI bez budowy solidnych fundamentów to ryzykowna strategia z potencjałem krótkoterminowego wzrostu, ale z długofalowym osłabieniem. W środowisku, w którym AI staje się mniej narzędziem wspomagającym, a bardziej kanałem podejmowania kluczowych decyzji — transparentność, etyka i kontrola stają się warunkiem jego trwałego sukcesu.