Home/business/Placebo AI. Jak technologia motywuje pracownikow

business

Placebo AI. Jak technologia motywuje pracownikow

Czy sztuczna inteligencja daje wiekszego kopa do pracy niz kawa Jacek Gralak dyrektor portfolio AI w TT PSC zdradza tajemnice placebo AI i innych psychologicznych efektow ktore ujawniaja sie w toku interakcji pracownik maszyna.

September 26, 2024 | business

Niektórzy pojęcie sztucznej inteligencji rozciągają na wszystkie bardziej zaawansowane technologie. Jak to może wpłynąć na użytkowników narzędzi AI? Jacek Gralak: Niekiedy ten wpływ jest naprawdę duży. Psycholodzy mówią nawet o efekcie placebo AI. Według badań, samo przypisanie narzędziu IT atrybutu inteligencji podnosi motywację i wydajność jego użytkowników. Wyobraźmy sobie pracownika, któremu tylko się wydaje, że korzysta z programu AI, a w rzeczywistości jest to rozwiązanie o małym stopniu zaawansowania technologicznego. Mimo to prawdopodobnie będzie on bardziej zaangażowany w swoją pracę i zdeterminowany oraz będzie miał podwyższoną samoocenę. To chyba dobrze? Nie zawsze. Wysoka samoocena jest wartościowa, jeśli odzwierciedla rzeczywiste zalety i kompetencje. Determinacja może natomiast prowadzić do przekraczania planów i realizacji projektów na wyższym poziomie, ale jest też druga strona medalu: osoby szczególnie zmotywowane i zaangażowane często wykazują nadmierny optymizm, podejmują ryzykowne decyzje i chętniej delegują zadania. Im większą mają władzę, tym większe prawdopodobieństwo, że ich działania zaszkodzą zespołowi lub firmie. Badania pokazują, że w towarzystwie innych osób trudne zadania wydają się łatwiejsze, a przeszkody mniej przerażają. Generatywna AI wydaje się działać na nas w podobny sposób. Czy to nie pewna forma personifikacji technologii? Trafna analogia. Naszego cyfrowego asystenta przestajemy postrzegać jak zwykłe narzędzie, a zaczynamy widzieć w nim towarzysza, a może nawet przyjaciela, który łagodzi lęki i dodaje pewności siebie. Jak mówi mądrość ludowa, w dwójkę raźniej, a co dwie głowy, to nie jedna. To właśnie ten psychologiczny aspekt, związany z przekonaniami i uczuciami, sprawia, że sztuczna inteligencja może tak znacząco wpływać na naszą motywację i skłonność do podejmowania ryzyka. Mamy poczucie, że AI nas asekuruje, dlatego chętniej porywamy się na rzeczy, które nas przerastają, bagatelizując problemy i przeszkody. O naszej motywacji decyduje autosugestia? W zakamarkach naszej psychiki kryją się tajemnice, które nieustannie nas zaskakują. Oto jedna z nich: gdy ludziom powiemy, że ich narzędzia nie mają inteligencji, wbrew temu, co sądzili wcześniej, oni i tak pracują z większym zapałem od tych, którzy od początku wiedzieli o braku AI w swoich programach. Kolejna zagadkowa kwestia: jeśli jesteśmy przekonani, że nasze rozwiązania technologiczne nie są inteligentne, mimo że są, częstym skutkiem jest niższa wydajność i zniechęcenie. To zjawisko można nazwać nocebo AI, czyli odwrotnością placebo. Fascynujące. Jak można wykorzystać tę wiedzę w praktyce? Zrozumienie efektów placebo i nocebo w kontekście AI może pomóc w tworzeniu bardziej przyjaznych interfejsów użytkownika i systemów wsparcia, które minimalizują negatywne skutki psychologiczne. Motywacyjne niuanse korzystania ze sztucznej inteligencji powinny również zainteresować menedżerów. Muszą oni zdawać sobie sprawę, że pracownicy, którzy wierzą we wsparcie AI, częściej podejmują ryzykowne decyzji. To coś, co wymaga uważnego monitorowania i zarządzania. Ważna jest także samoświadomość: szef może stać się ofiarą własnej autosugestii, zyskując poczucie wszechmocy lub nieomylności, a w rezultacie narażając firmę na straty. Czy menedżerowie zdobywają się na taką autorefleksję? Współpracując z liderami biznesu, widzę, jak poważnie traktują zagrożenia związane ze sztuczną inteligencją. Niestety, w większości firm temat AI sprowadza się do zachwytów nad fenomenem konwersacji z czatbotami. To jakby patrzeć na szczyt góry lodowej i lekceważyć ogromną masę ukrytą pod wodą. AI to znacznie więcej niż takie produkty jak ChatGPT, Copilot i Gemini. To również serwisy translacyjne, arkusze kalkulacyjne czy systemy nawigacji GPS. Takie rozwiązania od lat wspierają nas w codziennych czynnościach, od tłumaczenia tekstów przez obliczenia do planowanie tras. To pokazuje, jak głęboko AI jest już wpleciona w nasze życie. Jesteśmy jak pan Jourdain z komedii Moliera, który przez całe życie nie zdawał sobie sprawy, że mówi prozą. Niektórzy widzą sztuczną inteligencję w każdym narzędziu IT, podczas gdy inni dostrzegają ją tylko w najbardziej zaawansowanych technologiach. Ta druga skrajność może wynikać z nawyków społecznych. Jeszcze kilka lat temu sztuczna inteligencja kojarzyła się głównie z fikcją naukową. Dziś jest elementem codzienności i wiele osób nie może uwierzyć, że coś tak zwyczajnego, jak asystent w telefonie, w ogóle podpada ma związek z AI. A czemu zawdzięczamy tak częste nadużywanie terminu „sztuczna inteligencja”? To sprytny zabieg marketingowy, którego skuteczność jednak z czasem może ulec osłabieniu. Produkty i usługi opatrzone etykietą „AI” budzą skojarzenia z innowacyjnością i postępem technologicznym. Jeśli jednak nie spełniają tych wysokich oczekiwań, następują rozczarowania i utrata zaufania klientów. Nadużywanie terminu „sztuczna inteligencja” prowadzi do jego dewaluacji. Wcześniej czy później potencjalni użytkownicy staną się bardziej sceptyczni, co utrudni promocję narzędzi, które faktycznie zasługują na miano inteligentnych. W dłuższej perspektywie może to zmusić firmy do bardziej precyzyjnego i uczciwego komunikowania wartości swoich produktów. Często podkreślam, że zbyt głośne eksponowanie „AI” w nazwach usług przynosi więcej szkody niż pożytku, co potwierdzają również analitycy Gartnera. Powoli rynek oswaja się z pojęciem sztucznej inteligencji, więc jej obecność przestaje być czynnikiem wyróżniającym. Jeśli producenci, marketingowcy i sprzedawcy chcą podnieść swoją skuteczność, muszą wykazać się większą kreatywnością komunikacyjną, zachowując przy tym rzetelność. Jakaś rada dla pracowników korzystających z AI? Jednym z głównych problemów związanych z narzędziami AI jest ich nieumiejętne używanie, zwłaszcza przy tworzeniu treści. Bombardowani jesteśmy materiałami od komunikatów marketingowych po artykuły branżowe – w których nie widać bodaj śladu ludzkiej inwencji. Niestety, obowiązuje tu zasada „co włożysz, to uzyskasz”. Jeśli wprowadzimy zbyt proste zapytania, nie możemy oczekiwać rewelacyjnych efektów. Czatbot wyprodukuje sztuczne i sztampowe treści, które łatwo rozpoznać jako produkt AI. Może to zdyskredytować markę w oczach potencjalnych klientów. Pisanie dobrych promptów to sztuka, której firmy nie uczą. Jednocześnie nie ostrzegają pracowników przed nadmiernymi oczekiwaniami wobec AI. Ludzie często myślą, że sztuczna inteligencja przyniesie natychmiastową poprawę efektywności oraz innowacyjności, ale rzeczywistość bywa rozczarowująca. Kiedy oczekiwania nie zostają spełnione, zaufanie do tych narzędzi nierzadko gwałtownie spada. Szkoda, ponieważ mówimy o wspaniałych asystentach, z którymi jednak musimy nauczyć się współpracować. Oznacza to m.in. znajomość ich możliwości, lecz także ograniczeń. To wszystko pokazuje, że samo wdrożenie tej technologii nie wystarczy; trzeba również stworzyć odpowiednie warunki, aby wykorzystać ją dla dobra firmy, pracowników, klientów. Cytując słynną maksymę, z wielką mocą AI przychodzi wielka odpowiedzialność.

SOURCE : pb
RELATED POSTS

LATEST INSIGHTS