Home/business/Trzeba uwazac by nie sprowadzic AI na manowce

business

Trzeba uwazac by nie sprowadzic AI na manowce

Chociaz generatywna sztuczna inteligencja zdobywa kolejne przyczoki w nauce i biznesie to coraz czesciej widac tez jej ograniczenia. W tym te zwiazane z jakoscia danych i etyka.

By Anita Błaszczak | September 09, 2024 | business

Po prawie dwóch latach boomu na sztuczną inteligencję (AI) można już bardziej realnie ocenić jej wpływ na gospodarkę, w tym na rynek pracy, a także jej przyszłość. O tej przyszłości, a także wyzwaniach i nowych możliwościach, dyskutowali w Karpaczu uczestnicy debaty „Sztuczna inteligencja – Quo vadis?”. Jak zaznaczała Katarzyna Baliga-Nicholson, menedżer w Sano – Centrum Zindywidualizowanej Medycyny Obliczeniowej, dzisiaj myślenie o zagrożeniach związanych z AI zastępuje pragmatyzm. Widzimy już, że z pomocą sztucznej inteligencji są automatyzowane nie tyle stanowiska, ile poszczególne, często uciążliwe dla ludzi zadania. – Spełnia się obietnica, że technologia wchodzi w niechciane (przez ludzi – red.) obszary – zwracała uwagę ekspertka Sano. Zdaniem Marcina Chrząszcza z Akamai Technologies Poland, chociaż wielu menedżerów wysokiego szczebla widzi w AI rozwiązanie wszystkich problemów, to potrzeba jeszcze dużo danych i dużo czasu, by sztuczna inteligencja stała się realną konkurencją dla człowieka. Np. wyłapanie i naprawa bugów (błędów) powstałych przy generowaniu kodu przez ChatGPT zajmuje dziś ludziom więcej czasu niż jego samodzielne napisanie. W rozwoju AI kluczowa jest bowiem jakość danych, która na razie jest dużym wyzwaniem. Na to wyzwanie zwracał też uwagę prof. Ryszard Tadeusiewicz z Akademii Górniczo-Hutniczej w Krakowie, przypominając, że wykorzystywane w AI algorytmy uczenia maszynowego (ML) dają tym lepsze wyniki im więcej mają danych. Jednak dużym problemem jest jakość i wiarygodność tych danych, które mogą nie być prawdziwe. W wykorzystywanych przez AI zasobach internetu są zarówno rzetelne i wątpliwe informacje, a także celowo wprowadzane kłamstwa. – Na razie nie rozwiązaliśmy tego problemu. Nie wiemy, jak sprawdzić jakość danych, które radośnie wkładany do algorytmów ML. Jest więc ryzyko, że AI może nam zagrażać, bo ludzie sprowadzą ją na manowce – podkreślał prof. Tadeusiewicz, Katarzyna Baliga-Nicholson podkreślała, że to ludzie są odpowiedzialni za tzw. halucynacje AI, np. w przypadku ChatGPT, więc od razu, już teraz a nie na końcu powinniśmy pytać o etykę w rozwoju AI. Przykłady halucynacji w branży prawnej (nieistniejące orzeczenia sądów) przypominał Michał Kosobudzki, inspektor ochrony danych w Sano, który podkreślał znaczenie prawnych aspektów rozwiązań AI, a także znaczenie przyjętego niedawno przez Parlament Europejski projektu AIACT – pierwszego w świecie zestawu przepisów prawnych dotyczących sztucznej inteligencji. – Co prawda rozwiązania prawne nigdy będą nadążać za rozwojem technologii, ale jest to dobra próba – oceniał Kosobudzki. Według niego AIACT powinien wywołać podobny efekt jak RODO . Jak zaznaczał prof. Tadeusiewicz, skoro regulacje zawsze dotyczą rozwiązań poprzedniej generacji i zwykle są spóźnione, bardzo ważna jest ich elastyczność. Prowadzący debatę prof. Maciej Jaworski z Politechniki Krakowskiej pytał też o obawy związane z wpływem AI na rynek pracy. Zdaniem Michała Kosobudzkiego w branży prawniczej ten wpływ będzie widać głównie w zmianie charakteru pracy, której jednak pracownikom nie zabraknie. Z kolei według Marcina Chrząszcza trzeba się przygotować, że AI wywoła rewolucję na rynku pracy i przesunięcia w wielu branżach. Jednak takie zmiany już zachodzą np. w górnictwie, a górnicy tracący pracę znajdują ją w energetyce wiatrowej. Nie ma się więc czego bać. – Lepsza sztuczna inteligencja niż naturalna głupota – spuentował prof. Tadeusiewicz. PARTNER RELACJI: ISW

SOURCE : rp
RELATED POSTS

LATEST INSIGHTS