Home/business/Ostrzega ze AI moze przejac kontrole nad swiatem i teraz dosta Nagrode Nobla. "Moze tym razem uwierzycie"

business

Ostrzega ze AI moze przejac kontrole nad swiatem i teraz dosta Nagrode Nobla. "Moze tym razem uwierzycie"

Geoffrey Hinton nazywany jest "ojcem chrzestnym sztucznej inteligencji". Teraz po otrzymaniu Nagrody Nobla wierzy ze jego twierdzenia na temat zagrozen zwiazanych z AI nabiora wiarygodnosci i ludzie zaczna traktowac je powazniej. Przypominamy przed czym ostrzega.

October 10, 2024 | business

Geoffrey Hinton zapracował na miano "ojca chrzestnego AI" tym, że . Jego prace miały duże znaczenie dla rozwoju algorytmów uczenia maszynowego (machine learning) i stanowią dzisiejszy fundament dla rozwoju sztucznej inteligencji. Hinton był jedną z pierwszych osób, które zbadały, jak ludzki mózg przetwarza informacje. Doprowadziło to do stworzenia modeli sieci neuronowych zdolnych do nauki na poziomie porównywalnym z ludzkim. Hinton wprowadził koncepcję , która umożliwia maszynom efektywne uczenie się na podstawie danych. Jego badania , inspirując nowe pokolenia badaczy. W ostatnich latach Hinton zaczął wyrażać obawy dotyczące potencjalnych zagrożeń związanych z rozwojem sztucznej inteligencji. Po odejściu z Google w 2023 r. podkreślił, że AI może stwarzać "egzystencjalne ryzyko dla ludzkości, zwłaszcza w kontekście dezinformacji i autonomicznej broni". , aby zapobiec jej niewłaściwemu wykorzystaniu. Nagroda Nobla zwiększy wiarygodność Zdobycie Nagrody Nobla zapewniło mu nową platformę do jego ostrzeżeń. Obecnie uważa i często podkreśla, że zaawansowane systemy AI są zdolne do rozumienia swoich wyników, co jest kontrowersyjnym poglądem w kręgach badawczych. — Mam nadzieję, że to [Nagroda Nobla — red.] uczyni mnie bardziej wiarygodnym, gdy mówię, że te rzeczy naprawdę rozumieją, co mówią — powiedział Hinton. Hinton dzieli Nagrodę Nobla w dziedzinie fizyki z Johnem Hopfieldem z Uniwersytetu Princeton za ich pracę od lat 80. nad sieciami neuronowymi. Ta praca jest podstawą wielu technologii AI używanych dzisiaj, od konwersacji z ChatGPT po zdolność Google Photos do rozpoznawania, kto konkretnie jest na zarejestrowanym zdjęciu. Warto dodać, że wyróżnienie dotyczy głównie prac, jakie zaczęły się w 2012 r., kiedy wraz z dwoma doktorantami z Uniwersytetu w Toronto, Alexem Krizhevskym i rozwijali wspólnie projekt o nazwie AlexNet — sieć neuronową, która miała rozpoznawać obrazy na zdjęciach. AlexNet wygrał później konkurs na właśnie technologię rozpoznawania obrazów i stojąca za nim technologia okazała się . Hinton otrzymał też Nagrodę Turinga w 2018 r. Hinton: katastrofa jest realna Osiągnięcia Hintona sugerują, że . Ostrzeżenia przed zagładą są jednak nie na rękę największym korporacjom rozwijającym AI i rzadko przenikają do mediów. Tym bardziej że Hinton znany jest tylko w dość wąskim środowisku i jego nazwisko niewiele mówi przeciętnemu internaucie. "Jesteśmy w sytuacji, której większość ludzi nie jest w stanie sobie wyobrazić, a mianowicie, że te cyfrowe inteligencje będą znacznie mądrzejsze od nas, a jeśli będą chciały coś osiągnąć, będą chciały przejąć też kontrolę" — powiedział Hinton. Jest poważnie zaniepokojony tym, że firmy takie jak OpenAI pracują nad budowaniem AI, czyli tzw. ogólnej sztucznej inteligencji, a same modele AI stają się coraz potężniejsze. W zeszłym roku "ojciec chrzestny" podpisał się też publicznie pod sugestią, że firmy zajmujące się pracą nad AI powinny przeznaczać co najmniej jedną trzecią swoich zasobów na badania i zapewnienie bezpieczeństwa i etycznego wykorzystania tych systemów. , aby np. firmy takie jak OpenAI nie mogły po prostu odłożyć badań nad bezpieczeństwem na dalszy plan" — powiedział Hinton w wywiadzie dla Nobla. Warto w tym miejscu dodać, że . Odszedł z organizacji, aby skupić się na pracy nad "prawdziwie bezpieczną AI", natomiast i rezygnuje ze swojej działalności non-profit. Podobno nie przeznacza też tyle zasobów na bezpieczeństwo, ile powinna. "OpenAI zostało założone z dużym naciskiem na bezpieczeństwo. Jego głównym celem było rozwijanie ogólnej sztucznej inteligencji i zapewnienie, że jest bezpieczna" — powiedział Hinton we wtorek. "Z czasem okazało się, że Sam Altman był znacznie mniej zainteresowany bezpieczeństwem niż zyskami. Uważam, że to niefortunne" — dodał.

SOURCE : businessinsider_pl
RELATED POSTS

LATEST INSIGHTS