Static Ad
Static Ad
Blogs
Home/technology/Tragiczna smierc byego badacza OpenAI przywraca dyskusje o zagrozeniach sztucznej inteligencji

technology

Tragiczna smierc byego badacza OpenAI przywraca dyskusje o zagrozeniach sztucznej inteligencji

Suchir Balaji pomaga OpenAI zbierac dane z internetu w celu szkolenia modeli sztucznej inteligencji. Pod koniec listopada znaleziono go martwego w mieszkaniu w San Francisco. Miesiac wczesniej opublikowa esej w ktorym skrytykowa sposob w jaki modele AI wykorzystuja dane. Uwage na ten problem zwraca takze Elon Musk.

December 25, 2024 | technology

Pod koniec listopada Balaji został znaleziony martwy. Departament Policji San Francisco stwierdził, że podczas wstępnego dochodzenia nie znalazł żadnych dowodów wskazujących na popełnienie przestępstwa przez osoby trzecie. Główny lekarz sądowy w mieście uznał śmierć za samobójstwo. Obawy Balajiego Około miesiąca przed śmiercią Suchir Balaji opublikował na swojej osobistej stronie internetowej esej na temat tego, jak tworzone są modele sztucznej inteligencji i jak może to być szkodliwe dla Internetu. Zacytował badania, w których przeanalizowano wpływ modeli sztucznej inteligencji wykorzystujących dane online za darmo, aby bezpośrednio odpowiadać na pytania, jednocześnie odsysając ruch z oryginalnych źródeł. W badaniu przeanalizowano Stack Overflow i stwierdzono, że po wydaniu ChatGPT ruch na tej stronie spadł o ok. 12 proc. Zamiast wchodzić na Stack Overflow, aby zadawać pytania dotyczące kodowania i przeprowadzać poszukiwania, niektórzy programiści po prostu prosili ChatGPT o odpowiedzi. Oto wnioski z badań, które przytoczył Balaji: Sugeruje to, że modele sztucznej inteligencji mogą zaszkodzić niektórym bodźcom, które przyczyniły się do powstania bogatego w informacje internetu, jaki znamy dzisiaj. Jeśli ludzie mogą uzyskać odpowiedzi bezpośrednio z modeli AI, nie ma potrzeby odwiedzania oryginalnych źródeł informacji. Gdy ludzie nie będą tak często odwiedzać stron internetowych, przychody z reklam i subskrypcji spadną i będzie mniej pieniędzy na finansowanie tworzenia i weryfikacji wysokiej jakości danych online. Inni też mają dość Jeszcze bardziej irytująca jest świadomość, że modele AI mogą to robić częściowo w oparciu o twoją pracę. Recenzent techniczny Marques Brownlee, znany zawodowo jako MKBHD, doświadczył tego niedawno, kiedy sprawdził model wideo Sora firmy OpenAI i odkrył, że stworzył klip z rośliną, która wyglądała bardzo podobnie do rośliny z jego własnych filmów opublikowanych na YouTube. — — pytał Brownlee. Oczywiście chciał również wiedzieć, czy może zapobiec wykorzystywaniu jego filmów do trenowania modeli sztucznej inteligencji. — Nie wiemy, czy nie jest już za późno na rezygnację — powiedział Brownlee. "To nie jest zrównoważony model" W wywiadzie dla "The New York Times" opublikowanym w październiku Balaji powiedział, że chatboty AI, takie jak ChatGPT, pozbawiają pracę i usługi ludzi wartości komercyjnej. Podczas pracy w OpenAI Balaji należał do zespołu, który zbierał dane z internetu w celu szkolenia modeli sztucznej inteligencji. Dołączył do startupu z dużymi nadziejami na to, jak sztuczna inteligencja może pomóc społeczeństwu, ale się rozczarował. "To nie jest zrównoważony model dla ekosystemu internetowego" — powiedział gazecie. W oświadczeniu dla "Timesa" na temat komentarzy Balajiego OpenAI stwierdziło, że sposób, w jaki buduje modele sztucznej inteligencji, jest chroniony przez zasady uczciwego korzystania z praw autorskich i wspierany przez precedensy prawne. "Uważamy tę zasadę za sprawiedliwą dla twórców, niezbędną dla innowatorów i kluczową dla konkurencyjności USA" — dodano. W swoim eseju Balaji zaprotestował. Jednym z czterech kryteriów naruszenia praw autorskich jest to, czy nowy utwór wpływa na potencjalny rynek lub wartość oryginalnego utworu chronionego prawem autorskim. Jeśli wyrządza tego rodzaju szkodę, to nie jest to "dozwolony użytek" i nie jest dopuszczalny. Balaji doszedł do wniosku, że ChatGPT i inne modele AI nie kwalifikują się do objęcia tymi przepisami. " " — napisał. "Biorąc to pod uwagę, żadne z argumentów nie są zasadniczo właściwe dla ChatGPT, a podobne argumenty można wysunąć w odniesieniu do wielu generatywnych produktów AI w wielu różnych dziedzinach" — dodał. Porozmawiajmy o danych Firmy technologiczne produkujące te potężne modele sztucznej inteligencji nie lubią rozmawiać o wartości danych szkoleniowych. Przestały nawet ujawniać, skąd pozyskują dane, co było powszechną praktyką jeszcze kilka lat temu. — — powiedział BI w zeszłym roku Nick Vincent, badacz sztucznej inteligencji. Śmierć Balajiego może w końcu skłonić ludzi do poświęcenia tej debacie uwagi, na jaką zasługuje. — Byliśmy zdruzgotani, gdy dotarła do nas ta niewiarygodnie smutna wiadomość i nasze serca kierujemy do bliskich Suchira w tym trudnym czasie — powiedział niedawno rzecznik OpenAI.

SOURCE : businessinsider_pl
RELATED POSTS

LATEST INSIGHTS