Static Ad
Static Ad
Blogs
Home/world/Algorytmy i sztuczna inteligencja na wojnie. "Wiem ze to zabrzmi dosc strasznie ale trzeba o tym mowic"

world

Algorytmy i sztuczna inteligencja na wojnie. "Wiem ze to zabrzmi dosc strasznie ale trzeba o tym mowic"

Armia izraelska zbudowaa system rekomendacyjny do likwidowania czonkow Hamasu mowi we "Frontach Wojny" dr Leszek Bukowski absolwent filozofii Uniwersytetu Warszawskiego i specjalista z zakresu sztucznej inteligencji. Gdyby nawet zespo ludzi mia analizowac to w dynamicznej sytuacji wojny to jest to po prostu niemozliwe. Wiec faktycznie Izrael zdecydowa sie na ogromne zaufanie do tego algorytmu dodaje.

December 23, 2024 | world

Więcej takich artykułów znajdziesz na stronie głównej Onetu W pierwszych dniach wojny w Strefie Gazy Izrael wdrożył system o tym kryptonimie Lawender, który świadczy o tym, że niektóre armie już teraz wykorzystują sztuczną inteligencję do likwidacji celów. — To był algorytm klasy, którą nazywamy systemami rekomendacyjnymi — powiedział dr Bukowski. Na czym on polega? — Na przykład, jeżeli robimy zakupy w Amazonie, to on wdraża algorytm, który proponuje nam taki produkt, który z największym prawdopodobieństwem kupimy w następnej kolejności. I z tego, co czytałem na temat systemu Lawender to armia izraelska, to wiem, że to zabrzmi dość strasznie, ale trzeba otwarcie o takich rzeczach mówić: armia zbudowała system rekomendacyjny do likwidowania członków Hamasu. Izrael ma ogromne zaufanie do tego algorytmu. — Prawdopodobnie matecznikiem tego systemu były dane wywiadowcze Izraela na temat połączeń telefonicznych i lokalizacji urządzeń mobilnych osób, o których skądinąd wywiad Izraela już wiedział, że to są członkowie Hamasu — dodaje ekspert. ZOBACZ CAŁY ODCINEK: "Fronty Wojny". Sztuczna inteligencja działa na polu walki i podejmuje decyzje o likwidacji celów. Gdzie jest Polska? Dr Bukowski zaznaczył jednak, że ostateczną decyzję o likwidacji celu podejmował tam człowiek, jednak Marcin Wyrwał zauważył, że Lawender wytyczył ogromną liczbę 38 tys. potencjalnych celów i sami oficerowie przyznawali, że przy tak wielkiej liczbie celów zdawali się na mechanizm statystyczny. — No właśnie, im bardziej zaawansowane są algorytmy naszym systemie, tym więcej mamy danych i coraz mniej możliwe staje się podejmowanie decyzji przez człowieka — przyznał dr Bukowski. — Gdyby nawet zespół ludzi miał analizować to w dynamicznej sytuacji wojny, to jest to po prostu niemożliwe. Więc faktycznie Izrael zdecydował się na ogromne zaufanie do tego algorytmu. Kontakt do autorów: [email protected] ; [email protected] Zobacz poprzednie odcinki:

SOURCE : wiadomosci
RELATED POSTS

LATEST INSIGHTS