Blogs
Home/technology/Jak wejsc na pokad pociagu AI w 2025 r. i zrobic to w sposob zrownowazony

technology

Jak wejsc na pokad pociagu AI w 2025 r. i zrobic to w sposob zrownowazony

Pomimo wszystkich wysikow jakie mozna podjac w centrum danych jesli podstawowe zrodo energii nie pochodzi ze zrode odnawialnych z definicji nie mozna mowic o zrownowazonym rozwoju.

December 30, 2024 | technology

Spójrzmy na wybitny przykład z Finlandii — LUMI, 8. najlepszy superkomputer na świecie i 3. w Europie, którego zużycie energii jest pokrywane w 100 proc. energią z wody. Ciepło odpadowe z LUMI będzie stanowić około 20 proc. ogrzewania miejskiego w okolicznym mieście Kajaani i To ilość równa emisji z prawie 4 tys. samochodów osobowych. Cel AMD Cel AMD to 30x25. Chodzi o osiągnięcie 30-krotnego wzrostu efektywności energetycznej procesorów i akceleratorów AMD zasilających serwery do HPC i treningu sztucznej inteligencji w latach 2020-2025. Gdyby wszystkie węzły serwerowe AI i HPC na świecie osiągnęły podobne zyski, w 2025 r. można by zaoszczędzić miliardy kilowatogodzin energii elektrycznej. Dodając do tego jednak ograniczenia finansowe, otrzymujemy trudne zadanie dla użytkownika końcowego — wszystko zależy od tego, jak dużej wydajności naprawdę potrzebujesz i na ile energii możesz sobie pozwolić zarówno w środowisku centrum danych, jak i ekonomicznie. Zwykle zaleca się modernizację centrum danych w jak największym stopniu, ponieważ wydajność i porównywalna wydajność na jednostkę mocy, jaką można uzyskać z nowych technologii, są znacznie wyższe niż w starszych produktach. Brzmi dość prosto, prawda? Jednak gdy przyjrzysz się szczegółom potrzebnej wydajności, zobaczysz złożoność i kompromisy. Jeśli zużycie energii jest takie samo i uzyskujesz większą wydajność, jak w przypadku produktów AMD Zen5, czy jest to ekonomicznie opłacalne dla firmy i czy możesz sobie na to pozwolić? Jeśli nie, jakie są kompromisy między wydajnością a zużyciem energii? Czy wewnętrzni i zewnętrzni użytkownicy aplikacji mogą tolerować taki sam lub nawet dłuższy czas otrzymywania wyników swoich zapytań? Lista pytań nie ma końca. Czy będą ograniczenia przestrzeni i mocy? Aby nakreślić sytuację, ważne jest, aby zauważyć, że To czyni ją złożoną, ale i ekscytującą. Można wykonywać wnioskowanie LLM lub klasyczne uczenie maszynowe na CPU, GPU i innych akceleratorach. Nie wspominam nawet o talentach i umiejętnościach, specyfice danych, tolerancji ryzyka i innych elementach dyskusji o AI. Połączenie do tego ogromnego wzrostu generowanych danych i wymagań obliczeniowych do ich przetwarzania ze wszystkimi innymi implikacjami dotyczącymi przestrzeni fizycznej lub wymaganej mocy prowadzi ponownie do tematu modernizacji centrum danych, ponieważ widzimy wielu klientów borykających się z ograniczeniami przestrzeni lub mocy w ich obecnym centrum danych już przy codziennych operacjach IT. Wspomniałem już o wyjątkowym TCO (Total Cost of Ownership — całkowity koszt posiadania — red.) i wartości, jaką możemy dostarczyć w przestrzeni CPU — możemy dramatycznie zmniejszyć liczbę serwerów wymaganych dla określonego poziomu wydajności, wraz ze zmniejszeniem OPEX i CAPEX, a także zużycia energii dzięki naszym procesorom AMD EPYC. , uwalniając zasoby na instalacje AI i dalsze skalowanie mocy obliczeniowej. Nasze podejście do tych wyzwań Staramy się dostarczać najlepszy sprzęt, na którym można uruchamiać obciążenia i współpracować z ekosystemem, aby upewnić się, że używane oprogramowanie jest zoptymalizowane i działa z najlepszą wydajnością. Na poziomie aplikacji i oprogramowania warto zerknąć na nasze biblioteki ZenDNN, które zapewniają możliwości przetwarzania języka naturalnego i rozpoznawania obrazów na procesorach AMD EPYC, lub nasz stos oprogramowania ROCm dla akceleratorów, aby zobaczyć postęp w tej dziedzinie. Wraz z niedawno wydanym ROCm 6.3, programiści mogą korzystać z wyższej wydajności wnioskowania LLM, umożliwiając organizacjom obsługę aplikacji AI na dużą skalę. I podczas gdy produkty są ważne, ekosystem jest najważniejszy. Poprzez nasze partnerstwa w ekosystemie AI pomagamy klientom i partnerom przyspieszyć wykorzystanie AI poprzez kompleksowe rozwiązania AI, w tym sprzęt i oprogramowanie. Jesteśmy członkiem-założycielem PyTorch Foundation, ściśle współpracujemy z Hugging Face i ekosystemem programistów AI, w tym z Microsoft, OpenAI, Meta, Cohere i xAI, by wymienić tylko kilka. AMD dokonało również strategicznych przejęć w tej przestrzeni, takich jak Silo.AI, największe prywatne laboratorium AI w Europie; ZT Systems, dostawca infrastruktury AI dla hiperskalerów; oraz Nod.ai, który dostarcza możliwości oprogramowania AI open-source. Jeśli chodzi o nasze plany na przyszły rok, , które zaprezentowaliśmy w czerwcu 2024 r., i nadal wspierać naszych partnerów i klientów w ich podróży z HPC i AI. Akceleratory AMD Instinct MI350 mają być dostępne w drugiej połowie 2025 r.

SOURCE : businessinsider_pl
RELATED POSTS

LATEST INSIGHTS