Pokaż wszystkie

Proszę zapoznać się z wersją angielską jako naszą oficjalną wersją.Powrót

Europa
France(Français) Germany(Deutsch) Italy(Italia) Russian(русский) Poland(polski) Czech(Čeština) Luxembourg(Lëtzebuergesch) Netherlands(Nederland) Iceland(íslenska) Hungarian(Magyarország) Spain(español) Portugal(Português) Turkey(Türk dili) Bulgaria(Български език) Ukraine(Україна) Greece(Ελλάδα) Israel(עִבְרִית) Sweden(Svenska) Finland(Svenska) Finland(Suomi) Romania(românesc) Moldova(românesc) Slovakia(Slovenská) Denmark(Dansk) Slovenia(Slovenija) Slovenia(Hrvatska) Croatia(Hrvatska) Serbia(Hrvatska) Montenegro(Hrvatska) Bosnia and Herzegovina(Hrvatska) Lithuania(lietuvių) Spain(Português) Switzerland(Deutsch) United Kingdom(English)
Azja/Pacyfik
Japan(日本語) Korea(한국의) Thailand(ภาษาไทย) Malaysia(Melayu) Singapore(Melayu) Vietnam(Tiếng Việt) Philippines(Pilipino)
Afryka, Indie i Bliski Wschód
United Arab Emirates(العربية) Iran(فارسی) Tajikistan(فارسی) India(हिंदी) Madagascar(malaɡasʲ)
Ameryka Południowa / Oceania
New Zealand(Maori) Brazil(Português) Angola(Português) Mozambique(Português)
Ameryka północna
United States(English) Canada(English) Haiti(Ayiti) Mexico(español)
na 2024/05/30

Konfrontacja z NVLink?Giganci technologiczni, tacy jak Intel, AMD, Microsoft i Broadcom Form Ualink

Ośmiu gigantów technologicznych, w tym Intel, Google, Microsoft i Meta, ustanawia nową grupę branżową o nazwie Ualink Promotion Group, aby poprowadzić rozwój komponentów łączących układy akceleratora AI w centrach danych.


Zespół promocyjny Ualink został ogłoszony w czwartek, a jego członkowie to także AMD, HP Enterprise, Broadcom i Cisco.Grupa zaproponowała nowy standard branżowy do łączenia rosnącej liczby układów akceleratorów AI na serwerach.W szerokim sensie AI Accelerator to układ zaprojektowany z GPU do niestandardowego rozwiązania do przyspieszenia szkolenia, dopracowania i obsługi modeli AI.

„Branża potrzebuje otwartego standardu, który można szybko wypchnąć do przodu, umożliwiając wiele firm na dodanie wartości całego ekosystemu w otwartym formacie”.„Branża potrzebuje standardu, który pozwala innowacjom w szybkim tempie, nie ograniczając się przez jakąkolwiek firmę” - powiedział Forrest Norrod, dyrektor generalny AMD Data Center Solutions, podczas odprawy w środę

Pierwsza wersja proponowanego standardu, UALINK 1.0, do 1024 akceleratorów AI, zostanie połączone tylko w pojedynczym kapsule obliczeniowym tylko GPU.(Grupa definiuje POD jako jeden lub kilka stojaków na serwerze.) Ualink 1.0 opiera się na „otwartych standardach” i obejmuje nieskończoną architekturę AMD.Pozwoli to na bezpośrednie ładowanie i przechowywanie dodatkowej pamięci między akceleratorami AI oraz ogólnie poprawić prędkość i zmniejszyć opóźnienie transmisji danych w porównaniu z istniejącymi specyfikacjami połączeń.

Grupa stwierdziła, że ​​w trzecim kwartale stworzy sojusz Ualink Alliance, aby nadzorować przyszły rozwój standardów Ualink.Ualink 1.0 zostanie dostarczone firmom dołączającym do Sojuszu w tym samym okresie, ze specyfikacją wyższej aktualizacji przepustowości dla UALINK 1.1.Planowane jest uruchomienie w czwartym kwartale 2024 r.

Pierwsza partia produktów Ualink zostanie uruchomiona „w nadchodzących latach”, powiedział Norrod.

Nvidia, największy do tej pory producent akceleratora AI, z szacunkowym udziałem w rynku od 80% do 95%, jest wyraźnie nieobecny na liście członków grupy.Nvidia odmówiła komentarza na ten temat.Nietrudno jednak zrozumieć, dlaczego ten producent chipów nie chce wspierać specyfikacji opartych na technologii konkurencji.

Po pierwsze, NVIDIA zapewnia własną zastrzeżoną technologię Interconnect dla GPU w ramach serwerów centrów danych.Firma może nie być skłonna wspierać standardy oparte na technologii konkurencji.

Potem pojawia się fakt, że Nvidia działa z pozycji o ogromnej sile i wpływie.

W najnowszym kwartale fiskalnym NVIDIA (Q1 2025) sprzedaż centrów danych, w tym sprzedaż chipów AI, wzrosła o ponad 400% w porównaniu z analogicznym okresem ubiegłego roku.Jeśli Nvidia będzie kontynuować obecną trajektorię rozwoju, w pewnym momencie przewyższy Apple, aby stać się najcenniejszą firmą na świecie.

Dlatego, najprościej, jeśli NVIDIA nie chce uczestniczyć, nie musi się uczestniczyć.

Jeśli chodzi o Amazon Web Services (AWS), który jest jedynym gigantem w chmurze publicznej, który nie przyczynił się do Ualink, może być w trybie oczekiwania i zobaczenia, ponieważ zmniejsza różne wewnętrzne wysiłki sprzętowe akceleratora.Może to być również AWS, polegający na kontroli nad rynkiem usług w chmurze i nie widząc żadnego strategicznego znaczenia w przeciwnej NVIDIA, co zapewniło większość swoich procesorów GPU.

AWS nie odpowiedział na prośbę Techcrunch.

W rzeczywistości największymi beneficjentami Ualink - oprócz AMD i Intel - wydają się być Microsoft, Meta i Google, którzy wydali miliardy dolarów na zakup NVIDIA GPU na prowadzenie swoich chmur i szkolenie rosnących modeli AI.Każdy chce pozbyć się dostawcy, którego uważają za zbyt dominujące w ekosystemie sprzętowym AI.

Google ma niestandardowe układy, TPU i Axion do szkolenia i uruchamiania modeli AI.Amazon ma kilka rodzin chipów AI.Microsoft dołączył do konkurencji między Maia i Cobalt w zeszłym roku.Meta poprawia swoją serię Accelerator.

Tymczasem Microsoft i jego bliski partner Openai podobno planują wydać co najmniej 100 miliardów dolarów na superkomputer na szkolenie modeli AI, które będą wyposażone w przyszłe układy kobaltu i Maia.Te żetony będą potrzebować czegoś, co je ze sobą połączyć - być może będzie to Ualink.
0 RFQ
Wózek sklepowy (0 Items)
To jest puste.
Porównaj listę (0 Items)
To jest puste.
Informacja zwrotna

Twoja opinia ma znaczenie!W Allelco cenimy wrażenia użytkownika i staramy się go stale ulepszać.
Proszę udostępnić nam swoje komentarze za pośrednictwem naszego formularza opinii, a my odpowiemy niezwłocznie.
Dziękujemy za wybranie Allelco.

Temat
E-mail
Komentarze
Captcha
Przeciągnij lub kliknij, aby przesłać plik
Przesyłanie pliku
Rodzaje: .xls, .xlsx, .doc, .docx, .jpg, .png i .pdf.
Max Rozmiar pliku: 10 MB