Sobota, 12 října, 2024
Google search engine
DomůElektronikaPočítačeInstinct MI300 HBM3E letos, Instinct MI400 příští rok

Instinct MI300 HBM3E letos, Instinct MI400 příští rok

728x90

AMD v současné době nabízí AI / výpočetní akcelerátor Instinct MI300X a kompletní řešení včetně procesoru v jediném pouzdru Instinct MI300A. O řadu MI300 je z několika důvodů vysoký zájem: Konkurenční H100 od Nvidie zdaleka nezvládá pokrýt poptávku, cena je ~3× vyšší v případě Instinct MI300 a dodací doby nejsou zrovna krátké (pokud odběratel nakupuje i od jiných výrobců, pak ještě delší). Řešení od Intelu, Ponte Vecchio, nabralo během příprav takové zpoždění, že již v době vydání bylo zastaralé a zejména poměr spotřeba / výkon jej odsoudil k neúspěchu (jeho nástupce Intel zrušil).

AMD se navíc s MI300 podařilo nabídnout vyšší výkon jakým disponuje do jeho vydání nejvýkonnější H100 od Nvidie, takže o tuto řadu je (ve srovnání s předchozími) bezprecedentní zájem.

Nvidia na letošní rok chystá jednak refresh současných produktů, které vybaví HBM3E (druhý kvartál) a jednak novou generaci postavenou na architektuře Blackwell. Akcelerátor B100 se očekává někdy ve druhém pololetí, snad na podzim. Reálná dostupnost je však ve hvězdách, neboť Nvidia ústy své finanční ředitelky Colette Kress avizovala, že dostupnost nebude dobrá.

Podle leakera Kepler letos dojde i na HBM3E varianty řady Instinct MI300 a tyto produkty budou v dobré konkurenční pozici i po vydání Nvidia B100, která má být podle téhož zdroje (slušně přeloženo) „drahá jako prase“. Na rok 2025 chystá AMD novou generaci, Instinct MI400 postavený na architektuře CDNA 4.

V souvislosti s akcelerátory lze zmínit situaci s HBM3E. Nejrychlejší variantu HBM3 již ohlásil Hynix a Samsung, nově se zahájením sériové výrobu chlubí Micron, podle něhož bude jeho řešení použito na akcelerátorech Nvidia H200 (H100 s rychlejšími pamětmi), jistě však ne exkluzivně. Micron se chlubí spotřebou svých HBM3E o 30 % nižší oproti neupřesněné konkurenci, ovšem další konkrétní zveřejněné parametry ho příliš dobré konkurenční pozice nestaví. Jeho HBM3E podporují maximálně 8 vrstev (tj. 24 GB na čip maximálně, takže stejně jako u HBM3, zatímco specifikace HBM3E umožňuje 12 vrstev, tedy o 50 % více, což i odpovídá konkurenci ohlášené Samsungem). Ani co do rychlosti HBM3E od Micronu nevynikají, dosahují maximálně 1,15 TB/s na čip, přičemž standard HBM3E umožňuje až 1,2 TB/s a konkurence (Samsung) jej s 1,28 TB/s překonává.


Zdroj: diit.cz
RELATED ARTICLES
- Advertisment -
Google search engine

Populární články

BLOG

Instinct MI300 HBM3E letos, Instinct MI400 příští rok

728x90

AMD v současné době nabízí AI / výpočetní akcelerátor Instinct MI300X a kompletní řešení včetně procesoru v jediném pouzdru Instinct MI300A. O řadu MI300 je z několika důvodů vysoký zájem: Konkurenční H100 od Nvidie zdaleka nezvládá pokrýt poptávku, cena je ~3× vyšší v případě Instinct MI300 a dodací doby nejsou zrovna krátké (pokud odběratel nakupuje i od jiných výrobců, pak ještě delší). Řešení od Intelu, Ponte Vecchio, nabralo během příprav takové zpoždění, že již v době vydání bylo zastaralé a zejména poměr spotřeba / výkon jej odsoudil k neúspěchu (jeho nástupce Intel zrušil).

AMD se navíc s MI300 podařilo nabídnout vyšší výkon jakým disponuje do jeho vydání nejvýkonnější H100 od Nvidie, takže o tuto řadu je (ve srovnání s předchozími) bezprecedentní zájem.

Nvidia na letošní rok chystá jednak refresh současných produktů, které vybaví HBM3E (druhý kvartál) a jednak novou generaci postavenou na architektuře Blackwell. Akcelerátor B100 se očekává někdy ve druhém pololetí, snad na podzim. Reálná dostupnost je však ve hvězdách, neboť Nvidia ústy své finanční ředitelky Colette Kress avizovala, že dostupnost nebude dobrá.

Podle leakera Kepler letos dojde i na HBM3E varianty řady Instinct MI300 a tyto produkty budou v dobré konkurenční pozici i po vydání Nvidia B100, která má být podle téhož zdroje (slušně přeloženo) „drahá jako prase“. Na rok 2025 chystá AMD novou generaci, Instinct MI400 postavený na architektuře CDNA 4.

V souvislosti s akcelerátory lze zmínit situaci s HBM3E. Nejrychlejší variantu HBM3 již ohlásil Hynix a Samsung, nově se zahájením sériové výrobu chlubí Micron, podle něhož bude jeho řešení použito na akcelerátorech Nvidia H200 (H100 s rychlejšími pamětmi), jistě však ne exkluzivně. Micron se chlubí spotřebou svých HBM3E o 30 % nižší oproti neupřesněné konkurenci, ovšem další konkrétní zveřejněné parametry ho příliš dobré konkurenční pozice nestaví. Jeho HBM3E podporují maximálně 8 vrstev (tj. 24 GB na čip maximálně, takže stejně jako u HBM3, zatímco specifikace HBM3E umožňuje 12 vrstev, tedy o 50 % více, což i odpovídá konkurenci ohlášené Samsungem). Ani co do rychlosti HBM3E od Micronu nevynikají, dosahují maximálně 1,15 TB/s na čip, přičemž standard HBM3E umožňuje až 1,2 TB/s a konkurence (Samsung) jej s 1,28 TB/s překonává.


Zdroj: diit.cz
RELATED ARTICLES