Multi-Chip Module (MCM) GPU:er kan vara framtiden för grafik

Multi-Chip Module (MCM) GPU:er kan vara framtiden för grafik

[ad_1]

sdecoret/Shutterstock.com

GPU:er är monolitiska; tillverkare skapar hela grafikprocessorn som ett stort chip. Det blir svårare att skapa mindre transistorer, så dagar med massiva GPU-chips kan snart ta slut. Istället kan framtiden vara med Multi-Chip Module (MCM).

Vad är en MCM GPU?

Nvidia MCM-diagram
NVIDIA

Konceptet med en MCM GPU är enkelt. Istället för ett stort GPU-chip som innehåller alla bearbetningselement, har du flera mindre GPU-enheter anslutna till varandra med ett anslutningssystem med extremt hög bandbredd, ibland kallat “tyg”. Detta gör att modulerna kan prata med varandra som om de vore en del av en monolitisk GPU.

Att göra mindre GPU-moduler och binda ihop dem är fördelaktigt framför det monolitiska tillvägagångssättet. Till att börja med skulle du förvänta dig att få bättre avkastning från varje kiselskiva eftersom ett fel bara skulle förstöra en modul snarare än en hel GPU. Detta kan leda till billigare GPU:er och göra prestandaskalning mycket enklare. Om du vill ha ett snabbare grafikkort, lägg bara till fler moduler!

Kommer någon ihåg SLI och Crossfire?

En multi-GPU-installation med en NVIDIA SLI-brygga.
KenSoftTH/Shutterstock.com

Tanken på att använda flera marker för att öka är inte ny. Du kanske minns en tid då de snabbaste speldatorerna använde flera grafikkort kopplade till varandra. NVIDIAs lösning var känd som SLI (Scalable Link Interface), och AMD hade Crossfire.

Prestandaskalningen var aldrig perfekt, med det andra kortet som tillförde kanske 50-70 % av prestanda i genomsnitt. Huvudproblemet var att hitta ett sätt att dela upp renderingsbelastningen mellan två eller flera GPU:er. Detta är en komplex uppgift, och både SLI och Crossfire var bandbreddsbegränsade.

Det var också olika grafiska fel och prestandaproblem som följde av detta tillvägagångssätt. Mikrostammare frodades under SLI:s storhetstid. Nuförtiden hittar du inte den här funktionen på konsument-GPU:er, och tack vare hur renderingspipelines fungerar i spel är SLI inte genomförbart längre. Toppkort som RTX 3090 har fortfarande NVLink för att koppla ihop flera kort, men detta är för speciella GPGPU-arbetsbelastningar snarare än realtidsrendering.

MCM GPU presenteras för programvara som spel eller grafikprogramvara som en enda monolitisk GPU. All lastbalansering och koordinering hanteras på hårdvarunivå, så de gamla dåliga dagarna med SLI borde inte få en comeback.

Det har redan hänt med processorer

Om idén med en MCM låter bekant beror det på att den här typen av teknik redan är vanlig i CPU:er. Specifikt är AMD känt för banbrytande “chiplet”-designer där deras processorer är gjorda av flera moduler anslutna med “oändlighetstyg”. Intel har också skapat chipletbaserade produkter sedan 2016.

RELATERAD: Vad är en Chiplet?

Har Apple Silicon en MCM GPU?

Apple M1-familjen
Äpple

De senaste Apple Silicon-chippen innehåller flera oberoende GPU:er, så det är inte fel att tänka på dem som ett exempel på MCM GPU-teknik. Tänk på Apple M1 Ultra, som bokstavligen är två M1 Max-chips limmade ihop av en högbandsbredd. Även om Ultra innehåller två M1 Max GPU:er, presenterar de en enda GPU för alla program som körs på din Mac.

Det här tillvägagångssättet att göra större, bättre chips genom att limma ihop flera SoC-moduler (System on a Chip) har visat sig vara ganska effektivt för Apple!

MCM-tekniken är över

I skrivande stund är den kommande generationen GPU:er RDNA 3 från AMD och RTX 40-serien från NVIDIA. Läckor och rykten tyder på en stor chans att RDNA 3 kommer att vara en MCM GPU och samma rykten florerar om NVIDIAs framtida GPU:er.

Detta innebär att vi kan vara på väg att ta ett stort steg i GPU-prestanda, tillsammans med ett potentiellt prisfall, när avkastningen förbättras, vilket driver ner priset på flaggskeppskort eller avancerade kort.

RELATERAD: Vad är ett system på ett chip (SoC)?



[ad_2]

Leave a Reply

Your email address will not be published.