Cerebras Systems, en amerikansk start, lanserade det största chipet som integrerar mer än 1,2 biljoner transistorer och har en storlek på 46 225 kvadratmillimeter. Det nya Cerebras Wafer Scale Engine (WSE) -chipet är optimerat för AI och är 56,7 gånger större än den största grafikbehandlingsenheten som mäter 815 kvadratmillimeter och innehåller 21,1 miljarder transistorer. Den nya Cerebras Wafer Scale Engine (WSE) ger 3000 gånger mer hög hastighet, on-chip-minne och levereras med 10 000 gånger mer minnesbandbredd. Den större storleken på chipet säkerställer att information kan bearbetas snabbare och kan till och med minska tiden till insikt, eller "utbildningstid" som gör det möjligt för forskarna att testa fler idéer, använda mer data och lösa nya problem.
Cerebras WSE är designad för AI och innehåller grundläggande innovationer som främjar toppmodern teknik genom att lösa årtionden gamla tekniska utmaningar som är begränsade chipstorlekar - såsom kors-reticle-anslutning, kapacitet, kraftleverans och förpackning. WSE kan påskynda beräkningar och kommunikation, vilket minskar träningstiden. WSE har 56,7 gånger mer kiselarea än den största grafikbehandlingsenheten. WSE kan också tillhandahålla fler kärnor för att göra fler beräkningar och har mer minne närmare kärnorna, så kärnorna kan fungera effektivt. All kommunikation hålls på själva kisel på grund av dess stora antal kärnor och minne är inbäddade i ett enda chip.
Cerebras WSE-chip innehåller 46,225 mm2 kisel och rymmer 400 000 AI-optimerade, utan cache, ingen overhead, beräkningskärnor och 18 gigabyte lokalt, distribuerat, supersnabbt SRAM-minne. Chipet levereras med 9 petabytes per sekund minnesbandbredd där kärnor är länkade tillsammans med ett finkornigt nätverksanslutet nätverksanslutet kommunikationsnät med allt hårdvara som ger en total bandbredd på 100 petabits per sekund. Detta innebär att kommunikationsbandbredden med låg latens för WSE är extremt stor, vilket gör att kärngrupperna samarbetar med maximal effektivitet, och minnesbandbredd är inte längre en flaskhals. Mer lokalt minne, fler kärnor och ett tyg med låg latens med hög bandbredd tillsammans kombinerar den optimala arkitekturen för att påskynda AI-arbete.
Funktionerna hos Cerebras WSE-chip:
- Ökade kärnor: WSE integrerar 400 000 AI-optimerade beräkningskärnor som kallas SLAC (Sparse Linear Algebra Cores) som är programmerbara, flexibla och optimerade för den glesa linjära algebra som ligger till grund för all neuralt nätverksberäkning. SLAC: s programmeringsfunktion säkerställer att kärnorna enkelt kan köra alla neurala nätverksalgoritmer i ständigt föränderliga maskininlärningsfält. WSE-kärnorna innehåller Cerebras-uppfinnad sparsity-skördeteknik som påskyndar beräkningsprestanda på glesa arbetsbelastningar (arbetsbelastningar som innehåller nollor) som djupinlärning.
- Förbättrat minne: Cerebras WSE integrerar mer lokalt minne tillsammans med fler kärnor vilket är mer än något chip som möjliggör flexibel, snabb beräkning med lägre latens och med mindre energi. WSE levereras med 18 GB (gigabyte) on-chip-minne tillgängligt med sin kärna i en klockcykel. Denna samling av kärn-lokalt minne gör att WSE levererar sammanlagt 9 petabyte per sekund av minnesbandbredd vilket är 10.000 X mer minnesbandbredd och 3.000 X