Meta verbreekt siliciumcyclus: Vier nieuwe AI-chips tegen 2027

Meta heeft een ambitieuze nieuwe routekaart voor zijn eigen AI-chips beschreven, waarin staat dat het bedrijf in de komende twee jaar vier nieuwe generaties Meta Training en Inference Accelerator hardware gaat ontwikkelen en implementeren.
In een bericht zegt het bedrijf dat de nieuwe MTIA line-up ranking, aanbevelingen en generatieve AI-workloads zal ondersteunen, waarbij silicium op maat nu centraal staat in de bredere AI-infrastructuurstrategie.
MTIA 300 is al in productie
Het duidelijkste detail voor de nabije toekomst is dat MTIA 300 al in productie is. Meta zei dat deze chip zal worden gebruikt voor het trainen van rangschikkingen en aanbevelingen, wat een bredere rol voor MTIA betekent dan alleen inferentieversnelling.
Het bedrijf voegde eraan toe dat MTIA 400, 450 en 500 in staat zullen zijn om alle werklasten aan te kunnen, hoewel Meta verwacht dat deze latere generaties voornamelijk gebruikt zullen worden voor generatieve AI-inferentie op de korte termijn en tot in 2027.
Dat geeft Meta een veel snellere openbare chipcadans dan gebruikelijk is in de AI-ruimte. Het bedrijf zei dat het plan met vier chips over twee jaar wordt uitgerold, wat het beschreef als een sneller tempo dan standaard chipcycli.
Meta wil dat zijn eigen chips een veel grotere rol gaan spelen
Meta introduceerde MTIA voor het eerst in 2023 als een familie van op maat gemaakte chips voor AI workloads, maar de laatste update van het bedrijf maakt duidelijk dat het project niet langer een zij-inspanning is. Meta zei dat het al honderdduizenden MTIA-chips inzet voor inferentiebelastingen op organische inhoud en advertenties in zijn apps, en het voerde aan dat deze chips rekenkrachtiger en kostenefficiënter zijn dan algemeen silicium voor de beoogde toepassingen van het bedrijf.
De bredere boodschap is duidelijk: Meta wil meer controle over de hardware waarop zijn AI-systemen draaien. In plaats van alleen op externe leveranciers te vertrouwen, probeert het bedrijf meer van zijn eigen stack te bouwen voor de werklasten die het belangrijkst zijn voor zijn platformen.
Onafhankelijkheid van de siliciumreuzen
Hoewel Meta onlangs een miljardenovereenkomst heeft gesloten voor Nvidia's nieuwste GPU'sis deze routekaart een duidelijk signaal dat Menlo Park het wachten op externe toeleveringsketens beu is. Door de enorme inferentiewerklasten - die het grootste deel van de AI-kosten voor hun rekening nemen - te verplaatsen naar aangepaste MTIA-hardware, daagt Meta direct de marktdominantie van externe leveranciers uit. Het is een verschuiving van een "inkoper" naar een "architect", waardoor het bedrijf voor het eerst zijn eigen infrastructuurmarges kan dicteren.
De volgende chips richten zich sterk op inferentie
Meta zegt dat haar chipstrategie prioriteit geeft aan snelle iteratie, een inferentie-eerst ontwerpaanpak en eenvoudigere adoptie door middel van industriestandaard software- en hardware-ecosystemen. In de praktijk betekent dit dat de MTIA 450 en 500 als eerste worden geoptimaliseerd voor generatieve AI-inferentie, met de mogelijkheid om andere werklasten te ondersteunen als dat nodig is, waaronder ranking- en adviestraining en -inferentie en generatieve AI-training.
Die focus is logisch voor een bedrijf dat diensten op de schaal van Meta levert. Inferentie is waar grote AI-producten bijzonder duur kunnen worden, en Meta ontwerpt deze latere generaties duidelijk om beter aan die vraag te voldoen.
Snellere ontwikkeling is onderdeel van het plan
Meta zei ook dat het zijn MTIA-roadmap heeft opgebouwd rond kortere releasecycli. Terwijl de industrie vaak elke één tot twee jaar een nieuwe AI-chip lanceert, zegt Meta dat het nu de capaciteit heeft om elke zes maanden of minder nieuwe MTIA-generaties uit te brengen door modulaire ontwerpen te hergebruiken. Het bedrijf zei dat dit zou moeten helpen om zich sneller aan te passen aan veranderende AI-technieken en om de kosten voor het bouwen en implementeren van nieuwe hardware te verlagen.
Een ander praktisch voordeel is de compatibiliteit met bestaande infrastructuur. Meta zei dat de modulariteit van zijn silicium ervoor zorgt dat de nieuwe chips in de huidige infrastructuur van reksystemen passen, wat de uitrol zou moeten versnellen.
AI-infrastructuur is nu het slagveld
AI-infrastructuur is een van de belangrijkste slagvelden in de technologie aan het worden, en de aankondiging van Meta laat zien hoe serieus het chipontwerp als onderdeel van die strijd wordt behandeld. Vier nieuwe MTIA-generaties in twee jaar is op papier een agressieve routekaart, maar de grotere afleiding is dat Meta niet langer over aangepaste silicium praat als een experiment. Het presenteert MTIA nu als een kernonderdeel van de manier waarop Facebook, Instagram en andere platforms in de toekomst zullen omgaan met rangschikking, aanbevelingen en generatieve AI-workloads.
Bron(nen)
Top 10 Testrapporten
» Top 10 Multimedia Notebooks
» Top 10 Gaming-Notebooks
» Top 10 Budget Gaming Laptops
» Top 10 Lichtgewicht Gaming-Notebooks
» Top 10 Premium Office/Business-Notebooks
» Top 10 Budget Office/Business-Notebooks
» Top 10 Workstation-Laptops
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Notebooks tot €300
» Top 10 Notebooks tot €500
» Top 10 Notebooks tot € 1.000De beste notebookbeeldschermen zoals getest door Notebookcheck
» De beste notebookbeeldschermen
» Top Windows Alternatieven voor de MacBook Pro 13
» Top Windows Alternatieven voor de MacBook Pro 15
» Top Windows alternatieven voor de MacBook 12 en Air
» Top 10 best verkopende notebooks op Amazon
» Top 10 Convertible Notebooks
» Top 10 Tablets
» Top 10 Tablets tot € 250
» Top 10 Smartphones
» Top 10 Phablets (>90cm²)
» Top 10 Camera Smartphones
» Top 10 Smartphones tot €500
» Top 10 best verkopende smartphones op Amazon






