Notebookcheck Logo

Onderzoekers verdubbelen AI-trainingssnelheden door langstaartinefficiënties in processorgebruik te temmen

Een decoratieve afbeelding van een chip met het acroniem
ⓘ Igor Omilaev via Unsplash
Een decoratieve afbeelding van een chip met het acroniem "AI" erop geschreven
Een nieuw systeem maakt gebruik van ongebruikte rekenkracht om on the fly een kleiner conceptmodel te trainen, waardoor het leren van versterking voor complexe grote taalmodellen drastisch versneld wordt zonder dat dit ten koste gaat van de nauwkeurigheid.

Voor het ontwikkelen van redeneerbare grote taalmodellen die in staat zijn tot geavanceerde programmering en meerstappenplanning zijn enorme rekenkrachtbronnen nodig. Tijdens het standaardproces van reinforcement learning genereren modellen meerdere potentiële antwoorden om het beste antwoord te leren. Deze generatiefase, die bekend staat als rollout, kan tot 85% van de totale uitvoeringstijd in beslag nemen. Dit creëert een kritisch knelpunt dat wordt gekenmerkt door een lange-staartverdeling, waarbij processors die kortere antwoorden afwerken inactief blijven terwijl ze wachten op anderen om langere zoekopdrachten te voltooien.

Om deze verspilde downtime te elimineren, hebben onderzoekers van het Massachusetts Institute of Technology samen met medewerkers uit de industrie en de academische wereld een systeem ontwikkeld met de naam "Taming the Long Tail" (TLT). De aanpak maakt gebruik van een adaptief draftermodel dat continu op inactieve processors traint. Dit lichtgewicht model raadt snel de toekomstige uitvoer van het grotere doelmodel, dat vervolgens alle gissingen tegelijkertijd verifieert via een techniek die speculatief decoderen wordt genoemd.

Terwijl traditionele speculatieve decodering vertrouwt op een statische drafter die snel verouderd raakt tijdens voortdurende trainingsupdates, richt het TLT-systeem de drafter voortdurend opnieuw in tijdens de training zonder extra computerkosten. Een geïntegreerde adaptieve uitrolengine optimaliseert het proces verder door een geheugenefficiënte pool van vooraf vastgelegde grafieken te onderhouden en dynamisch de beste decoderingsstrategie te selecteren voor elke nieuwe invoerbatch.

Evaluaties van meerdere redeneermodellen tonen aan dat deze verliesvrije oplossing de end-to-end trainingssnelheden met 70-110% versnelt in vergelijking met state-of-the-art systemen. Door de oorspronkelijke nauwkeurigheidsniveaus te behouden en een ontwerpmodel van hoge kwaliteit op te leveren als gratis bijproduct bij de implementatie, biedt deze methode een zeer efficiënte manier om de energie- en financiële lasten van de ontwikkeling van geavanceerde kunstmatige intelligentiearchitecturen te verminderen.

Bron(nen)

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2026 02 > Onderzoekers verdubbelen AI-trainingssnelheden door langstaartinefficiënties in processorgebruik te temmen
Chibuike Okpara, 2026-02-28 (Update: 2026-02-28)