Q:
Hoe kunnen ingenieurs gradiëntversterking gebruiken om systemen voor machine learning te verbeteren?
EEN:Net als andere vormen van stimuleren, probeert Gradient Boost van meerdere zwakke leerlingen een enkele sterke leerling te maken, in een soort digitale "crowdsourcing" van leerpotentieel. Een andere manier waarop sommigen gradiëntversterking verklaren, is dat ingenieurs variabelen toevoegen om een vage vergelijking te verfijnen, om preciezere resultaten te produceren.
Gradient boosting wordt ook beschreven als een "iteratieve" benadering, waarbij de iteraties mogelijk worden gekenmerkt als de toevoeging van individuele zwakke leerlingen aan een enkel sterk leerlingmodel.
Gratis download: machine learning en waarom het ertoe doet |
Hier is een boeiende beschrijving van hoe u naar een type gradiëntverhogende implementatie kunt kijken die de resultaten van machine learning zal verbeteren:
De systeembeheerders hebben eerst een aantal zwakke leerlingen ingesteld. Beschouw ze bijvoorbeeld als een reeks entiteiten AF, die elk rond een virtuele tafel zaten en aan een probleem werkten, bijvoorbeeld binaire beeldclassificatie.
In het bovenstaande voorbeeld wegen de ingenieurs eerst elke zwakke leerling, mogelijk willekeurig, door een invloedsniveau toe te wijzen aan A, B, C, enz.
Vervolgens zal het programma een bepaalde set trainingsafbeeldingen uitvoeren. Dan, gezien de resultaten, zal het de reeks zwakke leerlingen opnieuw wegen. Als A veel beter geraden heeft dan B en C, zal de invloed van A dienovereenkomstig worden verhoogd.
In deze simplistische beschrijving van een verbetering van het algoritme, is het relatief eenvoudig om te zien hoe de meer complexe aanpak verbeterde resultaten zal opleveren. De zwakke leerlingen "denken samen" en optimaliseren op hun beurt een ML-probleem.
Als gevolg hiervan kunnen ingenieurs de "ensemble" -benadering van gradiëntversterking gebruiken in bijna elk soort ML-project, van beeldherkenning tot de classificatie van gebruikersaanbevelingen of de analyse van natuurlijke taal. Het is in wezen een "teamgeest" -benadering van ML, en een die veel aandacht krijgt van enkele krachtige spelers.
Vooral het stimuleren van de gradiënt werkt vaak met een te onderscheiden verliesfunctie.
In een ander model dat wordt gebruikt om gradiëntversterking uit te leggen, is een andere functie van dit type versterking om classificaties of variabelen te isoleren die, in een groter beeld, alleen ruis zijn. Door de regressieboom of datastructuur van elke variabele te scheiden in het domein van een zwakke leerling, kunnen ingenieurs modellen bouwen die de geluidssignalering nauwkeuriger kunnen "klinken". Met andere woorden, de betekenaar die onder de ongelukkige zwakke leerling valt, zal worden gemarginaliseerd omdat die zwakke leerling opnieuw naar beneden wordt gewogen en minder invloed krijgt.