Huis In het nieuws Waarom is functieselectie zo belangrijk bij machine learning?

Waarom is functieselectie zo belangrijk bij machine learning?

Anonim

Q:

Waarom is functieselectie zo belangrijk bij machine learning?

EEN:

Functieselectie is uiterst belangrijk bij machine learning, vooral omdat het dient als een fundamentele techniek om het gebruik van variabelen te richten op wat het meest efficiënt en effectief is voor een bepaald machine learning-systeem.

Experts praten over hoe functieselectie en functie-extractie de vloek van dimensionaliteit minimaliseren of helpen omgaan met overfitting - dit zijn verschillende manieren om het idee van te complexe modellering aan te pakken.

Gratis download: machine learning en waarom het ertoe doet

Een andere manier om dit te zeggen is dat functieselectie helpt om ontwikkelaars de tools te geven om alleen de meest relevante en bruikbare gegevens in trainingssets voor machine learning te gebruiken, wat de kosten en het datavolume dramatisch vermindert.

Een voorbeeld is het idee om een ​​complexe vorm op schaal te meten. Naarmate het programma groter wordt, worden er meer datapunten geïdentificeerd en wordt het systeem veel complexer. Maar een complexe vorm is niet de typische gegevensset die een machine learning-systeem gebruikt. Deze systemen kunnen gegevenssets gebruiken die sterk verschillende niveaus van variantie tussen verschillende variabelen hebben. Bij het classificeren van soorten kunnen ingenieurs bijvoorbeeld functieselectie gebruiken om alleen de variabelen te bestuderen die hen de meest gerichte resultaten opleveren. Als elk dier in de grafiek hetzelfde aantal ogen of benen heeft, kunnen die gegevens worden verwijderd of kunnen andere relevantere gegevenspunten worden geëxtraheerd.

Functiekeuze is het discriminerende proces waarbij ingenieurs machine learning-systemen op een doel richten. Naast het idee om complexiteit uit systemen op schaal te verwijderen, kan functieselectie ook nuttig zijn bij het optimaliseren van aspecten van wat experts de "bias variantie trade-off" in machine learning noemen.

De redenen waarom functieselectie helpt bij bias- en variantieanalyse zijn ingewikkelder. Een studie van Cornell University over functieselectie, biasvariantie en afzakken dient om te illustreren hoe functieselectie projecten helpt.

Volgens de auteurs onderzoekt de paper "het mechanisme waarmee functieselectie de nauwkeurigheid van begeleid leren verbetert".

De studie stelt verder:

Een empirische bias / variantie-analyse naarmate de selectie van functies voortschrijdt, geeft aan dat de meest nauwkeurige functieset overeenkomt met het beste compromispunt voor bias-variantie voor het leeralgoritme.

Bij het bespreken van het gebruik van sterke of zwakke relevantie, praten de schrijvers over functieselectie als "een methode voor het verminderen van variantie" - dit is logisch wanneer u variantie ziet als in wezen de hoeveelheid variatie in een gegeven variabele. Als er geen variantie is, kan het gegevenspunt of de array in wezen nutteloos zijn. Als er een extreem grote variantie is, kan dit overgaan in wat ingenieurs kunnen beschouwen als "ruis" of irrelevante, willekeurige resultaten die moeilijk te beheren zijn voor het machine learning-systeem.

In het licht hiervan is functieselectie een fundamenteel onderdeel van ontwerp in machine learning.

Waarom is functieselectie zo belangrijk bij machine learning?