Huis audio Waarom doet darpa onderzoek naar verklaarbare ai?

Waarom doet darpa onderzoek naar verklaarbare ai?

Anonim

Q:

Waarom doet DARPA onderzoek naar "verklaarbare AI"?

EEN:

Over het algemeen wordt verklaarbare kunstmatige intelligentie een veelbesproken onderdeel van baanbrekend werk in de gegevenswetenschappen. Het helpt de menselijke controle over een inherent vluchtig en dynamisch type technologie te begeleiden - verklaarbare AI helpt veel van onze collectieve vragen over hoe kunstmatige intelligentie zal werken te beantwoorden.

Om verklaarbare AI te begrijpen, helpt het om te begrijpen hoe "reguliere AI" eruit ziet. Traditioneel, als AI vorm begint aan te nemen, bestaat het typische project uit een fancy nieuwe softwaremogelijkheid, verborgen in algoritmen en trainingsets en lineaire code, dat is een soort van "block box" voor gebruikers. Ze weten dat het werkt - ze weten gewoon niet precies hoe.

Dit kan leiden tot "vertrouwensproblemen" waarbij gebruikers de basis kunnen ondervragen waarop een technologie beslissingen neemt. Dat is wat verklaarbare AI zou moeten aanpakken: Uitlegbare AI-projecten worden geleverd met extra infrastructuur om eindgebruikers de intentie en de structuur van de AI te laten zien - waarom het doet wat het doet.

In een tijdperk waarin topinnovators zoals Bill Gates en Elon Musk hun bezorgdheid uiten over hoe kunstmatige intelligentie zal werken, lijkt verklaarbare AI buitengewoon aantrekkelijk. Experts beweren dat een goed verklaarbare AI eindgebruikers zou kunnen helpen begrijpen waarom technologieën doen wat ze doen, het vertrouwen vergroten en ook het gebruiksgemak en het gebruik van deze technologieën vergroten.

DARPA legt echter specifiek alleen uit waarom het geïnteresseerd is in de nieuwe projecten. Een pagina op DARPA laat zien dat het ministerie van Defensie een 'torrent' van kunstmatige intelligentie-applicaties verwacht, en enige chaos in zijn ontwikkeling.

"Voortdurende vooruitgang belooft autonome systemen te produceren die zelfstandig waarnemen, leren, beslissen en handelen", schrijft David Gunning. “De effectiviteit van deze systemen wordt echter beperkt door het huidige onvermogen van de machine om hun beslissingen en acties aan menselijke gebruikers uit te leggen. … Verklaarbare AI - vooral verklaarbaar machinaal leren - is essentieel als toekomstige oorlogsjagers een opkomende generatie van kunstmatig intelligente machinepartners moeten begrijpen, adequaat vertrouwen en beheren. "

Het online essay van Gunning suggereert dat verklaarbare AI-systemen zullen helpen om "de grondgedachte" voor technologieën te bieden, hun sterke en zwakke punten te tonen en gebruikstoepassingen transparanter te maken. Een afbeelding op de pagina laat zien hoe een eenvoudige pijplijn van kunstmatige intelligentie-functionaliteit uit trainingsgegevens zou worden aangevuld met iets dat een verklaarbaar model wordt genoemd en een verklaarbare interface die de gebruiker helpt bij het beantwoorden van vragen. Gunning suggereert verder dat een verklaarbaar AI-programma twee belangrijke focusgebieden zal hebben - een zou multimedia-gegevens doorzoeken om te vinden wat nuttig is voor gebruikers, en een tweede focus zou zijn het simuleren van beslissingsprocessen voor beslissingsondersteuning.

DARPA hoopt een "toolkit" te bieden die kan helpen om in de toekomst verklaarbare AI-systemen te ontwikkelen.

Waarom doet darpa onderzoek naar verklaarbare ai?