Q:
Hoe heeft de wet van Moore bijgedragen aan de huidige AI-revolutie?
EEN:Het is verleidelijk om te denken aan de vooruitgang van vandaag op het gebied van kunstmatige intelligentie als voornamelijk gerelateerd aan het oplossen van logische en gegevensgerichte problemen, maar voor bedrijven die proberen te innoveren en vooruit blijven gaan, kan het nuttig zijn om terug te gaan en na te denken over hoe krachtigere hardware ook bijgedragen aan de functionaliteit van machine learning en kunstmatige intelligentie van vandaag.
Sommige van de meer voor de hand liggende manieren waarop de wet van Moore heeft geprofiteerd van kunstmatige intelligentie, zijn duidelijk voor iedereen die de afgelopen 30 jaar naar IT heeft gekeken. De eerste is dat de werkelijke gecentraliseerde computerwerkstations en datacenters die werken met kunstmatige gegevenssets voor intelligentie kleiner zijn dan in de vroegere dagen van computergebruik - en dat maakt een verschil. Als eenvoudige mainframes nog steeds de ruimte innemen van een wasmachine / droger-set, zou dat begrijpelijkerwijs een dempend effect hebben op de behendige ontwikkeling van allerlei nieuwe technologieën.
Veel belangrijker is echter dat de efficiëntieprestaties van bedrijven op basis van de wet van Moore het gebruik van extreem kleine mobiele apparaten voor het verzamelen van gegevens mogelijk hebben gemaakt. Smartphones zijn het beste voorbeeld, maar de wet van Moore voorzag ons ook van digitale camera's, MP3-spelers en vele andere kleine stukjes hardware die allemaal hun eigen gegevens in een verbazingwekkend tempo verzamelen. Nu, het internet der dingen is dat proces aan het opladen met slimme keukenapparatuur en allerlei andere zeer moderne hardware die handelen vanuit het idee dat chipdragende apparaten klein genoeg zijn om in bijna alles te worden geplaatst.
Dit zijn echter niet de enige manieren waarop de wet van Moore heeft geprofiteerd van de ontwikkeling van nieuwe machine learning en kunstmatige intelligentie. In de MIT Technology Review beweert schrijver Tom Simonite dat de wet van Moore ook nuttig is geweest als een soort "coördinatieapparaat" dat heeft gediend om te projecteren wat er in de komende jaren op de markt zal komen, om ontwikkelaars en anderen wat weg te geven kaart en aanwijzingen voor toekomstige innovatie.
Een ander interessant perspectief komt van Niel Viljoen, die vertelt hoe de wet van Moore nog steeds cruciaal kan zijn voor de nieuwe cloud-gebaseerde systemen en de opkomst van gloednieuwe kunstmatige intelligentie technologie.
Het argument van Viljoen lijkt te zijn dat het toevoegen van universele kernen aan schaalsystemen niet voldoende is om de hardware echt op een uitgebreide manier met een netwerk te verbinden, wat tot knelpunten leidt. Een overeenkomstig idee is dat convergentiemodellen allerlei functies van gegevensintensieve systemen zullen versnellen. Met andere woorden, omdat computersystemen hun gegevensgebruik bleven schalen op basis van wat ze in een stuk hardware konden passen, zijn bouwers er nooit in geslaagd enkele van de overeenkomstige functies van ontwikkeling op te nemen, zoals beeldverwerking, codering, videoweergave, enz.
Als gevolg hiervan werden moderne datacenters zeer krachtig, maar nog steeds afhankelijk van externe elementen om de vereiste verwerking uit te voeren - Viljoen stelt de toekomstige opkomst van "systemen op een chip" waar hypergeconvergeerde hardware alles heeft wat nodig is om alle netwerkfunctionaliteit te doen, om datastromen te stroomlijnen en systemen zowel agile als data-krachtig te maken.
Over het algemeen heeft de wet van Moore geholpen bij de vooruitgang van IT en blijft deze op fundamentele manieren helpen. Het maakt deel uit van het "sciencefiction is het huidige" model dat laat zien hoe ver de mensheid is gekomen in het bouwen van gegevenssystemen in de loop van een of twee eeuwen.