Inhoudsopgave:
Definitie - Wat betekent Hadoop Common?
Hadoop Common verwijst naar de verzameling algemene hulpprogramma's en bibliotheken die andere Hadoop-modules ondersteunen. Het is een essentieel onderdeel of module van het Apache Hadoop Framework, samen met het Hadoop Distributed File System (HDFS), Hadoop YARN en Hadoop MapReduce. Net als alle andere modules gaat Hadoop Common ervan uit dat hardwarefouten veel voorkomen en dat deze automatisch moeten worden afgehandeld in software door het Hadoop Framework.
Hadoop Common is ook bekend als Hadoop Core.
Techopedia verklaart Hadoop Common
Het Hadoop Common-pakket wordt beschouwd als de basis / kern van het framework, omdat het essentiële services en basisprocessen biedt, zoals abstractie van het onderliggende besturingssysteem en het bestandssysteem. Hadoop Common bevat ook de benodigde Java Archive-bestanden (JAR) en scripts die nodig zijn om Hadoop te starten. Het Hadoop Common-pakket biedt ook broncode en documentatie, evenals een bijdrage-sectie met verschillende projecten uit de Hadoop Community.