Inhoudsopgave:
Definitie - Wat betekent Decimal?
In de context van computing verwijst decimaal naar het nummeringssysteem van base-10. Het is de manier waarop mensen getallen lezen. Over het algemeen kan decimaal alles zijn dat is gebaseerd op het getal 10. Begrijpen hoe decimaal verband houdt met binair, octaal en hexadecimaal is essentieel voor degenen die in de IT-industrie werken.
Andere termen voor decimaal zijn base-10 en ontkenning.
Techopedia legt Decimal uit
In de wiskunde kan decimaal verwijzen naar het decimale nummeringssysteem, de decimale notatie of elk getal dat in decimale notatie is geschreven. Decimale getallen worden geschreven volgens hun plaatswaarde. Het gehele getal wordt links van de decimale punt geschreven en elk fractioneel getal wordt rechts geschreven (bijvoorbeeld 1.023).
Het gebruik van decimalen is zo oud als de menselijke geschiedenis. Het algemene gebruik van decimalen kan te wijten zijn aan de tien vingers van mensen (die ook bi-quinair kunnen worden genoemd, omdat er vijf vingers aan elke hand zijn). Decimaal werd gebruikt in oude rekenmachines zoals de Chinese staafcalculator en het telraam. De Griekse wiskundige Archimedes gebruikte machten van 108 (10.000 x 10.000, of "talloze") om de grootte van het universum te schatten.
Base-10 gebruikt de cijfers 0-1-2-3-4-5-6-7-8-9, in tegenstelling tot 0-1 gebruikt in binair getal. Moderne computers tellen mee als binair, maar er zijn ook decimale computers geweest. De analytische motor van Charles Babbage is ontworpen met behulp van decimalen. Andere vroege computers zoals de ENIAC en de IBM 650 gebruikten intern base-10.