Computers vertegenwoordigen geen cijfers, letters of speciale tekens met één enkele universele code. In plaats daarvan gebruiken ze tekencoderingsschema's . Deze schema's wijzen tekens toe aan numerieke waarden. De meest voorkomende zijn:
* ASCII (Amerikaanse standaardcode voor informatie-uitwisseling): Dit is een 7-bits codering (wat betekent dat er 7 bits worden gebruikt om elk teken weer te geven), wat neerkomt op 128 tekens, inclusief hoofdletters en kleine letters in het Engels, cijfers 0-9, leestekens en controletekens.
* Uitgebreide ASCII: Er bestaan verschillende 8-bits uitbreidingen van ASCII, die meer tekens toevoegen, vaak inclusief tekens met accenten en symbolen die in verschillende talen worden gebruikt. Deze zijn echter niet gestandaardiseerd.
* Unicode: Dit is een veel bredere, internationale standaard die karakters uit vrijwel alle schrijfsystemen vertegenwoordigt. Het maakt gebruik van coderingsschema's met variabele lengte, zoals UTF-8, UTF-16 en UTF-32. UTF-8 is de meest gebruikte codering op internet.
Hoe het werkt:
Elk teken heeft een unieke numerieke code. Bijvoorbeeld:
* In ASCII:'A' is 65, 'a' is 97, '0' is 48.
* In Unicode:'A' is U+0041 (hexadecimaal), 'a' is U+0061, '0' is U+0030.
De computer slaat deze numerieke codes op als binaire getallen (reeksen van nullen en enen). Wanneer je een personage op je scherm ziet, zoekt de computersoftware de bijbehorende code op en geeft de juiste glyph (visuele weergave van het personage) weer.
Er is dus niet één enkele "code" - deze hangt af van het gebruikte coderingsschema. De representatie is altijd een getal (in binair getal), maar de mapping van dat getal naar een zichtbaar teken wordt bepaald door de codering. |