Achtergrond kleurdiepte tv’s: wat is 8-bit, 10-bit en 12-bit?

01 februari 2017 9 Minuten 5 Reacties
kluerdiepte_intro

Samen met HDR (High Dynamic Range) sluipen er heel wat technologische vernieuwingen binnen in je televisie. Zo bieden HDR-beelden een hoger dynamisch bereik (meer zwartdetail en hogere witwaardes) en een groter kleurbereik. Maar je ziet ook dikwijls referenties naar wel erg technisch klinkende zaken zoals 10-bit kleur en kleurdiepte. We leggen je precies uit wat dat betekent en waarom het belangrijk is.

De basis van kleurweergave

Hoe geven we eigenlijk kleur weer op een scherm? Zoals je weet bestaat elke pixel op een beeldscherm uit drie subpixels: een rode, groene en blauwe. Het pure rood, groen en blauw toon je door enkel de corresponderende subpixels te activeren.

Alle kleuren die de televisie kan tonen zitten binnen de driehoek die op het chromaticiteitsdiagramma gevormd worden door dat pure rood, groen en blauw. Alle kleuren die binnen deze driehoek liggen vormen het kleurbereik van de televisie. Wie nog even een opfrisser wil over kleurbereik, lees dan verder in ons artikel over het kleurbereik van tv’s.

 


De televisie geeft alle kleuren van het kleurbereik weer door het basis rood, groen en blauw in een bepaalde verhouding te mengen. Een pixel met een bepaalde kleur kunnen we beschrijven met een triplet (x, y, z) waarbij x, y, en z de relatieve hoeveelheid van rood, groen en blauw aangeven.

Kleurdiepte: meer bits, meer tinten

Welke waardes kunnen we gebruiken voor (x, y, z)? Het triplet (0, 0, 0) representeert zwart (de pixel staat uit). Als we de maximale waarde van de subpixels definiëren als 1, dan is (1, 1, 1) het helderste wit dat het scherm kan tonen (rood, groen en blauw mengen samen immers tot wit). Maar tussenliggende waardes zoals bvb. (0.314, 0.272, 0.141) kunnen we wel gebruiken in het wiskundig raamwerk rond kleurtheorie, maar niet om een scherm aan te sturen. Een videosignaal is digitaal en wordt dus gecodeerd in een aantal bits. Dat aantal noemen we de kleurdiepte (of soms bitdiepte).

Als we aan elke subpixel 1 bit toekennen, dan kan elke subpixel enkel aan of uit staan. Er zijn dan 8 mogelijke kleuren (2*2*2), namelijk zwart, rood, groen, blauw, cyaan (groen+blauw), magenta (blauw+rood), geel (rood+groen) en wit. Naarmate het aantal bits dat we gebruiken om de waarde van een subpixel te coderen toeneemt, groeit het aantal mogelijke schakeringen. Het aantal schakering per basiskleur is 2n waarbij n het aantal bits is. En het totaal aantal kleuren dat een scherm kan weergeven is 2n x 2n x 2n, oftewel alle mogelijke combinaties van de drie basiskleuren. Met 8 bits per kleur kan je elke basiskleur in 256 (28 = 256) stappen activeren. Het totaal aantal kleuren komt dan uit op meer dan 16,7 miljoen (256x256x256).

Bits Aantal waardes per hoofdkleur Totaal aantal kleuren
1 21 = 2 2x2x2 = 8
2 22 = 4 4x4x4 = 64
8 28 = 256 256x256x256 = 16.777.216
10 210 = 1024 1024x1024x1024 = 1.073.741.824
12 212 = 4096 4096x4096x4096 = 68.719.476.736

 

Opgelet, in veel gevallen spreekt men van 24-bit kleur. In dat geval refereert men naar de gezamenlijke hoeveelheid bits van rood, groen en blauw: 8+8+8 = 24. Dat beschrijft uiteraard beter de totale kleurdiepte van het systeem. In uitzonderlijke gevallen spreekt men dus over hetzelfde als men het heeft over 8-bit kleur of 24-bit kleur. Verwarrend, dat is waar, maar nu weet je waarom.

Waarom is 8 bits kleurdiepte niet meer voldoende?

Waarom worden we nu om de oren geslagen met 10- en 12-bit kleur? Onze televisies en computermonitoren gebruiken al vele jaren 8-bit kleur. Dvd, Blu-ray en televisie-uitzendingen zijn gecodeerd met 8 bits per kleur. Zijn die 16,7 miljoen kleuren dan niet genoeg? Voor heel wat beelden is dat voldoende, maar ons oog is erg gevoelig voor graduele veranderingen in helderheid en kleur. In zeer zachte kleurovergangen van de ene naar de andere kleur, kan het zijn dat het display niet genoeg stappen heeft om die overgang te maken zonder zichtbare kleurbanden (vandaar dat we het probleem ‘banding’ noemen). Vroeger, op onze ‘kleine’ 32 inch televisies, was dat zelden een probleem. Maar nu is een 55 inch televisie geen uitzondering meer. En de gradiënt die je op je oude 32 inch-tv als perfect waarnam omdat je er zo ver van af zat, is op een 55 inch scherm en op dezelfde kijkafstand in veel meer detail te zien, en daardoor zie je soms banding.

Maar er zijn nog factoren die meespelen. Met de introductie van HDR en uitgebreid kleurbereik wordt het probleem immers nog groter. HDR (High Dynamic Range) vereist een hogere piekluminantie. Films voor Blu-ray werden tot nu toe in de studio gemastered op een scherm met maximum 100 nits piekluminantie. Voor HDR gebruikt men nu in diezelfde filmstudio’s schermen die veel helderder kunnen gaan, tot 1.000 nits of zelfs 4.000 nits, en in de toekomst mogelijk zelfs 10.000 nits. (voor de duidelijkheid, dit zijn zeer dure professionele monitoren). Er moet dus een groter bereik onderverdeeld worden in een discreet aantal stappen. Bovendien is ons oog erg gevoelig voor zeer lichte variaties in donkere tinten, dus moeten er veel meer stappen toegevoegd worden in het donkere deel van de grijsschaal dan in het heldere deel.

Een gelijkaardig iets doet zich voor bij het kleurbereik. Het nieuwe Rec.2020 kleurbereik (zie afbeelding) is aanzienlijk groter dan Rec.709 dat we vandaag gebruiken voor al onze content. Om banding te vermijden zijn er dus zeker meer en kleinere stapjes nodig om heel dat bereik voldoende gedetailleerd te verdelen.

Daarom stappen we in onze beeldschermen, en ons beeldmateriaal over naar 10 bits. Dankzij 10 bit-kleur vergroot je het aantal beschikbare stappen voor een primaire kleur (en dus ook voor de grijsschaal) met een factor vier, en het aantal beschikbare tinten met een factor 64.

Eenvoudig uitgelegd

Wie het concept eenvoudig wil visualiseren stelt zich het volgende voor. Veronderstel, je verdeelt een lat van 10cm lang in 100 stappen. Die stappen (elk 1 mm lang) zijn klein genoeg om te voldoen aan ons doel (in dit geval: nauwkeurig meten). De introductie van HDR, groter kleurbereik en grotere schermen kun je dan vergelijken met het uitrekken van die lat tot 1m. Als we dan nog steeds 100 stappen blijven gebruiken voor de onderverdeling, dan zijn die 1cm lang. Maar de nauwkeurigheid die we eisen is niet veranderd, die is nog steeds 1mm. Tenzij we dus meer onderverdelingen maken, zullen we met die 1m lat steevast een zekere afwijking vaststellen in onze meting.

Hoeveel bits is voldoende?

Er zit enorm veel wetenschap achter de berekeningen over hoeveel bits volstaan zodanig dat een stap verandering in luminantie of kleurdetail net onzichtbaar is. Met al die formules gaan we je niet rond de oren slaan, maar het resultaat geven we je wel mee. De consensus is dat 12 bits zouden volstaan als we schermtechnologie hebben die werkelijk de grenzen van het menselijk oog benadert.  Maar vermits we daar nog niet zijn, volstaat voor de huidige en nabije toekomst 10 bits.

In post production, tijdens het bewerken van de video, of bij interne bewerkingen in een televisies kan het signaal zelfs omgezet worden naar een nog hogere kleurdiepte.  Dat is van belang om tijdens die bewerkingen eventuele fouten zo klein mogelijk te houden. Het uiteindelijke resultaat wordt dan terug gebracht naar 8 of 10 bit.

Is mijn tv een 10-bit tv?

Wat heb je nodig om van de 10-bit kleurdiepte te genieten? Om te beginnen uiteraard een tv die beschikt over een 10-bit paneel. Met andere woorden het scherm moet aangedreven kunnen worden met 10-bit signalen. Vermits de standaarden voor HDR een 10-bit signaal gebruiken, zou je kunnen veronderstellen dat elke HDR-compatibele tv een 10-bit paneel gebruikt. Dat is helaas niet het geval. En fabrikanten geven dit ook niet steeds duidelijk aan. De topmodellen gebruiken wel steevast 10 bit-panelen, maar in de middenmoot, waar we eerder spreken van HDR-compatibel in plaats van echte HDR-weergave, worden nog regelmatig 8 bit-panelen gebruikt. Het 10 bit-signaal wordt dan omgezet naar een 8 bit-equivalent. Natuurlijk is dat beeld niet zo goed als op een echt 10 bit-paneel, maar er is wel wat verbetering.

Uiteraard moet ook de content die je bekijkt in 10-bit gecodeerd zijn. Dat is zeker het geval voor alle HDR-content. Content in HDR10 (de standaard die verplicht aanwezig is op Ultra HD Blu-ray) gebruikt een 10-bit signaal. Dolby Vision (een andere HDR-standaard) kan zelfs 12-bit signalen aanleveren. Maar al je bestaande content zoals dvd, Blu-ray, of tv-uitzendingen zal nog steeds een 8 bit-signaal zijn.

Meer informatie

Voor meer informatie over de technieken op het gebied van tv en aankoopadviezen kun je terecht in onze homecinema informatiegids. Ook kun je direct meer lezen via onderstaande links.

HDMI 2.1: wat is het en wat heb je er aan?
Een THX gecertificeerde tv: wat is het en wat heb je er aan?
Net een nieuwe tv gekocht: wat nu?
Nieuwe tv kopen: hier moet je op letten
Een oled of lcd tv kopen: dit zijn de verschillen

Reacties (5)