- Fotografering
- Komposition
Förstå bitdjup och färgåtergivning för video
8-bitars, 10-bitars, 12-bitars färg — vad är skillnaden? Låt oss titta på hur bitdjup hjälper till att bestämma kvaliteten på din bild, särskilt när det gäller färgåtergivning.
Av Pete Tomkies -En videokameras förmåga att återge en jämn övergång mellan färger och nyanser är en viktig faktor när man försöker fånga filmiska bilder. Omfånget av möjliga färger en videokamera kan fånga bestäms av bitdjupet för filformatet som används för inspelningen.
Vad är bitdjup?
Alla videokameror spelar in sina bilder som digitala filer. Dessa binära digitala filer består av bitar av data som kallas bitar, som antingen kan vara en 1 eller en 0.
Videobilder består av färgpunkter som kallas pixlar och den specifika färgen för varje pixel definieras genom att blanda tillsammans olika mängder av färgerna rött, grönt och blått. Bitdjup hänvisar till antalet databitar – 1:or och 0:or – som används för att registrera färgkanalerna för varje pixel.
8-bitars video:Med 8-bitars videofilformat finns det 8 bitars datalagring (intervallet av binära tal 00000000 till 11111111) tillgängliga för varje färgkanal, vilket ger en variation på 256 nyanser per kanal. Den resulterande kombinationen av 256 nyanser vardera av rött, grönt och blått betyder att det finns 16 777 216 (256 x 256 x 256) möjliga färger i en 8-bitars videobild.
10-bitars video:För 10-bitars videonummer i det binära intervallet används 0000000000 till 1111111111 för att beskriva varje färgkanal. Det betyder att det finns 1 024 möjliga nyansvärden per kanal och totalt 1 073 741 824 möjliga färger i en 10-bitars bild.
12-bitars video:Färgen i 12-bitars video lagras med siffrorna 000000000000 till 111111111111 som erbjuder 4096 nyanser vardera av rött, grönt och blått för totalt över 68 miljarder färger.
Att öka bitdjupet ökar också filstorleken när mer data registreras. Men även om en 10-bitars videofil kan vara 20 procent större än en motsvarande 8-bitars fil, kommer den förra att ge fyra gånger så många färgnivåer per kanal.
Kameror och bildskärmar
DSLR:er och avancerade videokameror för konsumenter spelar in 8-bitars video internt. Canon och Nikon DSLRs använder en variant av MOV-filformatet medan Panasonic och Sony använder AVCHD-formatet. Även om externa inspelare kan användas med dessa kameror för att spela in i ett 10-bitars format (som ProRes), kommer det att finnas begränsade fördelar eftersom de flesta kameror bara kan mata ut en 8-bitars signal.
Panasonic Lumix GH5 är ovanlig bland spegellösa kameror eftersom den kan spela in 4K-film i ett 10-bitars format internt upp till en bildhastighet på 30p och kan mata en 10-bitars signal till en extern inspelare vid högre bildhastigheter.
Canons C200, från EOS Cinema-serien, spelar in 4K i antingen 10-bitars eller 12-bitars CinemaRAW-format, beroende på vald bildhastighet, och kan även spela in 4K UHD 8-bitars film i ett MP4-filformat.
Biokameror som de från Blackmagic Design, RED och Arri kan spela in 10-bitars ProRes-videofiler, men kan också spela in RAW-material i ett 12-bitars filformat. Vissa professionella kameror från Sony har till och med möjlighet att spela in 16-bitars video med en extern inspelareuppgradering.
Majoriteten av konsumentmonitorer, tv-apparater och projektorer som för närvarande finns på marknaden är 8-bitars enheter, och även om 10-bitars videomonitorer är tillgängliga, kräver de ett premiumpris på grund av deras högre specifikation.
10-bitars datorskärmar är vanligare, men de flesta datorgrafikkort matar bara ut en 10-bitars signal när du visar videospel. Videoredigering och graderingsprogram som Adobe Premiere Pro, Final Cut eller Davinci Resolve fungerar internt med 10-bitars eller högre, men kan behöva ytterligare videoutgångsenheter för att mata en 10-bitars förhandsvisningssignal av videouppspelningen.
Det finns ett begränsat utbud av 12-bitars monitorer, som referensmonitorerna från Dolby, men dessa är avsedda för avancerade professionella redigeringar och färggraderingssviter.
Varför spelar bitdjupet någon roll?
Det mänskliga ögat kan bara urskilja omkring 10 miljoner färger, så i en värld där de flesta bildskärmsenheter är 8-bitars och redan producerar 16,7 miljoner färger, varför behöver vi videofiler med högre bitdjup?
I många situationer och för många applikationer kommer 8-bitars videoformat att vara bra. Att arbeta med 10-bitars eller 12-bitars video kräver ökad datalagring och en kraftfullare dator för att redigera dina bilder. Däremot kan 8-bitars begränsningarna att endast ha 256 nyanser för varje färgkanal producera färgband i områden med gradering i ton, som en blå himmel i din bild.
Det ytterligare utbudet av nyanser (1024 vs 256) i en 10-bitars bild ger också mer utrymme för att korrigera utblåsta högdagrar eller djupa skuggor i en under- eller överexponerad video. I allmänhet ger den extra informationen i bilder med högre bitdjup mycket mer utrymme för färggradering jämfört med 8-bitars bilder, där bildkvaliteten kan börja försämras snabbt. När du väl har färggraderat 10-bitarsmaterial, vill du inte gå tillbaka till 8-bitarsfiler!
Det ökade tonomfånget gör också videofiler med högre bithastighet mycket bättre när du fotograferar gröna skärmbilder eller arbetar med digitala effekter. Datorgenererade bilder produceras vanligtvis på högre bitdjup, så när de komponeras med 8-bitars video reduceras de digitalt genererade elementen till det lägre bitdjupet och bildkvaliteten kan bli lidande.
Slutsats
Bitdjup är bara en aspekt av ett videofilformat. Kvaliteten på din inspelade bild kommer också att bero på faktorer som färgsampling (t.ex.:4:2:0, 4:2:2 eller 4:4:4) och datahastigheten med vilken den spelas in. Men genom att ha en förståelse för bitdjupet kan du bättre utvärdera vilken kamera du ska välja för ett visst jobb.