Dette er et relativt teknisk tema, men vi skal forsøke å forklare det på en forståelig måte.
Illustrasjonene i denne artikkelen er alle i gråtoner. Det er gjort fordi det er lettere å se forskjellene da. Men det er de samme prinsippene som gjelder for hver av fargekanalene
Alle bildebrikker i vanlige kameraer i dag (med unntak av Leica Monochrom) har et fargefilter foran som slipper igjennom rødt, grønt eller blått lys. Bildebrikken mottar et analogt signal (lys) som må konverteres til et digitalt før det kan gjøre særlig mye med det. I denne konverteringen må disse fargene representeres ved et antall bits (enere eller nuller), og jo flere bits, desto flere nivåer av hver farge kan det registrere. Dersom kameraet registrer 8 bits pr. fargekanal blir det 256 nyanser av hver farge, eller totalt over 16 millioner farger. .
For hver bit utover dette, dobles antall farger som kan registreres. Det betyr, i teorien, at du kan få jevnere fargeoverganger desto flere bits man bruker på fargegjengivelsen. Men det er likevel noen begrensninger.
1. Øyet ditt kan bare oppfatte inntil noen få millioner farger. Hvis 8 bit gir deg over 16 millioner farger, hvorfor skal man ha så mye, for ikke å snakke om enda mer?
2. På et foto, kan jeg ikke se noen antydning til ujevne fargeoverganger (banding) med 10 bit farger. Hvorfor skal jeg ha flere?
3. Det kommer et punkt der flere farger ikke gir noe mer enn større datafiler
Øyet kan registrere inntil noen få millioner farger. Men disse fargene er ikke nødvendigvis de samme som en bildefil med 8 bits farger gjengir. Det er derfor i underkant å bare ha 8-bits farger.
Men hva da med JPG-filer? De har jo bare 8-bits farger.
Et trenet øye vil i noen tilfeller kunne se banding på en jpg-fil. Men jpg er ment å være er ferdig bilde. Begynner du å redigere på den, endre på fargene, sprekker den veldig fort opp, og du ender opp med et mye dårligere resultat enn du hadde trengt. Derfor er det viktig å ta bilder i RAW dersom du har tenkt å redigere bildet etterpå. Råfiler har mye større fargedybde. Vanligvis 12, 14 eller til og med 16 bits.
Hvis du tar et bilde som er feileksponert, eller med blasse farger som du ønsker å gjøre mer med. Eller hvis du filmer med Log, og skal endre fargene i etterbehandlingen, blir det fort for lite med 8 bits. For video kommer du langt med 10 bits, som gir fire ganger så mange farger. Eller enda bedre med 12 bits som gir 16 ganger så mange farger. Grunnen til at det er mindre fargedybde i video enn på stillbilder er rett og slett at det krever mye prosessorkraft å håndtere. Video har mye større datamengde enn stillbilder, og derfor må man begrense det litt (enn så lenge).
Siden systemet mitt bare kan vise deg jpg-filer, får jeg ikke vist hvordan bildet over hadde sett ut med flere gråtoner, men det er ikke så vanskelig å tenke seg at stripene (banding) hadde blitt borte.
Fordelen med flere farger, er at du kan gjøre mye mer i etterbehandlingen av bildet, uten at det går utover fargene. Dersom du har undereksponert bildet eller du skal bruke fargene på en kreativ måte, trenger du ganske mange av dem. Men nesten alle tilfeller vil 12-14 bits være nok. Mer om det lenger ned.
Banding er lettest å se hvis bildet er helt uten støy. Det øyeblikket støy introduseres i bildet, vil nivåforskjellene på støyen fort bli større enn forskjellen på fargenivåene, og dermed visker dem ut. Banding er altså kun synlig på bilder der variansjonen i nivået på støyen er større enn forkjellen mellom to nærliggende fargenyanser. Du får med andre ord lettere banding på lave ISO-verdier.
Farger og dynamikkomfang
Dynamikkomfanget, det vil si forholdet mellom de mørkeste og lyseste detaljene kameraet kan gjengi, oppgis i antall blendertrinn. Tallet er vanligvis i nærheten av antall bits for gjengivelse av farger, men har ingenting direkte med hverandre å gjøre. Men det er likevel en sammenheng man skal være klar over.
Dynamikkomfanget forteller i praksis hvor mørke detaljer kameraet kan gjengi, uten at det forsvinner i støy. Det betyr at jo mer støy, desto mindre dynamikkomfang.
Med flere fargenivåer vil det også være flere av de mørkeste fargene tilgjengelig. Men i de mørke områdene i et bilde finner du også mest støy. Dersom kameraet ditt ikke har stort nok dynamikkomfang til å gjengi detaljer i dette området, vil heller ikke flere farger hjelpe deg. Da vil de kun bli brukt til å gjengi støy i mer detaljer, og det fyller mer plass på minnekortet, og er mer krevende å prosessere.
Hvis derimot kameraet ditt har et stort dynamikkomfang, er det nyttig med ekstra mange farger. Da kan du få mer detaljer i de mørke områdene. Kameraer som Sony A7S III har store piksler, som samler mye lys, og dermed lavt støynivå og stort dynamikkomfang. Et slikt kamera kan lett utnytte 14-bits farger. Det vil komme en funksjon i A7S III for å levere 16-bits råvideo til ekstern opptaker. Da vil man ha ekstremt mye å jobbe med, både når det gjelder dynamikkomfang og farger.
I praksis betyr dette at dersom du har et APS-C-kamera med 24 megapiksler, så har du antakelig ikke et dynamikkomfang som er stort nok til å utnytte særlig mer enn kanskje 12-13-bits farger. Så selv om Sony har begynt å lage APS-C CMOS-brikker som kan levere ekte 16-bits farger, vil du ikke kunne utnytte det.
Oppsummering
• Antall bits i fargegjengivelsen forteller hvor mange fargenyanser det kan være i bildet eller videoen.
• Du trenger mange farger for å unngå banding og for å ha litt å jobbe med i etterbehandlingen av bilder og video. For video er et minimum i dag 10-bits farger, mens for foto bør 12 være et minimum hvis du skal drive etterbehandling.
• For mange farger hjelper deg heller ikke, for det kan fort forsvinne i støy, så selv om man kan drømme om 16-bits farger, som på de store mellomformatkameraene (Phase One, Hasselblad og Fujifilm GFX100), så vil du sjelden eller aldri få noe utbytte av det, med mindre du har et kamera med spesielt stort dynamikkomfang.
For spesielt interesserte, kan denne artikkelen være en interessant grunnlag (fra 2008)
Illustrasjonene i denne artikkelen er alle i gråtoner. Det er gjort fordi det er lettere å se forskjellene da. Men det er de samme prinsippene som gjelder for hver av fargekanalene
Alle bildebrikker i vanlige kameraer i dag (med unntak av Leica Monochrom) har et fargefilter foran som slipper igjennom rødt, grønt eller blått lys. Bildebrikken mottar et analogt signal (lys) som må konverteres til et digitalt før det kan gjøre særlig mye med det. I denne konverteringen må disse fargene representeres ved et antall bits (enere eller nuller), og jo flere bits, desto flere nivåer av hver farge kan det registrere. Dersom kameraet registrer 8 bits pr. fargekanal blir det 256 nyanser av hver farge, eller totalt over 16 millioner farger. .
For hver bit utover dette, dobles antall farger som kan registreres. Det betyr, i teorien, at du kan få jevnere fargeoverganger desto flere bits man bruker på fargegjengivelsen. Men det er likevel noen begrensninger.
1. Øyet ditt kan bare oppfatte inntil noen få millioner farger. Hvis 8 bit gir deg over 16 millioner farger, hvorfor skal man ha så mye, for ikke å snakke om enda mer?
2. På et foto, kan jeg ikke se noen antydning til ujevne fargeoverganger (banding) med 10 bit farger. Hvorfor skal jeg ha flere?
3. Det kommer et punkt der flere farger ikke gir noe mer enn større datafiler
Øyet kan registrere inntil noen få millioner farger. Men disse fargene er ikke nødvendigvis de samme som en bildefil med 8 bits farger gjengir. Det er derfor i underkant å bare ha 8-bits farger.
Men hva da med JPG-filer? De har jo bare 8-bits farger.
Et trenet øye vil i noen tilfeller kunne se banding på en jpg-fil. Men jpg er ment å være er ferdig bilde. Begynner du å redigere på den, endre på fargene, sprekker den veldig fort opp, og du ender opp med et mye dårligere resultat enn du hadde trengt. Derfor er det viktig å ta bilder i RAW dersom du har tenkt å redigere bildet etterpå. Råfiler har mye større fargedybde. Vanligvis 12, 14 eller til og med 16 bits.
Hvis du tar et bilde som er feileksponert, eller med blasse farger som du ønsker å gjøre mer med. Eller hvis du filmer med Log, og skal endre fargene i etterbehandlingen, blir det fort for lite med 8 bits. For video kommer du langt med 10 bits, som gir fire ganger så mange farger. Eller enda bedre med 12 bits som gir 16 ganger så mange farger. Grunnen til at det er mindre fargedybde i video enn på stillbilder er rett og slett at det krever mye prosessorkraft å håndtere. Video har mye større datamengde enn stillbilder, og derfor må man begrense det litt (enn så lenge).
Siden systemet mitt bare kan vise deg jpg-filer, får jeg ikke vist hvordan bildet over hadde sett ut med flere gråtoner, men det er ikke så vanskelig å tenke seg at stripene (banding) hadde blitt borte.
Fordelen med flere farger, er at du kan gjøre mye mer i etterbehandlingen av bildet, uten at det går utover fargene. Dersom du har undereksponert bildet eller du skal bruke fargene på en kreativ måte, trenger du ganske mange av dem. Men nesten alle tilfeller vil 12-14 bits være nok. Mer om det lenger ned.
Banding er lettest å se hvis bildet er helt uten støy. Det øyeblikket støy introduseres i bildet, vil nivåforskjellene på støyen fort bli større enn forskjellen på fargenivåene, og dermed visker dem ut. Banding er altså kun synlig på bilder der variansjonen i nivået på støyen er større enn forkjellen mellom to nærliggende fargenyanser. Du får med andre ord lettere banding på lave ISO-verdier.
Farger og dynamikkomfang
Dynamikkomfanget, det vil si forholdet mellom de mørkeste og lyseste detaljene kameraet kan gjengi, oppgis i antall blendertrinn. Tallet er vanligvis i nærheten av antall bits for gjengivelse av farger, men har ingenting direkte med hverandre å gjøre. Men det er likevel en sammenheng man skal være klar over.
Dynamikkomfanget forteller i praksis hvor mørke detaljer kameraet kan gjengi, uten at det forsvinner i støy. Det betyr at jo mer støy, desto mindre dynamikkomfang.
Med flere fargenivåer vil det også være flere av de mørkeste fargene tilgjengelig. Men i de mørke områdene i et bilde finner du også mest støy. Dersom kameraet ditt ikke har stort nok dynamikkomfang til å gjengi detaljer i dette området, vil heller ikke flere farger hjelpe deg. Da vil de kun bli brukt til å gjengi støy i mer detaljer, og det fyller mer plass på minnekortet, og er mer krevende å prosessere.
Hvis derimot kameraet ditt har et stort dynamikkomfang, er det nyttig med ekstra mange farger. Da kan du få mer detaljer i de mørke områdene. Kameraer som Sony A7S III har store piksler, som samler mye lys, og dermed lavt støynivå og stort dynamikkomfang. Et slikt kamera kan lett utnytte 14-bits farger. Det vil komme en funksjon i A7S III for å levere 16-bits råvideo til ekstern opptaker. Da vil man ha ekstremt mye å jobbe med, både når det gjelder dynamikkomfang og farger.
I praksis betyr dette at dersom du har et APS-C-kamera med 24 megapiksler, så har du antakelig ikke et dynamikkomfang som er stort nok til å utnytte særlig mer enn kanskje 12-13-bits farger. Så selv om Sony har begynt å lage APS-C CMOS-brikker som kan levere ekte 16-bits farger, vil du ikke kunne utnytte det.
Oppsummering
• Antall bits i fargegjengivelsen forteller hvor mange fargenyanser det kan være i bildet eller videoen.
• Du trenger mange farger for å unngå banding og for å ha litt å jobbe med i etterbehandlingen av bilder og video. For video er et minimum i dag 10-bits farger, mens for foto bør 12 være et minimum hvis du skal drive etterbehandling.
• For mange farger hjelper deg heller ikke, for det kan fort forsvinne i støy, så selv om man kan drømme om 16-bits farger, som på de store mellomformatkameraene (Phase One, Hasselblad og Fujifilm GFX100), så vil du sjelden eller aldri få noe utbytte av det, med mindre du har et kamera med spesielt stort dynamikkomfang.
For spesielt interesserte, kan denne artikkelen være en interessant grunnlag (fra 2008)
Her er en 8-bits gråtoneskala. Ser du etter, ser du vertikale striper som skiller fargene.
Her har jeg laget en ny gråtoneskala, men ikke tatt med svart eller hvitt (lav kontrast). Det illustrerer et bilde du trenger å justere på.
Her har jeg justert kontrasten fra bildet over, så man får med både svart og hvitt. Se da hvordan bandingen blir tydeligere. Hadde jeg gjort dette fra en 12- eller 14-bits fil, hadde du fortsatt ikke sett banding.
Her er samme bildet som det første, men med litt støy. Da forsvinner bandingen.