Filmschool – Tweede dag

Oorspronkelijk geplaatst door Jasper Langedijk op vrijdag 06 mei 2016.

Dag twee. Met hoger tempo door nog meer theorie. Ik stond met open armen in de les, dus dat was alleen maar welkom. Vandaag gingen we verder met het doornemen van de onderwerpen digitale signaal processing (DPS), de recorder, codecs en compressie. Allemaal termen die me uiteraard wel bekend zijn en waarover ik te hooi en te gras (of soms zeer diepgaand en gericht) al van alles heb gelezen. Maar nog nooit ingepakt in een lesprogramma, waardoor ik het allemaal heel anders binnenkrijg. Anders begrijp. En beter onthoud.

Wat ik het moeilijkst vond van gisteren (volgens mijn eigen verslag), heb ik nog even nagevraagd aan het begin van deze les. Het bleek dat het wel meeviel: ik dacht dat er een geheime lenzen-formule of -logica (of -tabel) was die de cameraman in zijn hoofd had. Ik was in de veronderstelling dat ik iets moest begrijpen van brandpuntafstand en de afstand tussen de lens en wat je filmt. Maar afgezien van wat logische algemeenheden (als de hoek te klein is dan pas wat je filmt misschien niet in je kader, joh), bleek er geen Geheim van de Smid. Gerustgesteld…

Waar ging het over?
Eigenlijk al beantwoord: DPS, recorder, codecs en compressie. Wanneer de beelden door de lens van de camera op de lichtgevoelige chip zijn ‘beland’, worden deze in drie kleurtjes uit elkaar getrokken: rood, groen en blauw. Die beelden gaan op weg naar de recorder. Maar omdat ze nog ‘ruw’ zijn, moet er onderweg van alles aan worden bijgesteld. Als je ze zó zou zien, zo de moed je in de schoenen zakken. Na digitale signaal processing (een aantal processen die je ook nog kunt beïnvloeden) komt het als het goed is alleraardigst in het recorder deel van de camera terecht. Onderweg wordt het nog even van analoog naar digitaal omgezet. In de recorder wordt het opgesplitst in andere brokjes informatie en gecodeerd en gecomprimeerd (anders zou met een paar seconden video je geheugenkaartje of andere opslagmedium vol zitten of zich verslikken in de hoeveelheid data die tegelijk zou moeten worden weggeschreven.

Wat kun je er direct mee?
Bij veel (semi)professionele camera’s is het mogelijk tussen de sensor en de record in het beeld (en geluid) als het ware af te tappen. Als je die informatie met het juiste kabeltje naar een externe opslag stuurt, kun je in voorkomende gevallen in een hogere colorsampling wegschrijven dan wat je normaal uit de camera krijgt. Dat is een hele interessante waar ik direct na thuiskomst in ben gedoken (daar ben ik nog mee bezig nu).

Wat vond ik er van?
Ik vond het weer heel interessant. Kijk inmiddels wel uit naar daadwerkelijk met de camera’s aan het werk te mogen gaan.

Moeilijkste?
Chromasampling, digitaliseren van analoog naar digitaal en wat dat veroorzaakt aan data (enen en nullen, in bytes). Waar het over gaat (waar het voor is), valt allemaal vrij gemakkelijk te begrijpen. Maar de theorie en reken-oefeningen er omheen maakte mijn hoofd aan het tollen. 

Leukste, meest interessante of nuttige?
Het interessantste (pas op, het wordt een beetje nerdig): de gamma (niet de bouwmarkt) en de ‘knee’ (ja: knie in het engels). Gamma gaat over het bereik van licht naar donker in de camera: Alles tussen het diepe zwart en het witter-dan-wit. De camera kan niet zo goed als een menselijk oog omgaan met hele grote verschillen in licht en donker. De software in de camera helpt mee die problemen te verkleinen: waar het te licht wordt (maar nog niet hagelwit moet zijn), reduceert de camera het wit een beetje. Hetzelfde doet hij bij zwart. Zo krijg je mee details of een fraaier beeld bij groter contrast. Dat afbuigen is in een grafiekje te illustreren: de lijn die van donker naar steeds lichter gaat, maakt een knikje: een knie.

Dan is er nog iets mafs: vroeger was er verschil tussen hoeveel licht een pixel gaf, afhankelijk van wie er wat mee moest. Als de camera een hoeveelheid licht binnenkreeg, dan werd dat als het ware één pixel met BLA hoeveelheid licht. Als dat dan later op een televisie getoond werd, bleek dat de televisie die hoeveelheid niet goed weergaf. Veel zwakker. Dus is in alle camera’s een compensatie ingebouwd. Zie de grafiek die ik hiernaast (met dank aan Sony) heb geplaatst. De rechte lijn geeft de werkelijkheid aan, de rode de manier waarop de oude televisie dat toonde en de blauwe de compensatie die de camera van binnen deed om te zorgen dat het beeld op die domme televisie weer wat meer op die oorspronkelijke beelden (de rechte lijn) ging lijken. Tegenwoordig hebben we LCD, LED, plasma en nog zo wat moderne televisies. Die kunnen in principe alles gewoon weergeven zoals het is. Maar omdat we tientallen jaren camera’s hebben gebouwd die ‘overdrijven’ in de gamma, is nu in alle televisies kunstmatig het probleem weer aangebracht. En daar komen we waarschijnlijk nooit van af. 
Ik ben meteen na thuiskomst met het boek over mijn eigen camera en een koud drankje de tuin ingedoken. Het lijkt er op dat ik dat ook kan met mijn Panasonic AC130! Morgen lekker weer verder

Naderhand thuis meteen de uitgebreide handleiding van mijn camera er op nageslagen.

(Kijk, de blauwe lucht in deze foto is wit geworden, dat is waar je met het menselijk oog geen last van hebt, maar wat de camera moeilijk vindt. Dan krijg je dus zo’n verkleuring. We zijn er al aan gewend geraakt met al die selfies bij lekker weer.) 

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Top