Apple ProRAW, una rivoluzione nella fotografia computazionale

Fotografia computazionale

Avrete sicuramente sentito parlare di questo nuovo formato introdotto da Apple durante la presentazione fatta a ottobre 2020 in cui ha menzionato l’arrivo di questa novità con iPhone 12 Pro e iPhone 12 Pro Max. Durante la presentazione ricordo di essere sobbalzato dalla sedia mentre pensavo, “l’hanno fatto davvero!”. Andiamo quindi a vedere nello specifico com’è fatto questo nuovo formato e quali saranno le implicazioni nel prossimo futuro. Mettetevi comodi perché c’è molto di cui parlare.

Alok Deshpande Apple Senior Manager, Camera Software Engineering al minuto 53 parla di Apple ProRAW

Nella presentazione di Apple, della durata di circa un’ora, si è parlato di Apple ProRAW per 2 striminziti minuti, allora perché tutto questo chiasso mediatico? Beh perché è una “funzione” che qualunque fotografo vorrebbe nel proprio smartphone. Ok, il binomio fotografo-smartphone può sembrare strano: non faremo confronti fra device mobili e corpi medio formato, o discorsi filosofici sul fatto che un vero fotografo scatta anche con una compatta, non è questo il punto. Lo smartphone è solo l’inizio di una storia molto più ampia che cercheremo di approfondire in questo articolo.

Negli ultimi anni le macchine fotografiche hanno fatto dei salti da gigante, siamo nel pieno del passaggio da reflex a mirrorless, ci sono sensori full-frame retroilluminati, stabilizzazione attiva a 5 assi, ottiche super veloci, ecc. solo per citarne qualcuno. Negli ultimi 10 anni circa le fotocamere sono cambiate drasticamente e lo stesso si può dire anche per gli smartphone che hanno visto nella parte fotografica un’evoluzione incredibile con cambiamenti tangibili anno dopo anno. Fotocamere da una parte, smartphone dall’altra, due rami completamente diversi che hanno visto nella loro storia un incremento considerevole di investimenti e di sviluppo su fronti diversi.

Dal lato fotocamere si è puntato tutto sull’ottimizzazione dell’hardware per arrivare ad avere un file RAW sempre migliore lasciando in secondo piano il software che non ha fatto salti in avanti degni di nota, algoritmi per la messa a fuoco a parte. Dal lato smartphone invece l’evoluzione ha seguito una strada diversa, quasi opposta. Anche se indubbiamente i sensori utilizzati in ambito mobile hanno visto un miglioramento hardware incredibile, c’è una cosa dalla quale non si scappa: le dimensioni. A differenza di una fotocamera, le dimensioni di uno smartphone sono una cosa prioritaria. Aumentare lo spessore di 5 mm in un corpo macchina non è un problema, in un telefono si, potrebbe diventare invendibile. Risultato? Si possono montare solo sensori e ottiche minuscole, che confrontati con quelle delle fotocamere sono al limite del ridicolo se parliamo di dimensioni e quantità di luce catturata. Gli smartphone però hanno a disposizione un processore incredibilmente performante, gli ultimi modelli di fascia alta superano come velocità di calcolo la maggior parte dei notebook sul mercato. Questo ha portato ad uno straordinario sviluppo software per cercare di sopperire alle enormi mancanze del reparto hardware risicato nei pochi millimetri di spessore. La fotografia computazionale ha così trovato terreno fertile e negli ultimi anni ha raggiunto livelli di accuratezza molto alti, tanto da capovolgere il senso della frase “l’ho scattata con il cellulare”. Perché fino a qualche anno fa in ambito della fotografia di tutti i giorni (quella “punta e scatta” alla portata di tutti per capirci) il telefono comunque era sinonimo di fotografia di scarsa qualità ma adesso non è più così. Si è arrivati al punto che scattare un tramonto o un ritratto in controluce restituisce un risultato migliore con uno smartphone che con una fotocamera. Mi sono trovato in molte occasioni in cui dovevo scattare una foto da utilizzare subito per inviarla ad amici o da tenere come ricordo e di tirare fuori dallo zaino la mia fotocamera, scattare e vedere il risultato decisamente brutto rispetto a quello di qualche mio amico che senza preoccuparsi di nulla aveva già scattato con il suo iPhone e il risultato era decisamente migliore del mio. Certo, dentro di me sapevo che una volta arrivato a casa avrei potuto prendere il mio RAW da 42 Megapixel svilupparlo in Capture One, recuperare le luci del tramonto, ecc. tirando fuori un file che quanto a qualità e dettaglio non era neanche da mettere a confronto con quello di uno smartphone; ma il tempo che avrei dovuto impiegarci era decisamente sproporzionato per l’uso che volevo fare di quello scatto, senza contare che in certe situazioni si deve ricorrere a scatti multipli (bracketing) per poter arrivare a risultati che uno smartphone raggiunge in tempo zero.

Le conoscenze e gli sviluppi sulla fotografia computazionale portate avanti da aziende come Apple o Google sono talmente avanzate che ci possono far affermare, anche se con tutti i limiti del caso, che per l’uso comune uno smartphone scatta meglio di una fotocamera, il che è pazzesco ed era impensabile fino a qualche anno fa. Per creare lo scatto in JPEG o HEIC un iPhone esegue svariati scatti multipli istantaneamente eliminando il problema dei soggetti in movimento e riuscendo a fondere insieme immagini con esposizioni diverse per recuperare luci e ombre, oppure allineando e fondendo insieme più scatti per eliminare il rumore nel caso di scarsa illuminazione o anche riconoscendo un ritratto e sfuocando lo sfondo dopo aver elaborato una mappa di profondità della foto.

Partendo dal fatto che la miglior fotocamera è quella che ci si porta sempre con sè, è naturale pensare che per gli amanti delle foto lo smartphone sia di fatto la principale fotocamera se non ci si vuole portare sempre lo zaino appresso. Ma… C’è un ma. Se da una parte è vero che la foto così come appare è generalmente esposta ed elaborata bene, per un appassionato di fotografia il fatto di non poter mettere mano allo sviluppo di uno scatto è un limite non da poco. Infatti molti smartphone hanno come opzione lo scatto in formato RAW proprio per dare all’utente che lo richiede la possibilità di sviluppare la foto come preferisce. Esistono anche molte app a supporto, sia in fase di scatto che in fase di sviluppo. Ed è proprio questo il punto: il file grezzo di uno smartphone è molto scadente, ci si scontra con la dura realtà e i limiti di un sensore di dimensioni così ridotte. Scatto spesso in formato RAW con il mio iPhone, a volte sono abbastanza soddisfatto del risultato, altre invece decisamente no, motivo per il quale nell’applicazione che utilizzo (Halide) ho attivato la funzione RAW + JPEG in modo da avere a disposizione sia il file DNG (tutti gli smartphone lo utilizzano come formato RAW) sia il file elaborato (in formato HEIC) creato dagli algoritmi della fotografia computazionale di Apple.

Ovviamente queste due tipologie di scatto viaggiano su due binari completamente diversi: una salva i dati binari del sensore per darci la possibilità di sviluppare la foto ma ha molti limiti a causa dell’hardware miniaturizzato, l’altra ci offre un file JPEG o HEIC elaborato con algoritmi sofisticati ma su cui non abbiamo nessun controllo e che come ben sappiamo non offre la possibilità di essere post-prodotto più di tanto.

Più che due strade stiamo parlando di due mondi completamente diversi che si escludono vicendevolmente. Quanto sarebbe bello scattare una foto senza tutti questi compromessi? Un solo scatto, un solo file che porti con se tutti i miglioramenti della fotografia computazionale ma che dia la libertà di sviluppare ed editare lo scatto come si vuole. Questa cosa ce la siamo detti più volte fra colleghi, smorzando subito dopo questo sogno e guardando la realtà dei fatti: come si fa a unire uno scatto RAW con uno scatto già elaborato? “Impossibile!”, ecco a cosa stavo pensando mentre guardavo il keynote di Apple e incredulo ascoltavo le parole:

…combina il controllo di scattare in RAW
e la potenza della fotografia computazionale.

Sviluppo di un RAW

Dal momento in cui la luce passa attraverso le lenti e arriva al sensore, al momento in cui la fotocamera converte i valori in una foto succedono molte cose ma è possibile condensare il tutto in tre passaggi fondamentali: demosaicizzazione, elaborazione dell’immagine e ottimizzazione. Vediamo velocemente questi step che ci serviranno per comprendere al meglio l’Apple ProRAW.

Demosaicizzazione
Ogni pixel del sensore non è in grado di “vedere” il colore, è in grado di misurare solo la quantità di luce. Per questo viene messo un filtro sopra il sensore in modo da far passare solo la luce verde, rossa o blu con una particolare disposizione a mosaico: il pattern più utilizzato è chiamato Bayer (dal nome del suo inventore) ma ne esistono di altri tipi.

In questo step l’immagine acquisita somiglierebbe a qualcosa di questo tipo, ben lontana dalla nostra idea di fotografia.

Per questo l’immagine deve essere “demosaicizzata” utilizzando sofisticati algoritmi. Anche qui ne esistono di vari tipi e il risultato dipende dal tipo di sensore, dal tipo di impostazioni della macchina e non ultimo dal tipo di fotografia. Alcuni algoritmi risultano molto accurati con scatti dettagliati e luminosi, altri con scatti scuri come la foto di un cielo stellato.

Elaborazione dell’immagine
Una volta demosaicizzato, lo scatto viene elaborato per arrivare ad avere un aspetto simile a quello che percepivamo nel momento in cui abbiamo premuto il pulsante. Le elaborazioni sono molteplici: dalla mappatura dei colori all’intento dello spazio colore definito, al bilanciamento del bianco, all’esposizione globale e selettiva del frame con il recupero delle luci e delle ombre, correzione della distorsione della lente, ecc.

Ottimizzazione
Il questa ultima fase l’immagine viene ridotta di dimensione e salvata in base alle impostazioni del software. Il formato può essere molto pesante con compressione non distruttiva oppure più leggero adatto ad uno scambio più agevole ma con una perdita di dati come accade con la compressione JPEG o con la più recente ed efficiente compressione HEIC.

Apple ProRAW

Un nuovo formato che già conosciamo
Fin da subito sembrava che questo file avesse una sua estensione, che fosse a tutti gli effetti un nuovo tipo di file, invece quando sono state pubblicate le specifiche molti sono rimasti basiti. Il file ProRAW non esiste, di fatto è un normalissimo file DNG. Sembra una soluzione strana ma una volta compreso il funzionamento tutto diventerà molto più sensato e affascinate.

Per chi non lo conosce il file DNG (acronimo di Digital Negative) è un formato di memorizzazione di immagini RAW introdotto da Adobe nel 2004 con l’idea di portare un unico formato di riferimento nella giungla di formati RAW proprietari. La parte più interessante di questo progetto è che questo formato è libero. Apple infatti ha lavorato proprio su questo, utilizzando delle specifiche poco sfruttate del DNG e lavorando insieme ad Adobe per aggiungere dei nuovi tag, portando di fatto all’uscita di una nuova versione del DNG, nello specifico la 1.6.

Avrete intuito quindi che il formato Apple ProRAW non è né un formato chiuso né tantomeno proprietario di Apple. E se ci pensate bene questa cosa è fantastica! Per questo mi sono spinto a utilizzare il termine “rivoluzione” nel titolo di questo articolo: non stiamo parlando di iPhone, di Apple o di ecosistemi proprietari. Apple ha lavorato per migliorare lo standard libero DNG e non c’è assolutamente nulla che blocchi questo formato ai suoi dispositivi o sistemi operativi. Quando la ricerca e l’innovazione viene resa libera a tutti è una vera rivoluzione! E visti i benefici che porta con sè l’Apple ProRAW non fatico a credere che ne sentiremo parlare sempre di più e che lo troveremo in moltissimi dispositivi.

Cos’è Apple ProRAW
Abbiamo detto che alla fine questo formato non esiste, è di fatto un DNG, ma quali sono le differenze con i DNG che siamo abituati ad utilizzare tutti i giorni?

Per prima cosa il ProRAW non memorizza i dati grezzi del sensore come avviene con un normale RAW ma memorizza i valori subito dopo la demosaicizzazione, in uscita dal primo step che abbiamo visto poco fa. Questi valori rappresentano l’immagine non ancora elaborata con la gamma dinamica originale, contengono quindi tutti i dati che ci permettono di lavorare con la flessibilità con cui siamo abituati a sviluppare un normale RAW. Così facendo si perde solo la possibilità di scegliere quale algoritmo di demosaicizzazione utilizzare, ma è anche vero che iOS è in grado di eseguire questo passaggio meglio di qualsiasi altro motore di sviluppo RAW di terze parti in quanto Apple ha una conoscenza molto approfondita dell’hardware che utilizza nei suoi dispositivi e di conseguenza anche della parte software che lo gestisce. Ad esempio, saprà benissimo come si comporta il sensore in base ai vari ISO e tecnicamente potrebbe sfruttare il riconoscimento intelligente della scena per determinare se si tratta di un cielo stellato o di un ritratto per scegliere l’algoritmo di demosaicizzazione più accurato.

Tecnicamente tutto questo potrebbe dare ad Apple la libertà di lavorare ad un proprio sensore, magari con qualche filtro particolare al posto del comune Bayer che abbiamo visto prima. In un contesto normale, se questo dovesse succedere, i vari software di sviluppo di terze parti (come ad esempio Lightroom) dovrebbero essere aggiornati con nuovi algoritmi per poter decifrare i dati di un sensore di nuova generazione, ma con il formato Apple ProRAW tutto questo non è necessario perché i dati salvati sono già demosaicizzati e il file sarebbe leggibile da tutti i software dal giorno zero senza dover aspettare che gli sviluppatori aggiornino i loro software.

A questo ovviamente vanno sommati i risultati degli algoritmi della fotografia computazionale che vengono salvati proprio all’interno del file RAW. Questi algoritmi lavorano sul colore, altra ragione per la quale hanno bisogno di avere a disposizione dati demosaicizzati e non grezzi. Apple ha lavorato con Adobe per introdurre un nuovo tag nello standard DNG chiamato “Profile Gain Table Map” che contiene tutti i dati che servono per mappare correttamente l’immagine e che vengono poi sfruttati dallo Smart HDR, nel caso di iPhone (arrivato alla versione 3), per migliorare l’aspetto della foto. Inoltre questi dati aggiuntivi sono separati da quelli dell’immagine vera e propria e quindi possono essere dosati a piacere oppure ignorati. Nei dati inclusi nel ProRAW troviamo anche quelli utilizzati per il DeepFusion (serie di algoritmi che Apple utilizza per ridurre il rumore e aumentare i dettagli) e le mappe di profondità per intervenire su livelli differenti di profondità dell’immagine e creare la sfocatura, specialmente in modalità ritratto.

Slide mostrata durante la presentazione di iPhone XS che illustra alcuni passaggi effettuati dagli algoritmi della fotografia computazionale sviluppata da Apple quando si scatta una foto. Un trilione di operazioni a foto!

Arriviamo al fattore peso: quanto pesa un file ProRAW per riuscire a contenere tutte queste informazioni? Ovviamente il peso varia in base all’immagine ma indicativamente è all’incirca di 25MB a scatto contro i 12MB di un normale RAW. Di default il ProRAW è a 12 bit a differenza dei canonici 8 bit di un file JPEG, aumentando drasticamente il numero di colori a disposizione e riuscendo a gestire gradienti praticamente perfetti senza creare soglie. Le API danno la possibilità di usare anche il formato a 10 bit che per molti può essere già abbastanza; di fatto significa 4 volte la precisione che si ha con un 8 bit ma facendo scendere il peso del file a circa 8MB al posto dei 25MB di partenza.

Elaborare un file con tutte queste informazioni è una bella sfida. Ecco perché questo formato è stato introdotto solo ora da Apple, in un momento in cui i processori a disposizione sono talmente veloci da poterlo gestire in tempi relativamente rapidi anche se con dei limiti: non è infatti possibile scattare in modalità burst o in modalità Live Photo. Inoltre c’è bisogno di molta più memoria per non avere rallentamenti, ecco perché è supportato solamente dai modelli PRO, non è un fatto di marketing come sostenuto da molti ma di performance hardware. Giusto per capire l’ordine di grandezza di complessità di questo tipo di file basti pensare che un iPhone impiega circa 50 millisecondi per acquisire un normale RAW e 2-3 secondi per terminare l’elaborazione di un ProRAW.

Sembra tutto bellissimo ma salvare tutti gli scatti in DNG significa che non tutte le applicazioni (e sono un’infinità) saranno in grado di leggerlo: pensiamo ad esempio alle varie app di messaggistica o social. Invece si è scoperto che all’interno del ProRAW può essere salvata anche l’immagine JPEG elaborata dando la possibilità alle app che non supportano il RAW di leggere ugualmente la foto.

Apple ha fatto un lavoro incredibile con il ProRAW rendendolo un formato per tutti, non solo per i nerd della fotografia. Infatti per chi non sa nulla di RAW può semplicemente scattare la foto, toccare il tasto “modifica” che trova all’interno dell’app di scatto nativa e modificare la foto come ha sempre fatto, ma con risultati decisamente più accurati impensabili con un normale JPEG. Per gli appassionati invece si apre un nuovo mondo fatto di sviluppo RAW sia direttamente su iPhone con app di terze parti che su desktop con i software che si è abituati ad utilizzare da sempre come Photoshop, Lightroom o Capture One (appena verranno aggiornati per supportare i nuovi tag del DNG 1.6).

Le possibilità per le app di terze parti sono molteplici: Apple ha rilasciato delle API molto avanzate e se siete appassionati di fotografia e state cercando un’app avanzata con cui scattare vi consiglio senza ombra di dubbio Halide.


Siamo arrivati alla fine di questo articolo: a questo punto mettiamo da parte le specifiche tecniche e parliamo delle implicazioni che avrà un formato di questo tipo. Sicuramente questo è solo l’inizio e chissà quali altre interessanti novità potranno arrivare in futuro magari con un’altra versione del formato DNG. Abbiamo visto come il mondo delle fotocamere sia lontano da quello degli smartphone per la natura fisica e hardware dei dispositivi e per il tipo di evoluzione che hanno seguito. Questo nuovo formato però, a mio avviso, potrebbe fare da ponte fra questi due mondi che inizieranno ad avvicinarsi, al contrario di quello che succede ora. Se nell’uso comune per pubblicare una foto su Instagram scatta meglio uno smartphone che una fotocamera che costa cinque volte tanto, quanto ci impiegherà la fotografia computazionale ad arrivare nel mondo professionale? Certo in fotografia professionale in un set con flash, modificatori di luce ecc. la fotografia computazionale è ancora difficile da immaginare, siamo abituati ad avere il pieno controllo di tutto con i limiti del caso, senza aggiungere la variabile dell’elaborazione computazionale che è quasi impossibile da prevedere prima dello scatto e potrebbe variare in base al soggetto: basti pensare ad uno shooting di oggetti still life. Ma quanto sarebbe comoda e interessante in tutti gli altri casi? Pensiamo in primis alla fotografia di reportage, documentaria e paesaggistica.

Non passerà molto tempo prima di vedere la fotografia computazionale arrivare anche sulle fotocamere, forse proprio con il formato Apple ProRAW, e sarà sicuramente fantastico! Molti vedranno questa evoluzione come la fine della fotografia affermando “adesso sono tutti fotografi” ma sappiamo quanto sia sterile questo pensiero. Ormai siamo abituati a sentirlo di continuo, prima con le compatte, poi con gli smartphone. Per alcuni la fotografia è già morta con le mirrorless perché nel mirino non si vede la realtà. Affermazioni che lasciano il tempo che trovano di persone che non abbracciano e non sfruttano i cambiamenti che in questo settore per fortuna sono molto frequenti. La magia del processo di sviluppo di una pellicola rimarrà sempre unico, e tutti i ricordi e la filosofia che richiama. Sono cose bellissime ma bisogna saper sfruttare l’evoluzione se vogliamo migliorare.

Apple ProRAW è il primo passo della fotografia computazionale verso il mondo professionale, la strada da percorrere è sicuramente molta ma la via è tracciata. È solo questione di tempo.

Fonte: https://blog.halide.cam

X-Rite ColorChecker Passport Photo 2: uno strumento indispensabile

Nella fotografia, specialmente quella commerciale, la resa cromatica di un’immagine è di fondamentale importanza. Basti pensare a scatti destinati alla vendita di prodotti di vario genere, come ad esempio abiti, gioielli, prodotti hi-tech o auto, dove il colore gioca un ruolo decisivo. Questa coerenza cromatica fra scena e scatto può essere complicata se gestita manualmente, cosa che purtroppo ad oggi è ancora molto diffusa, oppure può essere gestita con un flusso di lavoro semplice grazie all’utilizzo di un ColorChecker. Questo garantisce una resa cromatica molto fedele, un risparmio di tempo notevole nella fase di postproduzione e, cosa importantissima, la ripetibilità del risultato.

Il ColorChecker, semplificando, non è altro che un cartoncino con una serie di quadrati colorati e ne esistono di vari tipi, quello più comune è quello con 24 tasselli. Questo cartoncino originariamente si chiamava Color Rendition Chart ed è stato presentato in un articolo sul Journal of Applied Photographic Engineering del 1976 prodotto da Macbeth, successivamente da Gretag Macbeth, e attualmente da X-Rite in seguito all’acquisizione di Gretag Macbeth.

Esistono vari modelli di ColorChecker sul mercato, alcuni dedicati alla fotografia, altri al video, di grandi e piccole dimensioni. In questo articolo andremo ad analizzare nello specifico il ColorChecker Passport Photo 2, uno dei modelli più venduti grazie alle dimensioni ridotte e alla custodia rigida che lo rendono uno strumento comodo da utilizzare e indispensabile sul set.

Cosa si può fare con un ColorChecker Passport Photo 2

  • Bilanciamento del bianco
  • Creazione di profili camera personalizzati
  • Controllo dell’esposizione nella fase di scatto
  • Regolazioni creative

Il ColorChecker Passport Photo 2 ha una dimensione all’incirca di 9×13 cm, contenuto in una sottile custodia rigida in plastica è costituito da 4 pagine e ogni pagina è di fatto un target con una specifica funzione.

TARGET 1 – ColorChecker Classic 24

Il primo target ColorChecker Classic 24 è formato da 24 patch colorate ed è uguale a quello lanciato nel lontano 1976. I pigmenti utilizzati sono molto stabili e studiati per non decadere nel tempo (va comunque tenuto al riparo dalla luce quando non utilizzato) ed inoltre questi pigmenti sono a basso indice di metamerismo, in modo da risultare quanto più possibili uniformi e costanti al variare delle condizioni di illuminazione della scena. La nostra percezione del colore infatti non è solo influenzata dal colore dell’oggetto stesso ma anche dalle caratteristiche della luce che lo illumina.

Queste 24 patch sono divise in:

  • 6 patch di grigi: in ordine dal nero al bianco, tutte perfettamente neutre
  • 6 colori primari e secondari: RGB (rosso, verde, blu) + CMY (ciano, magenta, giallo)
  • 12 patch di colori comuni: utilizzate come riferimento visivo (troviamo ad esempio l’incarnato chiaro e scuro, il blu del cielo, il verde della vegetazione, ecc.). Questo era molto utile in fotografia analogica dove la corrispondenza cromatica veniva fatta nella maggior parte dei casi a occhio non avendo a disposizione un software in grado di farla. Oggi queste patch vengono utilizzate dal software di ColorChecker Camera Calibration di X-Rite per creare il profilo camera personalizzato da applicare poi nel software di sviluppo RAW.

I valori del ColorChecker originale del 1976 erano forniti nelle coordinate colorimetriche Yxy e sotto l’illuminante C. Oggi vengono forniti da X-Rite in CIE L* a* b* con illuminante D50 e osservatore a 2 gradi. Nello specifico i colori sono:

  1. Dark skin – Pelle scura
  2. Light skin – Pelle chiara
  3. Blue sky – Cielo azzurro
  4. Foliage – Fogliame
  5. Blue flower – Azzurro fiore
  6. Bluish green – Verde tendente al blu
  7. Orange – Arancio
  8. Purplish blue – Blu tendente al viola
  9. Moderate red – Rosso chiaro
  10. Purple – Viola
  11. Yellow green – Verde giallo
  12. Orange yellow – Giallo arancio
  13. Blue – Blu
  14. Green – Verde
  15. Red – Rosso
  16. Yellow – Giallo
  17. Magenta – Magenta
  18. Cyan – Ciano
  19. White – Bianco
  20. Neutral 8 – Grigio neutro (chiarezza 8/10)
  21. Neutral 6.5 – Grigio neutro (chiarezza 6.5/10)
  22. Neutral 5 – Grigio neutro (chiarezza 5/10) ovvero Grigio medio 18% (riflettanza 18%)
  23. Neutral 3.5 – Grigio neutro (chiarezza 3.5/10)
  24. Black – Nero
I dati sono forniti da X-Rite, Inc. e sono validi per i ColorChecker Classic 24 realizzati dopo il mese di novembre 2014.
I valori sono espressi in CIE L* a* b* con illuminante D50 e osservatore a 2 gradi.

Con questo primo target possiamo fare principalmente due cose:

Bilanciamento del bianco utilizzando la patch numero 20 o 21
Sarebbe più corretto dire bilanciamento del neutro che viene fatto su una patch grigio chiaro, questo per evitare che uno o più dei tre canali (RGB) arrivi a ridosso del limite massimo di 255 falsando così la taratura. Meglio avere margine e utilizzare un grigio chiaro che in fase di scatto deve essere esposto correttamente e non risultare sovraesposto.

Creazione di un profilo colore personalizzato della macchina
Il bilanciamento del bianco è fondamentale per neutralizzare la dominante colore dello scatto, minimizzando i problemi di cromia, ma non è sufficiente per avere una perfetta corrispondenza cromatica. Per questo è necessario creare tramite il software ColorChecker Camera Calibration di X-Rite dato in dotazione con il ColorChecker, un profilo macchina personalizzato. Una volta applicato questo profilo il software di sviluppo RAW porterà i colori del target fotografato (che saranno affetti da variazioni dovute dal tipo di sensore, alle tolleranze dei componenti hardware della macchina e all’illuminazione della scena considerando che alcune fonti luminose non hanno un’emissione spettrale lineare) a valori noti arrivando così a una perfetta, o quasi, corrispondenza cromatica. Il software è in grado di generare profili secondo lo standard ICC utilizzabile ad esempio con Capture One oppure DCP (DNG Camera Profile) di Adobe.
Creare dei profili personalizzati è utile e fortemente raccomandato quando si scatta la stessa scena con più macchine: così facendo si può uniformare la resa cromatica, per quanto possibile nei limiti delle varie macchine, risparmiando una notevole quantità di tempo nella fase di color correction in postproduzione.

TARGET 2 – Creative Enhancement

Il secondo target chiamato, Creative Enhancement, raccoglie un’altra serie di patch colorate che servono sia a scopo tecnico che creativo.

Per quanto riguarda la parte tecnica:

  • la prima riga in alto, riga di controllo HSL, è formata da 8 patch con i colori spettrali ovvero colori molto saturi utili come riferimento visivo per controllare che una volta applicato il profilo macchina non ci siano scostamenti troppo evidenti o anomali.
  • l’ultima riga in basso invece raccoglie 4 patch nere e 4 bianche utili a valutare se l’immagine presenta delle bruciature nelle alte luci o delle ombre troppo chiuse. Le patch infatti sono molto simili, fra l’una e l’altra l’incremento è di solo 1/3 di stop, ad eccezione della prima patch nera che con la seconda ha una differenza di 1/10 di stop. Come facilmente intuibile queste patch nello scatto devono essere distinguibili e avere una differenza data dagli incrementi sopra indicati. Nel caso risultassero indistinguibili sarebbe indice di sotto o sovraesposizione dello scatto. Nei software di sviluppo possono venire in aiuto gli alert di clipping o la lettura dei valori RGB.

La parte centrale è dedicata a delle regolazioni del bianco creative che sono di fatto dei bilanciamenti sbagliati ma ripetibili. Questo può essere utile in alcuni casi:

  • la seconda riga del target che riporta l’icona di una persona è dedicata al bilanciamento del bianco per i ritratti. La prima patch della riga è contrassegnata con un piccolo semicerchio nero nella parte inferiore e indica che è un grigio neutro utilizzabile per un bilanciamento del bianco corretto. Spostandosi verso destra invece le patch riportano un segno “+”, queste servono per avere un bilanciamento progressivamente più caldo in modo da rendere i toni dell’incarnato più piacevoli.
  • la terza riga del target invece riporta l’icona di una montagna; in questo caso la patch contrassegnata, e quindi quella neutra, è quella in centro della riga. Spostandosi verso sinistra si va a raffreddare l’immagine, utile per avere cieli più azzurri, oppure la si può scaldare con le due patch di destra in modo daenfatizzare le tonalità gialle-arancioni tipiche di un tramonto.

È molto importate sapere che queste sono tarature tecnicamente sbagliate ma molto utili nel caso di immagini creative in cui non sia fondamentale il corretto bilanciamento del bianco. Utilizzando questo metodo infatti si è in grado di fare una taratura facilmente ripetibile.

TARGET 3 – Gray Balance

Questo target contiene un’unica patch grande tutta la superficie del ColorChecker. Il colore è un grigio spettralmente neutro ametamerico, con le stesse caratteristiche della riga dei grigi presente nel primo target, utile per fare un corretto bilanciamento del neutro (o più comunemente chiamato bilanciamento del bianco). A differenza del primo target dove le patch sono molto piccole e possono essere utilizzate solo per il bilanciamento in postproduzione, questo target grazie alla superficie molto grande si presta ad essere utilizzato per eseguire il bilanciamento direttamente in camera. È importate sapere che nel caso si scatti in RAW il bilanciamento del bianco in macchina non serve, può essere fatto in fase di sviluppo senza nessuna perdita di informazioni, ma in certi casi può essere utile farlo ugualmente per visualizzare un’anteprima più corretta sul display della macchina mentre si scatta. Questo non vale se si scatta in JPEG, in questo caso il bilanciamento del neutro sul target è d’obbligo per avere un’immagine corretta. Modificare il bilanciamento in postproduzione significherebbe compromettere irrimediabilmente la gamma dinamica e la resa cromatica dell’immagine.

TARGET 4 – Gray 18%

Come il target precedente contiene una sola patch di colore grigio spettralmente neutro ametamerico con riflettanza del 18%, come la patch numero 22 presente nel primo target. Il suo scopo è quello di essere utilizzata per una lettura corretta dell’esposizione in luce riflessa durate lo scatto. Può essere utilizzata puntando un esposimetro manuale o quello interno della macchina.

Il ColorChecker Passport Photo 2 è quindi uno strumento indispensabile per garantire un flusso di lavoro corretto e veloce nella fase di sviluppo del file RAW in postproduzione, garantendo la corretta corrispondenza cromatica dello scatto e un considerevole risparmio di tempo. In un prossimo articolo vedremo come utilizzarlo nella pratica, creando un profilo macchina personalizzato.

Approfondimento sui valori

I valori numerici di ogni patch del ColorChecker Classic 24 riportati nello schema di questo articolo, come indicato nella descrizione, sono forniti da X-Rite e sono espressi in CIE L* a* b* con illuminante D50 e osservatore a 2 gradi. Questi sono gli unici valori ufficiali forniti, in internet si trovano molti altri dati, specialmente di conversioni fatte in spazi colore come AdobeRGB o sRGB. È importante sapere che questi dati sono conversioni più o meno accurate di terze parti e quindi da utilizzare con consapevolezza e cautela. Se volete verificare o fare correzioni manuali all’immagine vi consiglio di utilizzare dei punti di campionamento nelle patch del ColorChecker con lettura in Lab (è disponibile sia in Adobe Photoshop che in Capture One). Inoltre i valori solo validi per i ColorChecker realizzati dopo il mese di novembre 2014, infatti X-Rite dopo tale data ha aggiornato il metodo di produzione dei ColorChecker, introducendo dei nuovi coloranti nel processo di verniciatura che hanno portato a delle leggere differenze nella resa cromatica. Per questo esiste una differenza nei dati colorimetrici di riferimento per i prodotti realizzati prima e dopo il mese di novembre 2014.

Qui potete trovare la pagina ufficiale di riferimento con i nuovi valori:
New color specifications for ColorChecker SG and Classic Charts

Se invece il vostro ColorChecker risulta realizzato prima del mese di novembre 2014 dovete far riferimento ai valori che trovate in questa pagina, sempre pubblicati da X-Rite:
Colorimetric values for ColorChecker Family of Targets

In questo caso X-Rite aveva pubblicato anche una conversione in sRGB dei valori che però non ha proposto nella tabella per i prodotti post novembre 2014.

Calibrazione del monitor, la norma ISO 3664:2009

Per chi lavora in ambito fotografico la cura del colore è una parte fondamentale del proprio lavoro: inizia con la fase di scatto e si propaga fino alla fruizione finale del contenuto, sia esso in formato digitale che cartaceo. Purtroppo questo è un percorso costellato di variabili che possono finire per alterarne la percezione del colore. Vediamo quindi quali sono le indicazioni della normativa ISO di riferimento.

Premesso che ogni persona, per una questione biologica data dal numero diverso di recettori presenti nella retina e di elaborazione degli stimoli da parte del cervello, percepisce il colore in modo leggermente diverso e, fatto salvo per patologie come il daltonismo, diventa fondamentale ridurre il più possibile gli elementi che ci portano a percepire queste differenze.

Molte variabili sono fuori dal nostro controllo: ad esempio prendendone in considerazione una delle più impattanti come la condizione di visualizzazione, risulta diverso guardare una fotografia alla luce del sole a mezzogiorno, in un giorno piovoso o al tramonto. Inutile dire che la stragrande maggioranza delle fotografie ad oggi vengono viste tramite display e non stampate e dunque questo va a complicare ulteriormente le cose aumentando le possibili fonti di alterazione come ad esempio la bontà del display, la luminosità, ecc.

Per chi lavora con fotografie ad uso commerciale che verranno viste da un pubblico molto ampio e che durante la fase di lavorazione richiedono dei confronti fra le varie figure come il fotografo, il post-produttore, il direttore artistico diventa di fondamentale importanza trovare un punto comune di visualizzazione al quale avvicinarsi il più possibile in modo da avere una riproduzione coerente anche se si è in posti diversi con monitor diversi.

In ambito professionale l’utilizzo di monitor di fascia alta con specifiche adatte per la visualizzazione fotografica è dato per scontato, come lo è la calibrazione di routine. Quello che è meno scontato invece, a volte quasi un argomento tabù, sono le impostazioni di calibrazione. Infatti il processo che comunemente chiamiamo calibrazione del monitor non è un’operazione automatica, ma prevede tre fasi (che vedremo in modo approfondito in un articolo dedicato) che possiamo riassumere in questi termini:

  • CALIBRAZIONE ovvero l’utente sceglie i parametri che dovranno essere impostati sul monitor. Questa fase è manuale e gestita appunto dall’utilizzatore in base al tipo di lavoro che dovrà visualizzare a monitor.
  • CARATTERIZZAZIONE fase gestita completamente dal software che prevede la misurazione delle caratteristiche del monitor.
  • CREAZIONE PROFILO ICC il software si preoccupa di creare il profilo ICC che sarà poi installato nel sistema operativo.

È quindi la prima fase, quella manuale di scelta delle impostazioni, a creare divergenze e scuole di pensiero diverse. Molti professionisti decidono di non preoccuparsene utilizzando preset forniti direttamente dai software di calibrazione, impostando dei paramenti che hanno trovato online o nei casi peggiori per sentito dire. Sono pochi i professionisti che fanno scelte ponderate in base al lavoro e all’utilizzo prevalente del monitor.

È bene sapere che non esistono delle impostazioni obbligatorie per determinati usi, ci si può spostare all’interno di alcuni piccoli range di parametri. Ad esempio la nostra vista si adatta continuamente all’ambiente e a quello che stiamo guardando. Impostare un monitor da un punto di bianco di 5000 K a 5500 K farà apparire l’immagine più fredda ma questa sensazione durerà solamente alcuni minuti poi cominceremo nuovamente a percepire il bianco come neutro senza una dominante tendente al blu. E se torneremo di nuovo a 5000 K lo percepiremo come caldo e così via. Questo effetto è accentuato tanto più il monitor sarà isolato dal contesto, ad esempio in un ufficio di sera con poca luce ambientale. Le cose risulterebbero diverse se dietro al monitor ci fosse una parete bianca ben illuminata, cosa che involontariamente ci farebbe da riferimento costante nel percepire il bianco del monitor come freddo o caldo.

Per tornare al concetto che abbiamo introdotto all’inizio di questo articolo, più riusciamo a portarci vicino ad uno standard noto a tutti, meno saranno le variabili soggettive in campo, e più avremo un’immagine davanti i nostri occhi uguale, o forse meglio dire molto simile, a quella di un nostro collega o collaboratore: questo ci renderà la vita meno difficile e i confronti saranno meno soggetti a malintesi.

A questo scopo esistono due norme ISO che riguardano la colorimetria di un monitor e dell’ambiente circostante:

  • ISO 12646:2008/Amd 1:2010 Graphic technology – Displays for colour proofing – Characteristics and viewing conditions
  • ISO 3664:2009 Graphic technology and photography — Viewing conditions

Gli argomenti trattati da queste due norme sono molto complessi, ma ci basta sapere che la prima è rivolta alla visone di immagini digitali visualizzate a monitor per prove colore e stampa, mentre la seconda riguarda immagini digitali viste a monitor in modo isolato, indipendentemente da uno stampato quindi per post produzione e la generica visione a monitor, comunemente e brutalmente definita come uso web.

Vediamo quindi quali sono i principali parametri espressi nella norma ISO 3664, che per i più curiosi è descritta in un documento di 44 pagine acquistabile sul sito iso.org 

ISO 3664:2009 Graphic technology and photography Viewing conditions

Questo Standard Internazionale fornisce le specifiche per le condizioni di illuminazione e di visualizzazione che, se correttamente implementate, ridurranno gli errori e i malintesi causati da tali carenze e incongruenze.

PARAMETRI MONITOR

White point: 6500 K
Brightness: 80-100 cd/m2
Black level: minimum
Gamma: 2,2

Questi sono i parametri principali da impostare come target della calibrazione nel monitor. Possiamo scegliere il valore della luminanza in base a quanto è luminoso l’ambiente in cui lavoriamo e a come ci sembra più confortevole per la vista il monitor. Questo indipendentemente dallo spazio colore che andremo a scegliere: nativo del monitor, AdobeRGB, sRGB.

Un white point di 6500 K è consigliato con l’eccezione in cui sia possibile caricare una sola curva nella LUT rendendo impossibile regolare i livelli di R, G e B in modo indipendente. Solitamente questo è tipico dei portatili, in questo caso è opportuno scegliere il bianco nativo in modo da non far regolare il bianco dalle LUT.

Parametri impostati come target e risultati della misurazione effettuata
dal software ColorNavigator 7 su un monitor Eizo ColorEdge CG2420.

AMBIENTE

La norma oltre ai parametri da utilizzare come target per la calibrazione del monitor, definisce anche le condizioni ambientali ottimali per una corretta visualizzazione:

  • All’interno della postazione di lavoro, il monitor deve essere posizionato in modo che non vi siano zone fortemente colorate (compresi gli indumenti) direttamente nel campo visivo. Idealmente, tutte le pareti, i pavimenti e i mobili nel campo visivo dovrebbero essere grigi.
  • Il monitor inoltre deve essere posizionato in modo che nessuna fonte di illuminazione, come lampade o finestre non schermate, si trovi direttamente nel campo visivo o provochi riflessi visibili dalla superficie del monitor.
  • La luminanza dell’ambiente circostante dovrebbe essere inferiore al 25% della luminanza del bianco del monitor.
  • L’illuminazione nell’area attorno al monitor deve avere una temperatura colore inferiore o uguale a D65 (6500 K).

Ricapitolando la visualizzazione del colore a video è un argomento molto vasto con variabili soggettive, specialmente per quanto riguarda la parte relativa alla calibrazione del monitor poiché spesso la sua impostazione viene fatta su basi personali o comunque non del tutto corrette. Premesso che la quadratura del cerchio non esiste e quindi non è tecnicamente possibile avere condizioni di visualizzazione di un’immagine identiche al 100% fra vari monitor, è possibile mitigare il peso delle innumerevoli variabili in gioco applicando degli standard riconosciuti a livello internazionale. Nel caso della visualizzazione di fotografie e la relativa post produzione, quelli relativi alla norma ISO 3664:2009.

Digital Tech: cos’è, di cosa si occupa, i vantaggi di lavorare con un DT sul set

Specie nelle produzioni più importanti o comunque complesse, è materialmente impossibile che il fotografo si occupi di tutti gli aspetti dello shooting e quindi, all’interno del suo team, a fianco di figure professionali affermate come lo stylist e il make-up artist, è importante avere una figura che si faccia carico di tutti gli aspetti tecnologici connessi ad un set fotografico lasciandolo libero il fotografo di concentrarsi sull’aspetto più importante per il committente, ovvero lo scatto.


Il digital tech è una figura fondamentale nel mercato della fotografia commerciale che, dopo essersi affermata in maniera matura nel mercato americano con la sempre maggiore polarizzazione dei ruoli nella realizzazione degli shooting fotografici, sta prendendo piede anche in Italia.

Partiamo da una definizione di che cosa sia il Digital Tech

Il Digital Tech è una figura fondamentale per la realizzazione di uno shooting perché si fa carico delle problematiche tecniche relativamente all’attrezzatura, alla gestione ed archiviazione dei file prodotti ed alla postproduzione preliminare; svolge la sua attività nella fase di progettazione del servizio fotografico, sul set durante lo shooting e nella fase di finalizzazione delle immagini; libera dall’incombenza il fotografo ed il suo team; si assicura che il tempo e le risorse di ognuno siano impiegate al meglio.

Permette di sfruttare al massimo le potenzialità delle attrezzature ed i software a disposizione riducendo sensibilmente le inefficienze in termini di tempo e risorse economiche.

Andando ad approfondire nel concreto quali operazioni svolge un Digital Tech, vediamo che:

  • Nella fase di progettazione dello shooting si confronta con il fotografo, ed eventualmente l’art director, su quello che sarà il mood del servizio fotografico e controllando che l’attrezzatura scelta per la sua realizzazione sia adatta allo scopo, prendendo in considerazione eventuali imprevisti che potrebbero presentarsi e definendo alternative e soluzioni tampone; stabilisce il flusso di postproduzione delle immagini più corretto in base allo shooting e definisce assieme al fotografo come dovranno essere realizzate le immagini, e gli eventuali contributi, per fa sì che la lavorazione di queste ultime sia il più lineare possibile;
  • Il giorno del servizio fotografico si occupa del preshooting e fa in modo di essere completamente allineato con il fotografo e le sue attrezzature, se scattare in tethering o su SD, con quale software (CaptureOne, Lighroom, Phocus etc.) e come organizzare gli scatti; realizza assieme al fotografo qualche immagine di prova per avere la certezza che il flusso di lavoro proceda come deve, verificare che tutti i setup siano corretti e definisce una struttura di archiviazione e backup.

“Un digital tech inesperto avrà un sacco di difficoltà sul set;
uno capace si occuperà di tutto senza problemi; uno fantastico sembrerà che non faccia niente tutto il tempo”

Andrea Fremiotti