Instagram: profili colore e ottimizzazione delle immagini

La fotografia professionale è costellata da alti standard di qualità delle immagini, coerenza cromatica, alta risoluzione, formati immagine non compressi. In questo mondo, Instagram non sembra essere il benvenuto. Eppure è il social più utilizzato in questo settore. Nato come social fotografico, nel tempo ha soppiantato tante altre piattaforme fino a diventare una delle più utilizzate.

Per noi professionisti non è la scelta migliore sotto la luce della qualità. Ci sono servizi migliori dove pubblicare gli scatti, i progetti o in genere il portfolio: uno fra tanti flickr che permette di mantenere le immagini in alta risoluzione compreso il formato originale. Instagram dal canto suo però è molto più “social” (anche troppo), oltre ad avere un numero enorme di utenti. Questo fa si che all’interno si possano trovare facilmente altre persone e, nel nostro caso, professionisti da seguire per rimanere aggiornati sui progetti, trovare ispirazioni, citare persone che hanno fatto parte del team (fotografi, direttori artistici, make-up artist, modelli, riviste, ecc.) creando così interazioni, aprendo conversazioni anche se non si ha un contatto diretto. 

Se, dal lato social e personale, Instagram attualmente è la piattaforma migliore per l’ambito creativo non possiamo dire lo stesso su qualità e gestione dei contenuti. Fin dalla nascita Instagram è rimasto una piattaforma basata solo su app mobile. I contenuti si potevano caricare solo da smartphone, tutto il processo dallo scatto alla pubblicazione è stato pensato per questo e per la maggior parte dell’utenza funziona piuttosto bene. Per la nicchia dei professionisti alla ricerca della massima qualità delle immagini e del colore però le cose non sempre sono così semplici. Nicchia che negli anni è cresciuta fino a far sentire la necessità agli sviluppatori di aggiungere la funzionalità di caricamento dei post (solo dei post, non delle storie o altri contenuti) anche da browser desktop. Finalmente non serve passare le immagini postprodotte da computer a smartphone per la pubblicazione

Cogliamo l’occasione per fare un’analisi approfondita del processo di pubblicazione di un’immagine su Instagram e capire come migliorare il più possibile le nostre foto prima della pubblicazione. Poi cercheremo di capire quali sono i limiti e i possibili sviluppi che sarebbe opportuni per aumentarne la qualità. 

Dimensione e nitidezza

Cercando su Google vi sarete sicuramente imbattuti in decine e decine di articoli su come ottimizzare la dimensione delle immagini prima della pubblicazione. Questa fase è importantissima perché le immagini una volta pubblicate avranno una dimensione precisa, questo significa che se la nostra immagine ha un aspetto o una dimensione diversa verrà ritagliata e/o ridimensionata. Come ben sappiamo, ogni qualvolta riduciamo la dimensione di un’immagine la nitidezza diminuisce. Più è grande la riduzione più questo “problema” è evidente. Lasciarlo fare in automatico all’applicazione di Instagram o dal browser non è la scelta migliore. È importante portare le nostre immagini alla dimensione e all’aspect ratio corretto in modo da reintrodurre correttamente la nitidezza persa nel ridimensionamento. 

Su Instagram i formati supportati sono soltanto tre:

  • Quadrato: 1080×1080 px (1:1)
  • Verticale: 1080×1350 (4:5)
  • Orizzontale: 1080×566 px (16:9)

Per velocizzare questo processo il consiglio è di salvare questi tre proporzioni di crop come predefiniti su Photoshop o Capture One in modo da averli sempre pronti all’uso.

Una volta ritagliate correttamente le immagini vanno ridimensionate nella dimensione corrispondente corretta: ad esempio, se vogliamo il rapporto verticale 4:5 a 1080×1350 px. Su Photoshop possiamo scegliere l’algoritmo di ridimensionamento, solitamente impostato su “Automatico”,  selezionando manualmente “Bicubica più nitida” per mantenere più dettagli durante il campionamento dell’immagine. In base al formato di partenza e alla natura della foto (still life, macro, ritratto, ecc.) se questo non basta è necessario ripristinare la nitidezza tramite una semplicissima maschera di contrasto in Photoshop o lo strumento “nitidezza” nella formula di elaborazione di Capture One. In questo modo saremo in grado di dosare in modo preciso la nitidezza di cui ha bisogno la nostra immagine consci del fatto che una volta caricata, Instagram applicherà una compressione JPEG distruttiva molto invadente che percettivamente farà apparire la foto meno definita. Ovviamente questo non ci deve far propendere ad applicare una nitidezza troppo spinta che vada a snaturare l’immagine. Non è raro trovare immagini con una nitidezza troppo marcata che le rendono “finte” o “artefatte”. Dosate con cura la nitidezza, è molto importante per il risultato finale della foto. Aiutatevi con la funzione “Anteprima” mentre la applicate per vedere il prima e il dopo. Non esagerate mai: meglio un’immagine meno nitida e “più morbida” che troppo definita nei contorni da risultare artefatta. 

Arrivati a questo punto l’immagine è pronta per essere caricata, o questo è quello che di solito viene consigliato di fare. Ma in questo articolo andremo oltre al processo standard di ridimensionamento e nitidezza.

Colore

Analizziamo il processo di caricamento anche sotto l’aspetto del colore. È una parte fondamentale delle nostre immagini ma purtroppo sempre sottovalutata.

Mentre l’utente comune non si fa nessuna domanda (come è giusto che sia visto che non ha le competenze per farlo) e scatta con il suo smartphone e pubblica, per i professionisti le cose invece possono complicarsi un po’.

Spesso partiamo da immagini postprodotte di grandi dimensioni e con un profilo colore ampio, la quasi totalità delle volte Adobe RGB. Cosa succede in questi casi? Possiamo pubblicare senza problemi le immagini? Come gestisce il colore Instagram?

Risposta breve
Per non incappare in qualche problema convertite le immagini in sRGB prima della pubblicazione.

Risposta lunga
Instagram da sempre è basato sulla gestione in sRGB delle immagini. La ragione è facilmente intuibile. Nel 2010, quando è stato lanciato, nessun smartphone supportava la gestione colore. Questa fase è arrivata solo nel 2017 (ne abbiamo parlato qui). Le cose in ogni caso, ad oggi, non sono cambiate e purtroppo non sembra esserci nessuna novità in vista, almeno nel breve periodo. È un vero peccato perché con l’enorme quantità di smartphone in grado di visualizzare spazi colore ampi – come ormai l’affermato standard di questo settore Display P3 – siamo costretti a restare fermi al vecchio sRGB (ne abbiamo parlato qui).

Questo aspetto non influenza solo la nicchia di professionisti che si trovano a caricare immagini in Adobe RGB e che ricercano la fedeltà cromatica, ma anche gli utenti normali che scattano foto con il loro smartphone. Banalmente, un iPhone scatta foto con un profilo Display P3 da svariati anni ed è ovviamente in grado di visualizzarle. Mese dopo mese vengono venduti sempre più dispositivi con display in grado di visualizzare spazi colore wide gamut ed è un’occasione persa per un social network come Instagram basato sulle immagini non sfruttare questa opportunità.

Nel sito wide-gamut.com potete trovare qualche statistica a riguardo.

La posizione di Instagram sul wide gamut

A settembre 2016, con la presentazione di iPhone 7 e l’introduzione da parte di Apple della gestione colore sui dispositivi mobile, Instagram fu una delle prime grandi aziende a parlare di questo passo rivoluzionario. Mike Krieger, ingegnere informatico e co-fondatore di Instagram, scrisse un lungo articolo dove illustrava i limiti dello spazio colore sRGB e le nuove opportunità che dispositivi come iPhone 7 e la gestione colore potevano portare nel settore, specialmente su Instagram. L’articolo è molto tecnico e interessante, si sofferma sugli aspetti tecnici come API, Core Graphics Operations, ColorSpace Creation, Filter Pipeline fino all’esportazione dell’immagine e il caricamento sul CDN di Facebook. Ma la cosa non finisce qui: Krieger si spinse oltre. Instagram avrebbe rivisto il processo di gestione delle immagini in modo da dare l’opportunità di sfruttare appieno le capacità del display ai possessori di dispositivi in grado di visualizzare un ampio spettro di colori. Nell’articolo descrisse passo passo, con esempi di codice, come sarebbe stato possibile implementare tutto questo e, grazie alle API messe a disposizione da Apple, in modo estremamente semplice. Concettualmente il percorso è lineare: tramite codice è possibile richiedere all’app l’informazione se il dispositivo in cui è installata ha un display wide gamut oppure no. In caso affermativo l’app caricherà l’immagine wide gamut, in caso negativo invece l’immagine sarà in sRGB. Semplice. Con un piccolo prezzo da pagare, ovvero l’immagine verrà salvata con un profilo colore wide gamut ma il server la dovrà convertire in sRGB qualora il dispositivo non sia in grado di gestirla. Nel 2016 quest’ultima era una condizione comune a praticamente tutti gli smartphone. Ad oggi invece il problema non ci sarebbe visto che i sistemi operativi di Apple e Google supportano nativamente la gestione colore indipendentemente se il dispositivo utilizzi o no un display wide gamut, e la conversione potrebbe essere fatta lato client e non server. Per ovviare al problema, Krieger affermò che per mantenere le cose il più semplici possibili il team di sviluppo aveva optato per memorizzare sia una versione wide gamut che una sRGB nel backend. Poi, in fase di lettura, il server avrebbe servito in modo dinamico al client la versione corretta in base al tipo di display utilizzato sul dispositivo. Questa sarebbe dovuta essere una fase transitoria e questa “doppia scrittura” sarebbe stata rivista in futuro quando i dispositivi wide gamut si sarebbero diffusi maggiormente. 

In breve, solo qualche mese dopo la presentazione di Apple nel 2016 Instagram era già pronta ad abbracciare il wide gamut in un momento storico in cui era considerato un tabù nel settore mobile.

Tutto fantastico, se non fosse che di tutto quello affermato dal co-fondatore non si è mai vista la minima traccia. È finito tutto nell’oblio, tranne il suo articolo che potete trovare qui: Bringing Wide Color to Instagram.

Inutile dire che ho provato a contattare più persone all’interno di Instagram, compreso Krieger, per aver qualche notizia in merito, senza però avere nessun riscontro. 

La conversione: l’unica via rimasta

Ad oggi quindi per quando riguarda il colore siamo (fermi) al punto di partenza. L’unica cosa implementata nell’applicazione Instagram con l’arrivo della gestione colore su iOS e Android è stata la conversione colore in sRBG, fondamentale per avere una coerenza cromatica corretta nei dispositivi che scattano con profilo colore Display P3. Riassumendo: ogni foto che noi selezioniamo dalla libreria dello smartphone, se di profilo colore diverso dall’sRGB, verrà convertita in questo profilo. Nello specifico, quando selezioniamo la foto e siamo nella schermata in cui Instagram ci da la possibilità di scegliere il crop, la visualizzazione è quella con il profilo di origine, ad esempio Adobe RGB. Solo nel momento in cui passiamo allo step successivo selezionando la voce “Avanti” (in alto a destra nella schermata) verrà effettuata la conversione in sRGB. È esattamente in questo cambio di schermata che avviene la conversione e si possono notare differenze di resa cromatica dell’immagine. Procedendo poi con il caricamento della foto l’applicazione si occupa di comprimere il JPEG e di eliminare il tag del profilo. Infatti tutte le immagini presenti su Instagram sono senza profilo colore e, come avviene nei browser, la visualizzazione di un’immagine senza profilo viene intesa in sRGB, come previsto dallo standard W3C.

Di recente Instagram ha dato possibilità di caricare le immagini anche da desktop tramite browser e il processo di gestione colore è il medesimo dell’applicazione mobile.

Allo stato attuale delle cose possiamo affermare che non dobbiamo preoccuparci in quale profilo colore siano le nostre foto. Se, come spesso accade, ci troviamo a caricare materiale in Adobe RGB, Instagram si occuperà di convertire tutto in sRGB. Questa operazione però va fatta in modo consapevole: se la nostra foto di partenza non avrà colori fuori dal gamut sRGB la conversione sarà praticamente indolore; al contrario, ci saranno colori che verranno compressi e che subiranno lievi o importanti variazioni in base alle tonalità in questione. Mentre Instagram fa questa operazione in modo “nascosto”, una conversione a monte tramite Photoshop o Affinity Photo ci da invece la possibilità di controllare in modo più sofisticato la conversione tramite gli intenti di rendering. Ovviamente dipende da caso a caso.

Momento in cui l’applicazione Instagram effettua la conversione nel profilo colore sRGB.
In questo esempio l’immagine con il profilo colore Display P3 contiene dei colori fuori gamut (rispetto al profilo colore sRGB) in corrispondenza dei cerchi. Durante la conversione questi colori vengono “compressi” per rientrare nel profilo sRGB di destinazione e “spariscono”.

Foto desaturate

Allora possiamo stare tranquilli? Assolutamente no. Le applicazioni sviluppate da Facebook, come risaputo, purtroppo soffrono di svariati bug che in alcuni casi toccano proprio la fase di gestione del colore. Se la conversione su iOS e da browser ad oggi sembra essere sempre stata accurata, non si può dire lo stesso per il mondo Android. Se viene caricata un’immagine in wide gamut (Adobe RGB nei casi che abbiamo analizzato) in alcuni casi la conversione in sRGB viene completamente saltata e l’immagine viene caricata nei server senza profilo colore. Come potete immaginare, questo crea un grossissimo problema in quanto quell’immagine privata del proprio profilo colore viene poi visualizzata in sRGB con tutti i problemi del caso. Se partiamo da Adobe RGB il risultato sarà un’immagine con dei colori desaturati rispetto all’originale. 

A quanto pare il problema non è così raro con app (aggiornate all’ultima versione) su Android, ma non siamo riusciti ancora ad individuare un pattern ripetibile in base al marchio, modello di smartphone e versione del sistema operativo.

Se volete fare una prova con i vostri dispositivi potete utilizzare questa immagine: color-profile-green-red-test.jpg

Si tratta di un JPEG con un profilo colore incorporato particolare, possiamo dire stravolto: i vari canali RGB sono “invertiti” appositamente per capire a colpo d’occhio se ci possono essere problemi nella visualizzazione o conversione del profilo. In pratica se il dispositivo che visualizza questa immagine interpreta correttamente il profilo colore la vedrete di colore verde, al contrario se il profilo colore incorporato viene ignorato l’immagine risulterà di colore rosso.

Il test da fare quindi è quello di salvare l’immagine dal link e pubblicarla su Instagram (in realtà non serve pubblicarla nel vero senso della parola, ci si può fermare allo step precedente). 

Il procedimento è il seguente:

  • Aprite Instagram
  • Selezionate la foto dalla vostra libreria (che dovrà apparire di colore verde altrimenti significa che il vostro sistema operativo ha qualche problema nella gestione colore, cosa molto improbabile a meno che non sia datato)
  • Procedete toccando il tasto “Avanti” sulla schermata. 

Se l’immagine resterà verde significa che la conversione in sRGB è stata fatta in modo corretto. Altrimenti vi trovate davanti a un bug dell’applicazione.
Se vi va segnalatecelo, magari riusciamo in qualche modo a capire quali dispositivi soffrono di questo problema. 

Come si comporta il bug all’interno dell’applicazione Instagram su Android.
Inizialmente l’immagine viene visualizzata correttamente (colore verde) e nel passaggio successivo
durante il quale dovrebbe avvenire la conversione il profilo viene eliminato risultando di colore rosso.

Limiti e compromessi

Arrivati a questo punto è lampante come Instagram ponga dei limiti e dei compromessi nel trattamento delle immagini. Il primo: la gestione del colore ferma al profilo colore sRGB dopo un annuncio del 2017 dove sembrava che fossero pronti a fare da apripista in questa “rivoluzione” delle immagini wide gamut. Il secondo: la compressione molto distruttiva dei JPEG volta a far risparmiare spazio nei loro server. Un compromesso che per l’uso di un pubblico consumer può andare bene, diventa molto discusso tra i professionisti che come noi soffrono nel vedere la compressione distruggere i dettagli e creare soglie vistose nei gradienti.

Conclusioni e auspici per il futuro

La situazione è spiacevole per l’evoluzione che poteva esserci ma non c’è stata per quanto riguarda il colore, ma se vogliamo abbastanza stabile per quanto riguarda invece la conversione. Se l’utente non si pone il problema, o non converte in sRGB a monte prima della pubblicazione, sarà l’applicazione o il browser a farlo per lui. Uno scenario di fatto abbastanza sicuro e coerente, a parte alcuni casi che abbiamo visto imputabili a qualche bug. Se vi è capitato di avere problemi di coerenza cromatica o se volete togliervi il dubbio potete seguire il test descritto nelle righe precedenti e verificarlo in pochi istanti.

La speranza per il futuro? Vedere un’evoluzione anche in questo senso, magari l’arrivo delle immagini in wide gamut come accennato già nel 2017, visto che è proprio sui dispositivi mobile che i display wide gamut si stanno diffondendo a un ritmo incredibile. E chissà, addirittura vedere l’abbandono del formato JPEG per un standard più efficiente come il nuovo formato HEIF. A parità di peso sul server, con il formato HEIF si potrebbero avere immagini visivamente meno compresse e con sfumature molto più naturali, essendo supportati i 10 bit rispetto agli 8 del JPEG.

Anche in questo caso non si tratta di formati o standard nuovi ancora agli albori ma di formati già largamente utilizzati negli smartphone per salvare le immagini scattate. Ma non solo: anche marchi di fotocamere come Sony e Canon lo stanno finalmente affiancando al classico JPEG. Speriamo di vedere qualche aggiornamento al più presto.

La gestione colore nel web e nei dispositivi mobile

“In passato, i designer e gli sviluppatori sono stati in grado di cavarsela senza molte conoscenze su come funziona la gestione del colore, ma non sarà così in futuro.”

2017 – bjango.com

Nel precedente articolo abbiamo visto come il profilo colore Display P3 sia diventato lo standard successivo al classico sRGB in ambito web. Parallelamente, è una specifica tecnica dei display su cui i produttori stanno puntando sempre più: mi riferisco a notebook, tablet ma specialmente all’ambito smartphone, aprendo così la strada verso al cosiddetto “Wide Gamut” fruibile da tutti. Non è più una nicchia riservata agli addetti ai lavori, ma qualcosa che può essere alla portata della maggior parte delle persone visto che i dispositivi in grado di supportarla sono ormai prodotti in larga scala e ad un prezzo abbordabile.

Quando si parla di Wide Gamut non si fa riferimento ad un specifico spazio colore. Molto spesso, e in modo indiretto, ci si riferisce proprio allo spazio colore Display P3, anche se questa associazione non va presa come modello, anzi, è sempre meglio specificare con il nome corretto il profilo a cui ci si riferisce.

La vera rivoluzione non è il profilo Display P3 in sé ma il fatto che stiamo passando ad un sistema che contempla la gestione colore in tutti i dispositivi, compresi quelli mobile che fino a qualche anno fa ne erano sprovvisti.

Purtroppo nel corso degli anni si è sviluppato un bias cognitivo incredibilmente forte per il quale il settore mobile e il web sono la cosa più lontana dalla gestione colore, e che l’unica cosa sicura da utilizzare in questi ambiti sia lo spazio colore sRGB. Questo è stato vero per molti anni ma non oggi, e il fatto di trovarsi davanti a un cambiamento già allo stato avanzato sembra spaventare molti professionisti, tanto da spingerli a difendere le loro ideologie quasi fossero una religione. 

Questa è la cosa più lontana dal pensiero di evoluzione di una tecnologia. Si continua a pensare alla gestione colore legata solo alle arti grafiche, alla stampa o alla fotografia. C’è invece un settore che negli ultimi 5 anni ha avuto degli sviluppi incredibili, un settore snobbato da sempre che però ha saputo formare e innovare parlando ad altri professionisti, gli sviluppatori, che di gestione colore non ne avevano mai sentito parlare prima e che ad oggi solo una piccola minoranza padroneggia. Sto parlando del settore dei sistemi operativi per dispositivi mobili e, di conseguenza, dei browser web.

Non è difficile immaginarsi chi siano i player di questo ambito. Oggi la quasi totalità dei dispositivi utilizzano il sistema operativo iOS (Apple) oppure Android (Google) e i browser più utilizzati su questi dispositivi sono Safari e Google Chrome.

Non ci soffermeremo sui vari motori di render utilizzati dai browser o delle evoluzioni nel codice che ora permettono l’utilizzo di stringhe per definire colori all’interno dello spazio Display P3, ma resteremo nell’ambito delle immagini.

La gestione colore su web apre la strada a molte opportunità e allo stesso tempo richiede uno sforzo in più per chi programma, abituato a preoccuparsi solamente terne di valori RGB. Diventa fondamentale, in ambiente di sviluppo, sapere come gestire correttamente sia il codice che le immagini.

Per chi non ha le competenze, lavorare tutto in sRGB “come si è sempre fatto” rimarrà la strada con meno problemi. Ma se vogliamo portare i nostri progetti ad uno step successivo, sfruttare fino in fondo i dispositivi che sono sul mercato, dobbiamo adeguarci, studiare e formarci.

Poter sfruttare una gamma ampia di colori di fatto non prevede costi particolari: la parte di programmazione richiede maggiore attenzione nel codice, mentre la postproduzione delle foto prevede il riadattamento del flusso di lavoro ma nulla di più.

Nel nostro settore parlare di queste tematiche sembra una cosa fuori dal mondo per le aziende e studi fotografici, che si sentono in balìa di logiche che non conoscono e, di conseguenza, preferiscono rimanere sulla strada conosciuta.

“Perché mai utilizzare per il web un profilo come il Display P3 di cui non si è mai parlato più di tanto nel settore fotografico? In ogni caso non è affidabile, se non lo fanno gli altri un motivo ci sarà, forse non ne vale la pena”. Sono queste le considerazioni che si sentono e si leggono nell’ambiente, ma sono considerazioni miopi perché purtroppo non tengono conto dell’evoluzione fatta da iOS e Android in questi ultimi anni.

La gestione colore su dispositivi wide-gamut è stata presentata su iOS nel 2016 (iOS 10) e poco dopo su Android nel 2017 (Android 8). Gli smartphone hanno fatto lo stesso percorso dei PC negli anni ’90: sono arrivati ad avere delle prestazioni hardware tali da poter permettere l’introduzione della gestione colore all’interno di tutto il sistema operativo senza impattare significativamente sulla velocità e sulla durata della batteria.

Considerando la vita media di uno smartphone e il fatto che, dall’uscita dei sistemi operativi con la gestione colore, si sono potuti aggiornare anche i dispositivi di generazione precedente, è possibile affermare che i dispositivi mobili in utilizzo oggi sono, per la quasi totalità, equipaggiati con un sistema operativo in grado di gestire il colore.

Potete verificare se il vostro dispositivo e browser supportano la gestione colore visitando la pagina Test sul sito wide-gamut.com

Un’altra obiezione con cui ci si confronta spesso è “Non tutti i dispositivi hanno un display wide gamut e utilizzare immagini con profilo Display P3 o Adobe RGB potrebbe generare problemi per tutti gli altri, che sono la maggioranza. Meglio andare cauti e restare all’sRGB.”
È vero. Ci sono moltissimi dispositivi sRGB in circolazione e ne continuano ad essere venduti, specialmente nella fascia economica; la cosa da non dimenticare però è che comunque questi dispositivi supportano la gestione colore. Quindi se stiamo lavorando con immagini che potrebbero beneficiare di un gamut ampio di colori, come ad esempio quello offerto da Display P3 o Adobe RGB, possiamo tranquillamente basare il nostro flusso di lavoro su questi profili ed esportare per il web con il profilo incorporato. I dispositivi equipaggiati con display in grado di coprire lo standard Display P3 ne trarranno vantaggio, mentre negli altri il sistema operativo si occuperà di gestire opportunamente il colore. È persino possibile gestire manualmente questa fase caricando su un sito web sia l’immagine con profilo Display P3 che quella in sRGB e, tramite uno script, richiedere al browser di visualizzare una o l’altra in base al tipo di display utilizzato dall’utente.

Avere dispositivi con una gestione colore completa e i relativi browser compatibili dunque da la possibilità di utilizzare online immagini potenzialmente con qualsiasi profilo colore. La scelta del profilo ovviamente non può essere casuale: va fatta ponderando la tipologia di immagini che si vogliono pubblicare sul web. In questo contesto la scelta del profilo colore Display P3 è quella più logica visto che i produttori di dispositivi utilizzano sempre di più display in grado di coprire questo spazio colore (che ricordiamo essere all’incirca il 25% più ampio di sRGB) ma potrebbe ricadere anche sull’utilizzo di Adobe RGB.

Non in tutti i contesti avere un gamut ampio di colori può essere utile. Certe immagini possono rientrare benissimo all’interno dello spazio sRGB; in alcuni casi invece fa la differenza, sia a livello puramente percettivo, sia per quanto riguarda la coerenza cromatica di un prodotto. Pensiamo alla fotografia commerciale still life per ecommerce: avere una corrispondenza il più fedele possibile ha un impatto notevole sulla percezione dell’oggetto da parte dell’utente e può ridurre il numero di resi in fase di acquisto.

Basandoci sui dati di articoli e statistiche aziendali di vari settori, abbiamo stimato che approssimativamente il 20% dei resi degli acquisti online sia dovuto alla non conformità cromatica del prodotto ricevuto. Un esempio possono essere i capi di abbigliamento con colori molto intensi come quelli dedicati alle linee sportive, dove vengono utilizzati anche colori fluo che in sRGB risultano impossibili da riprodurre e, se convertiti in questo profilo, portano spesso a zone piatte e trame poco definite.

Le cose però stanno cambiando e alcuni marchi molto noti stanno sfruttando le opportunità offerte dall’ormai diffuso supporto alla gestione colore da parte dei browser e dei dispositivi mobile che generano la maggior parte del traffico web. Per andare nel concreto: negli shop di Nike e Adidas viene utilizzato lo spazio colore Adobe RGB per tutte le foto prodotto, in modo da far percepire al cliente finale il colore, spesso particolarmente saturo, delle scarpe.

Cliccando sull’immagine di esempio qui sotto potete passare dall’immagine in Adobe RGB presa dall’e-commerce di Nike a una conversione in sRGB. Se il vostro dispositivo è wide gamut potete notare la notevole differenza di tonalità fra uno spazio colore e l’altro.

L’evoluzione fatta in questo campo è tanta e il mercato sembra essere maturo per accogliere queste importanti novità. Come abbiamo detto, anche se non tutti i dispositivi hanno un display che supporta un ampio gamut di colori quasi sicuramente avranno una gestione colore attiva e affermare che “sRGB è più sicuro” ormai lascia il tempo che trova. Certo, lavorare tutto in sRGB fa sì che tutti vedano gli stessi colori ma perché limitarsi ad uno standard che in certi casi può essere riduttivo dal punto di vista della resa?

I sistemi operativi sono pronti da anni, l’hardware è in continuo miglioramento e nel prossimo futuro troveremo lo standard wide gamut Display P3 di base nella quasi totalità dei dispositivi. Quello che ancora manca, o sembra mancare, è il lato “umano”: la formazione e la conoscenza di questo nuovo ramo dove la gestione colore si è espansa.

Come anticipato nella citazione all’inizio di questo articolo, è arrivato il momento per gli sviluppatori, agenzie web, fotografi, fotoritoccatori e gli altri professionisti del settore di approfondire e formarsi su questa importantissima cruciale tematica, di cui nei prossimi anni sentiremo parlare sempre più spesso.

sRGB e web: il nuovo standard esiste già e si chiama Display P3

Il web è sempre stato in continuo cambiamento fin dalla sua nascita, di anno in anno abbiamo visto l’arrivo e l’evoluzione di molti linguaggi, di standard per la fruizione di contenuti audio e video, e di web app sempre più complesse. C’è una cosa che però sembra essere rimasta sempre uguale: il formato delle immagini. Oggi, come vent’anni fa, se chiediamo a qualcuno come esportare al meglio delle immagini per utilizzarle nel web la risposta è sempre la stessa: “converti l’immagine in sRGB e salvala in formato JPEG compresso“. Sostanzialmente queste sono le due indicazioni fondamentali, sono sempre andate bene e continuano a farlo, ma le cose stanno ormai cambiando radicalmente, o meglio sono cambiate da diversi anni ma ora il mercato è pronto per abbracciare un nuovo standard. Non stiamo parlando di formati immagine diversi e più performanti del JPEG come il WEBP o HEIC, ma di colori. 

Nel lontano 1996 Hewlett-Packard e Microsoft introdussero lo standard sRGB in un momento in cui i computer iniziavano a diffondersi nelle case, non solo in ambiti professionali, e si sentiva la necessità di standardizzare e semplificare ai non addetti ai lavori la gestione colore delle immagini. All’epoca i monitor erano a tubo catodico (CRT) e ben lontani da avere pretese di fedeltà cromatiche e dal coprire lo spazio colore sRGB; inoltre ricordiamoci che le prime connessioni analogiche ad internet erano lentissime. In quel contesto si pensò di introdurre lo standard sRGB nel web in modo radicale, tanto da consigliare di non salvare le immagini con il profilo colore incorporato. In questo modo anche quei pochi byte occupati dal profilo colore potevano essere risparmiati velocizzando il caricamento delle pagine. Questo è quello che succede ancora ai giorni nostri nella maggior parte dei casi. Senza scomodare i programmatori e i valori RGB inseriti a codice che di default fanno riferimento allo spazio colore sRGB, ci concentreremo solo sulla questione immagini.

Lo spazio colore sRGB, all’epoca della sua introduzione, andava ben oltre le specifiche
dei monitor in commercio, ma si parla comunque della fine degli anni ‘90, e oggi le cose sono ben diverse. I display dei nostri dispositivi, dopo un’evoluzione incredibile per quando riguarda la risoluzione (pensiamo all’HD, Full HD, 4K ma anche ai display “Retina” degli smartphone), sono progrediti anche sul fronte dei colori (finalmente!). È stata Apple a introdurre un nuovo standard chiamato “Display P3” (sulle specifiche dello standard DCI-P3 utilizzato nel mondo del cinema) e a iniziare, nel 2016, a produrre dispositivi di massa con display in grado di visualizzarlo.

Lo spazio colore Display P3 è considerato un profilo “Wide Gamut” ovvero con un’ampia gamma di colori, infatti riesce a descrivere il 25% di colori in più rispetto all’sRGB. 

L’introduzione di questo nuovo standard porta con sé un’implicazione a livello software non indifferente: la gestione colore nel web. Se nel mondo professionale delle arti grafiche la gestione colore è il pane quotidiano e si è abituati da tempo ad utilizzare monitor in grado di coprire spazi colore ampi come l’Adobe RGB, nel mondo consumer, specialmente quello dei dispositivi mobili fino a qualche anno fa, era tutto fermo a fine secolo scorso con l’sRGB a farla da padrone ovunque. 

Le cose poi però sono cambiate: già dal 2017 infatti prima Apple poi Google, hanno introdotto la gestione colore nei loro sistemi operativi per smartphone spianando così la strada alla rivoluzione che stiamo vivendo ora. 

Al contrario di quanto sostenuto da molti “guru” del colore che nei corsi e webinar sulla gestione colore continuano a sminuire il segmento mobile perché privo di una gestione colore efficiente, ad oggi moltissimi dispositivi come notebook, tablet e smartphone sono dotati sia di un sistema operativo con una gestione colore, sia di un display wide gamut in grado di coprire lo spazio colore Display P3.

In ambito smartphone questa cosa ha iniziato ad essere sfruttata specialmente nello sviluppo di applicazioni, disegnando interfacce e grafiche animate come nei videogiochi con colori molto più vividi e saturi che prima non si potevano utilizzare. In ambito web invece non sono stati fatti passi in avanti degni di nota, eppure le basi ci sono già da diversi anni: i browser sono in grado di gestire il colore e nel mercato ci sono sempre più dispositivi con display in grado di riprodurre colori definiti dal profilo Display P3. Cosa stiamo aspettando?

Quante volte ci è capitato di convertire foto da AdobeRGB a sRGB per un’esportazione a uso web e vedere i colori che si appiattiscono a causa dello spazio colore ridotto di sRGB? Banalmente anche con scatti still life di prodotto con tinte particolari o ancora di abiti con colori sgargianti, per non parlare dei colori fluo. Questo va poi a impattare nella corrispondenza colore del capo ad esempio in un ecommerce, alle problematiche legate all’acquisto del prodotto e alla percezione dell’acquirente che poi si vede recapitare il capo di un colore inatteso.

I browser sono pronti, i dispositivi crescono sempre di più mese dopo mese, perché non sfruttare questa opportunità? Il bello è che non costa assolutamente nulla, si tratta solo di basare il workflow di sviluppo, post-produzione ed esportazione sullo spazio colore Display P3 invece del solito sRGB. Ovviamente questo va fatto con cognizione di causa, sapendo che se per qualche motivo l’immagine che andiamo a mettere online viene processata a nostra insaputa, come accade ad esempio in certi automatismi di ottimizzazione delle immagini degli ecommerce, e viene eliminato il profilo colore Display P3 incorporato, non solo viene vanificato tutto, ma creiamo un grosso problema perché i browser che visualizzeranno quell’immagine senza profilo la interpreteranno di default come sRGB e i colori risulteranno alterati. È sempre fondamentale incorporare il profilo colore anche sul web se ci spostiamo dal canonico sRGB.

Ad oggi sappiamo che i dispositivi in grado di coprire lo spazio colore Display P3 sono tanti e sono sempre di più. I dispositivi Apple da fine 2016 in poi lo sono di sicuro ma anche molti dispositivi di altri produttori. In ambito smartphone inizialmente erano solo i top di gamma ad avere display con queste specifiche ma ora si possono trovare anche smartphone di fascia medio-bassa con queste caratteristiche. 

Per verificare con semplicità se il tuo dispositivo e il tuo browser sono in grado di visualizzare correttamente delle immagini wide gamut abbiamo creato appositamente questo sito che restituisce direttamente in homepage quale dei tre standard (sRGB, DCI-P3, BT.2020) il tuo dispositivo è in grado di coprire.

wide-gamut.com

Inoltre puoi verificare se il tuo browser interpreta correttamente i colori nella pagina Test e visualizzare delle immagini in sRGB e Display P3 nella pagina Images per verificare la differenza di visualizzazione tra i due profili colore. 

Sappiamo che i dispositivi in grado di visualizzare un’ampia gamma di colori sono sempre di più ma non esistono delle statistiche oggettive, per questo abbiamo creato la pagina Statistics dove potete consultare le statistiche del sito aggiornate in tempo reale.

Ovviamente più dispositivi visualizzeranno il sito, più riusciremo ad avere una fotografia completa della realtà e dell’evoluzione dei dispositivi presenti sul mercato, per quanto riguarda la capacità di visualizzare da browser delle immagini con una gamma di colori ampia come quella definita dal profilo colore Display P3.

Se ci aiuterai a diffondere questa iniziativa ti saremo infinitamente grati!
Per qualsiasi chiarimento o domanda scrivici pure a info@pixelfactory.agency

La fotografia computazionale sta arrivando sulle mirrorless

Qualche anno fa, quando parlavo di fotografia computazionale e di come a breve si sarebbe legata al mondo mirrorless, notavo un certo dissenso generale. Era un termine legato fortemente al mondo smartphone. “Quella roba lì non è fotografia” era questo il pensiero comune, e lo è ancora oggi.
Ma qualcosa sta cambiando.

L’opinione più diffusa è che se la fotografia computazionale non è arrivata nelle mirrorless un motivo ci sarà. Visto il costo delle fotocamere di alta fascia, ben più importante di quello di uno smartphone, per i produttori non sarebbe un problema implementarla. In poche parole con le mirrorless, che fino a qualche hanno fa non venivano considerate uno strumento adeguato da chi lavorava nella fotografia commerciale (ricordiamolo), si parla di “vera fotografia” e quindi non c’è spazio per la fotografia computazionale.

Con l’uscita della Sony Alpha 1 questa tematica è improvvisamente esplosa e gli articoli sul web stanno spopolando. La fotografia computazionale sta arrivando sulle mirrorless, non sono più chiacchiere fra amici fotografi, è così (punto). E molti si aspettano che sia un mostro che si divorerà la “vera” fotografia, lasciando il campo a scatti fatti dall’intelligenza artificiale. Si insomma: la fotografia è morta. Di nuovo.

Non è il caso di dilungarsi a discutere queste affermazioni che sinceramente sembrano più che altro prese di posizione di persone restie al cambiamento e al progresso.
Seguendo questi ragionamenti sterili e ripercorrendo la storia potremmo quindi dire che i veri ritratti fossero quelli dipinti a mano dagli artisti, poi è arrivata la fotografia che con varie diavolerie chimiche li ha spazzati via.

Ma allora perché la fotografia computazionale non c’è nelle mirrorless?
La questione è puramente tecnica.

Per permettere al software di analizzare e processare uno scatto c’è bisogno di avere svariate acquisizioni dell’immagine da parte del sensore in un tempo estremamente ridotto tendente allo zero. In pratica quando premiamo il pulsante di scatto sono necessari molti frame con diverse esposizioni e parametri differenti per poter avere una mole di dati necessaria ad elaborare l’immagine con gli algoritmi della fotografia computazionale.

I problemi sostanzialmente sono:

  • velocità di lettura del sensore (tempo di readout)
  • prestazioni del processore, gpu e memoria ram.

Negli smartphone il tempo di lettura del sensore solitamente è inferiore ai 10 millisecondi grazie alle dimensioni ridotte e ai pochi megapixel. Ad esempio, su iPhone 12 il tempo di readout per i sensori a 12 MP è di circa 5 millisecondi!

Nelle mirrorless, con sensori di grandi dimensioni come i full-frame, le cose sono ben diverse: ci vuole molto più tempo, troppo. Le cose però stanno cambiando, soprattutto se si pensa che una macchina come la Canon EOS R5 ha un tempo di lettura di circa 20 millisecondi. È facile intuire quindi che sia solo questione di tempo, anzi che fosse solo questione di tempo. Con l’uscita di Sony Alpha 1 si è tornati a parlare di fotografia computazionale sulle mirrorless, indovinate il perché? Questa nuova fotocamera full-frame grazie al nuovo sensore “Exmor Stacked” ha un tempo di readout di 6 millisecondi, praticamente quello di un iPhone 12.

Slide mostrate durante la presentazione di Sony Alpha 1.
Mostrano le capacità del nuovo sensore e la velocità di elaborazione dei frame (120 times/sec)
per il calcolo della messa a fuoco (AF) e dell’esposizione (AE).

Come abbiamo visto, negli smartphone i processori stanno diventando sempre più performanti sia come potenza di calcolo che come consumo energetico. Tra qualche anno la fotografia computazionale arriverà anche nelle mirrorless nella sua forma più avanzata. 

Per quanto possa essere interessante come progresso tecnologico molti considerano la fotografia computazionale uno scatto fatto e finito senza la possibilità di elaborazione e interpretazione personale, o meglio estremamente limitata. A guardare l’ambito smartphone oggi, è effettivamente ciò che accade: l’immagine elaborata viene salvata in formato JPEG o HEIF togliendo la possibilità al fotografo di sviluppare il file raw con tutti i vantaggi che ne derivano. Ma è vero che anche questo limite in realtà è stato ormai superato con l’introduzione del formato Apple ProRAW che unisce le potenzialità della fotografia computazionale alla flessibilità di un file raw.
Per approfondire questo argomento vi consiglio di leggere questo articolo: Apple ProRAW, una rivoluzione nella fotografia computazionale.

Sinceramente, poter fare una foto al tramonto perfettamente bilanciata con la fotocamera full-frame in mano senza dover ricorrere ad un cavalletto è un futuro che arriverà molto presto e che sinceramente non vedo l’ora di abbracciare e sfruttare.

Credits foto copertina: Austin Mann, Shot on iPhone 11 Pro – Night mode

Apple ProRAW: una rivoluzione nella fotografia computazionale

Fotografia computazionale

Avrete sicuramente sentito parlare di questo nuovo formato introdotto da Apple durante la presentazione fatta a ottobre 2020 in cui ha menzionato l’arrivo di questa novità con iPhone 12 Pro e iPhone 12 Pro Max. Durante la presentazione ricordo di essere sobbalzato dalla sedia mentre pensavo, “l’hanno fatto davvero!”. Andiamo quindi a vedere nello specifico com’è fatto questo nuovo formato e quali saranno le implicazioni nel prossimo futuro. Mettetevi comodi perché c’è molto di cui parlare.

Alok Deshpande Apple Senior Manager, Camera Software Engineering al minuto 53 parla di Apple ProRAW

Nella presentazione di Apple, della durata di circa un’ora, si è parlato di Apple ProRAW per 2 striminziti minuti, allora perché tutto questo chiasso mediatico? Beh perché è una “funzione” che qualunque fotografo vorrebbe nel proprio smartphone. Ok, il binomio fotografo-smartphone può sembrare strano: non faremo confronti fra device mobili e corpi medio formato, o discorsi filosofici sul fatto che un vero fotografo scatta anche con una compatta, non è questo il punto. Lo smartphone è solo l’inizio di una storia molto più ampia che cercheremo di approfondire in questo articolo.

Negli ultimi anni le macchine fotografiche hanno fatto dei salti da gigante, siamo nel pieno del passaggio da reflex a mirrorless, ci sono sensori full-frame retroilluminati, stabilizzazione attiva a 5 assi, ottiche super veloci, ecc. solo per citarne qualcuno. Negli ultimi 10 anni circa le fotocamere sono cambiate drasticamente e lo stesso si può dire anche per gli smartphone che hanno visto nella parte fotografica un’evoluzione incredibile con cambiamenti tangibili anno dopo anno. Fotocamere da una parte, smartphone dall’altra, due rami completamente diversi che hanno visto nella loro storia un incremento considerevole di investimenti e di sviluppo su fronti diversi.

Dal lato fotocamere si è puntato tutto sull’ottimizzazione dell’hardware per arrivare ad avere un file RAW sempre migliore lasciando in secondo piano il software che non ha fatto salti in avanti degni di nota, algoritmi per la messa a fuoco a parte. Dal lato smartphone invece l’evoluzione ha seguito una strada diversa, quasi opposta. Anche se indubbiamente i sensori utilizzati in ambito mobile hanno visto un miglioramento hardware incredibile, c’è una cosa dalla quale non si scappa: le dimensioni. A differenza di una fotocamera, le dimensioni di uno smartphone sono una cosa prioritaria. Aumentare lo spessore di 5 mm in un corpo macchina non è un problema, in un telefono si, potrebbe diventare invendibile. Risultato? Si possono montare solo sensori e ottiche minuscole, che confrontati con quelle delle fotocamere sono al limite del ridicolo se parliamo di dimensioni e quantità di luce catturata. Gli smartphone però hanno a disposizione un processore incredibilmente performante, gli ultimi modelli di fascia alta superano come velocità di calcolo la maggior parte dei notebook sul mercato. Questo ha portato ad uno straordinario sviluppo software per cercare di sopperire alle enormi mancanze del reparto hardware risicato nei pochi millimetri di spessore. La fotografia computazionale ha così trovato terreno fertile e negli ultimi anni ha raggiunto livelli di accuratezza molto alti, tanto da capovolgere il senso della frase “l’ho scattata con il cellulare”. Perché fino a qualche anno fa in ambito della fotografia di tutti i giorni (quella “punta e scatta” alla portata di tutti per capirci) il telefono comunque era sinonimo di fotografia di scarsa qualità ma adesso non è più così. Si è arrivati al punto che scattare un tramonto o un ritratto in controluce restituisce un risultato migliore con uno smartphone che con una fotocamera. Mi sono trovato in molte occasioni in cui dovevo scattare una foto da utilizzare subito per inviarla ad amici o da tenere come ricordo e di tirare fuori dallo zaino la mia fotocamera, scattare e vedere il risultato decisamente brutto rispetto a quello di qualche mio amico che senza preoccuparsi di nulla aveva già scattato con il suo iPhone e il risultato era decisamente migliore del mio. Certo, dentro di me sapevo che una volta arrivato a casa avrei potuto prendere il mio RAW da 42 Megapixel svilupparlo in Capture One, recuperare le luci del tramonto, ecc. tirando fuori un file che quanto a qualità e dettaglio non era neanche da mettere a confronto con quello di uno smartphone; ma il tempo che avrei dovuto impiegarci era decisamente sproporzionato per l’uso che volevo fare di quello scatto, senza contare che in certe situazioni si deve ricorrere a scatti multipli (bracketing) per poter arrivare a risultati che uno smartphone raggiunge in tempo zero.

Le conoscenze e gli sviluppi sulla fotografia computazionale portate avanti da aziende come Apple o Google sono talmente avanzate che ci possono far affermare, anche se con tutti i limiti del caso, che per l’uso comune uno smartphone scatta meglio di una fotocamera, il che è pazzesco ed era impensabile fino a qualche anno fa. Per creare lo scatto in JPEG o HEIC un iPhone esegue svariati scatti multipli istantaneamente eliminando il problema dei soggetti in movimento e riuscendo a fondere insieme immagini con esposizioni diverse per recuperare luci e ombre, oppure allineando e fondendo insieme più scatti per eliminare il rumore nel caso di scarsa illuminazione o anche riconoscendo un ritratto e sfuocando lo sfondo dopo aver elaborato una mappa di profondità della foto.

Partendo dal fatto che la miglior fotocamera è quella che ci si porta sempre con sè, è naturale pensare che per gli amanti delle foto lo smartphone sia di fatto la principale fotocamera se non ci si vuole portare sempre lo zaino appresso. Ma… C’è un ma. Se da una parte è vero che la foto così come appare è generalmente esposta ed elaborata bene, per un appassionato di fotografia il fatto di non poter mettere mano allo sviluppo di uno scatto è un limite non da poco. Infatti molti smartphone hanno come opzione lo scatto in formato RAW proprio per dare all’utente che lo richiede la possibilità di sviluppare la foto come preferisce. Esistono anche molte app a supporto, sia in fase di scatto che in fase di sviluppo. Ed è proprio questo il punto: il file grezzo di uno smartphone è molto scadente, ci si scontra con la dura realtà e i limiti di un sensore di dimensioni così ridotte. Scatto spesso in formato RAW con il mio iPhone, a volte sono abbastanza soddisfatto del risultato, altre invece decisamente no, motivo per il quale nell’applicazione che utilizzo (Halide) ho attivato la funzione RAW + JPEG in modo da avere a disposizione sia il file DNG (tutti gli smartphone lo utilizzano come formato RAW) sia il file elaborato (in formato HEIC) creato dagli algoritmi della fotografia computazionale di Apple.

Ovviamente queste due tipologie di scatto viaggiano su due binari completamente diversi: una salva i dati binari del sensore per darci la possibilità di sviluppare la foto ma ha molti limiti a causa dell’hardware miniaturizzato, l’altra ci offre un file JPEG o HEIC elaborato con algoritmi sofisticati ma su cui non abbiamo nessun controllo e che come ben sappiamo non offre la possibilità di essere post-prodotto più di tanto.

Più che due strade stiamo parlando di due mondi completamente diversi che si escludono vicendevolmente. Quanto sarebbe bello scattare una foto senza tutti questi compromessi? Un solo scatto, un solo file che porti con se tutti i miglioramenti della fotografia computazionale ma che dia la libertà di sviluppare ed editare lo scatto come si vuole. Questa cosa ce la siamo detti più volte fra colleghi, smorzando subito dopo questo sogno e guardando la realtà dei fatti: come si fa a unire uno scatto RAW con uno scatto già elaborato? “Impossibile!”, ecco a cosa stavo pensando mentre guardavo il keynote di Apple e incredulo ascoltavo le parole:

…combina il controllo di scattare in RAW
e la potenza della fotografia computazionale.

Sviluppo di un RAW

Dal momento in cui la luce passa attraverso le lenti e arriva al sensore, al momento in cui la fotocamera converte i valori in una foto succedono molte cose ma è possibile condensare il tutto in tre passaggi fondamentali: demosaicizzazione, elaborazione dell’immagine e ottimizzazione. Vediamo velocemente questi step che ci serviranno per comprendere al meglio l’Apple ProRAW.

Demosaicizzazione
Ogni pixel del sensore non è in grado di “vedere” il colore, è in grado di misurare solo la quantità di luce. Per questo viene messo un filtro sopra il sensore in modo da far passare solo la luce verde, rossa o blu con una particolare disposizione a mosaico: il pattern più utilizzato è chiamato Bayer (dal nome del suo inventore) ma ne esistono di altri tipi.

In questo step l’immagine acquisita somiglierebbe a qualcosa di questo tipo, ben lontana dalla nostra idea di fotografia.

Per questo l’immagine deve essere “demosaicizzata” utilizzando sofisticati algoritmi. Anche qui ne esistono di vari tipi e il risultato dipende dal tipo di sensore, dal tipo di impostazioni della macchina e non ultimo dal tipo di fotografia. Alcuni algoritmi risultano molto accurati con scatti dettagliati e luminosi, altri con scatti scuri come la foto di un cielo stellato.

Elaborazione dell’immagine
Una volta demosaicizzato, lo scatto viene elaborato per arrivare ad avere un aspetto simile a quello che percepivamo nel momento in cui abbiamo premuto il pulsante. Le elaborazioni sono molteplici: dalla mappatura dei colori all’intento dello spazio colore definito, al bilanciamento del bianco, all’esposizione globale e selettiva del frame con il recupero delle luci e delle ombre, correzione della distorsione della lente, ecc.

Ottimizzazione
Il questa ultima fase l’immagine viene ridotta di dimensione e salvata in base alle impostazioni del software. Il formato può essere molto pesante con compressione non distruttiva oppure più leggero adatto ad uno scambio più agevole ma con una perdita di dati come accade con la compressione JPEG o con la più recente ed efficiente compressione HEIC.

Apple ProRAW

Un nuovo formato che già conosciamo
Fin da subito sembrava che questo file avesse una sua estensione, che fosse a tutti gli effetti un nuovo tipo di file, invece quando sono state pubblicate le specifiche molti sono rimasti basiti. Il file ProRAW non esiste, di fatto è un normalissimo file DNG. Sembra una soluzione strana ma una volta compreso il funzionamento tutto diventerà molto più sensato e affascinate.

Per chi non lo conosce il file DNG (acronimo di Digital Negative) è un formato di memorizzazione di immagini RAW introdotto da Adobe nel 2004 con l’idea di portare un unico formato di riferimento nella giungla di formati RAW proprietari. La parte più interessante di questo progetto è che questo formato è libero. Apple infatti ha lavorato proprio su questo, utilizzando delle specifiche poco sfruttate del DNG e lavorando insieme ad Adobe per aggiungere dei nuovi tag, portando di fatto all’uscita di una nuova versione del DNG, nello specifico la 1.6.

Avrete intuito quindi che il formato Apple ProRAW non è né un formato chiuso né tantomeno proprietario di Apple. E se ci pensate bene questa cosa è fantastica! Per questo mi sono spinto a utilizzare il termine “rivoluzione” nel titolo di questo articolo: non stiamo parlando di iPhone, di Apple o di ecosistemi proprietari. Apple ha lavorato per migliorare lo standard libero DNG e non c’è assolutamente nulla che blocchi questo formato ai suoi dispositivi o sistemi operativi. Quando la ricerca e l’innovazione viene resa libera a tutti è una vera rivoluzione! E visti i benefici che porta con sè l’Apple ProRAW non fatico a credere che ne sentiremo parlare sempre di più e che lo troveremo in moltissimi dispositivi.

Cos’è Apple ProRAW
Abbiamo detto che alla fine questo formato non esiste, è di fatto un DNG, ma quali sono le differenze con i DNG che siamo abituati ad utilizzare tutti i giorni?

Per prima cosa il ProRAW non memorizza i dati grezzi del sensore come avviene con un normale RAW ma memorizza i valori subito dopo la demosaicizzazione, in uscita dal primo step che abbiamo visto poco fa. Questi valori rappresentano l’immagine non ancora elaborata con la gamma dinamica originale, contengono quindi tutti i dati che ci permettono di lavorare con la flessibilità con cui siamo abituati a sviluppare un normale RAW. Così facendo si perde solo la possibilità di scegliere quale algoritmo di demosaicizzazione utilizzare, ma è anche vero che iOS è in grado di eseguire questo passaggio meglio di qualsiasi altro motore di sviluppo RAW di terze parti in quanto Apple ha una conoscenza molto approfondita dell’hardware che utilizza nei suoi dispositivi e di conseguenza anche della parte software che lo gestisce. Ad esempio, saprà benissimo come si comporta il sensore in base ai vari ISO e tecnicamente potrebbe sfruttare il riconoscimento intelligente della scena per determinare se si tratta di un cielo stellato o di un ritratto per scegliere l’algoritmo di demosaicizzazione più accurato.

Tecnicamente tutto questo potrebbe dare ad Apple la libertà di lavorare ad un proprio sensore, magari con qualche filtro particolare al posto del comune Bayer che abbiamo visto prima. In un contesto normale, se questo dovesse succedere, i vari software di sviluppo di terze parti (come ad esempio Lightroom) dovrebbero essere aggiornati con nuovi algoritmi per poter decifrare i dati di un sensore di nuova generazione, ma con il formato Apple ProRAW tutto questo non è necessario perché i dati salvati sono già demosaicizzati e il file sarebbe leggibile da tutti i software dal giorno zero senza dover aspettare che gli sviluppatori aggiornino i loro software.

A questo ovviamente vanno sommati i risultati degli algoritmi della fotografia computazionale che vengono salvati proprio all’interno del file RAW. Questi algoritmi lavorano sul colore, altra ragione per la quale hanno bisogno di avere a disposizione dati demosaicizzati e non grezzi. Apple ha lavorato con Adobe per introdurre un nuovo tag nello standard DNG chiamato “Profile Gain Table Map” che contiene tutti i dati che servono per mappare correttamente l’immagine e che vengono poi sfruttati dallo Smart HDR, nel caso di iPhone (arrivato alla versione 3), per migliorare l’aspetto della foto. Inoltre questi dati aggiuntivi sono separati da quelli dell’immagine vera e propria e quindi possono essere dosati a piacere oppure ignorati. Nei dati inclusi nel ProRAW troviamo anche quelli utilizzati per il DeepFusion (serie di algoritmi che Apple utilizza per ridurre il rumore e aumentare i dettagli) e le mappe di profondità per intervenire su livelli differenti di profondità dell’immagine e creare la sfocatura, specialmente in modalità ritratto.

Slide mostrata durante la presentazione di iPhone XS che illustra alcuni passaggi effettuati dagli algoritmi della fotografia computazionale sviluppata da Apple quando si scatta una foto. Un trilione di operazioni a foto!

Arriviamo al fattore peso: quanto pesa un file ProRAW per riuscire a contenere tutte queste informazioni? Ovviamente il peso varia in base all’immagine ma indicativamente è all’incirca di 25MB a scatto contro i 12MB di un normale RAW. Di default il ProRAW è a 12 bit a differenza dei canonici 8 bit di un file JPEG, aumentando drasticamente il numero di colori a disposizione e riuscendo a gestire gradienti praticamente perfetti senza creare soglie. Le API danno la possibilità di usare anche il formato a 10 bit che per molti può essere già abbastanza; di fatto significa 4 volte la precisione che si ha con un 8 bit ma facendo scendere il peso del file a circa 8MB al posto dei 25MB di partenza.

Elaborare un file con tutte queste informazioni è una bella sfida. Ecco perché questo formato è stato introdotto solo ora da Apple, in un momento in cui i processori a disposizione sono talmente veloci da poterlo gestire in tempi relativamente rapidi anche se con dei limiti: non è infatti possibile scattare in modalità burst o in modalità Live Photo. Inoltre c’è bisogno di molta più memoria per non avere rallentamenti, ecco perché è supportato solamente dai modelli PRO, non è un fatto di marketing come sostenuto da molti ma di performance hardware. Giusto per capire l’ordine di grandezza di complessità di questo tipo di file basti pensare che un iPhone impiega circa 50 millisecondi per acquisire un normale RAW e 2-3 secondi per terminare l’elaborazione di un ProRAW.

Sembra tutto bellissimo ma salvare tutti gli scatti in DNG significa che non tutte le applicazioni (e sono un’infinità) saranno in grado di leggerlo: pensiamo ad esempio alle varie app di messaggistica o social. Invece si è scoperto che all’interno del ProRAW può essere salvata anche l’immagine JPEG elaborata dando la possibilità alle app che non supportano il RAW di leggere ugualmente la foto.

Apple ha fatto un lavoro incredibile con il ProRAW rendendolo un formato per tutti, non solo per i nerd della fotografia. Infatti per chi non sa nulla di RAW può semplicemente scattare la foto, toccare il tasto “modifica” che trova all’interno dell’app di scatto nativa e modificare la foto come ha sempre fatto, ma con risultati decisamente più accurati impensabili con un normale JPEG. Per gli appassionati invece si apre un nuovo mondo fatto di sviluppo RAW sia direttamente su iPhone con app di terze parti che su desktop con i software che si è abituati ad utilizzare da sempre come Photoshop, Lightroom o Capture One (appena verranno aggiornati per supportare i nuovi tag del DNG 1.6).

Le possibilità per le app di terze parti sono molteplici: Apple ha rilasciato delle API molto avanzate e se siete appassionati di fotografia e state cercando un’app avanzata con cui scattare vi consiglio senza ombra di dubbio Halide.


Siamo arrivati alla fine di questo articolo: a questo punto mettiamo da parte le specifiche tecniche e parliamo delle implicazioni che avrà un formato di questo tipo. Sicuramente questo è solo l’inizio e chissà quali altre interessanti novità potranno arrivare in futuro magari con un’altra versione del formato DNG. Abbiamo visto come il mondo delle fotocamere sia lontano da quello degli smartphone per la natura fisica e hardware dei dispositivi e per il tipo di evoluzione che hanno seguito. Questo nuovo formato però, a mio avviso, potrebbe fare da ponte fra questi due mondi che inizieranno ad avvicinarsi, al contrario di quello che succede ora. Se nell’uso comune per pubblicare una foto su Instagram scatta meglio uno smartphone che una fotocamera che costa cinque volte tanto, quanto ci impiegherà la fotografia computazionale ad arrivare nel mondo professionale? Certo in fotografia professionale in un set con flash, modificatori di luce ecc. la fotografia computazionale è ancora difficile da immaginare, siamo abituati ad avere il pieno controllo di tutto con i limiti del caso, senza aggiungere la variabile dell’elaborazione computazionale che è quasi impossibile da prevedere prima dello scatto e potrebbe variare in base al soggetto: basti pensare ad uno shooting di oggetti still life. Ma quanto sarebbe comoda e interessante in tutti gli altri casi? Pensiamo in primis alla fotografia di reportage, documentaria e paesaggistica.

Non passerà molto tempo prima di vedere la fotografia computazionale arrivare anche sulle fotocamere, forse proprio con il formato Apple ProRAW, e sarà sicuramente fantastico! Molti vedranno questa evoluzione come la fine della fotografia affermando “adesso sono tutti fotografi” ma sappiamo quanto sia sterile questo pensiero. Ormai siamo abituati a sentirlo di continuo, prima con le compatte, poi con gli smartphone. Per alcuni la fotografia è già morta con le mirrorless perché nel mirino non si vede la realtà. Affermazioni che lasciano il tempo che trovano di persone che non abbracciano e non sfruttano i cambiamenti che in questo settore per fortuna sono molto frequenti. La magia del processo di sviluppo di una pellicola rimarrà sempre unico, e tutti i ricordi e la filosofia che richiama. Sono cose bellissime ma bisogna saper sfruttare l’evoluzione se vogliamo migliorare.

Apple ProRAW è il primo passo della fotografia computazionale verso il mondo professionale, la strada da percorrere è sicuramente molta ma la via è tracciata. È solo questione di tempo.

Fonte: https://blog.halide.cam

X-Rite ColorChecker Passport Photo 2: uno strumento indispensabile

Nella fotografia, specialmente quella commerciale, la resa cromatica di un’immagine è di fondamentale importanza. Basti pensare a scatti destinati alla vendita di prodotti di vario genere, come ad esempio abiti, gioielli, prodotti hi-tech o auto, dove il colore gioca un ruolo decisivo. Questa coerenza cromatica fra scena e scatto può essere complicata se gestita manualmente, cosa che purtroppo ad oggi è ancora molto diffusa, oppure può essere gestita con un flusso di lavoro semplice grazie all’utilizzo di un ColorChecker. Questo garantisce una resa cromatica molto fedele, un risparmio di tempo notevole nella fase di postproduzione e, cosa importantissima, la ripetibilità del risultato.

Il ColorChecker, semplificando, non è altro che un cartoncino con una serie di quadrati colorati e ne esistono di vari tipi, quello più comune è quello con 24 tasselli. Questo cartoncino originariamente si chiamava Color Rendition Chart ed è stato presentato in un articolo sul Journal of Applied Photographic Engineering del 1976 prodotto da Macbeth, successivamente da Gretag Macbeth, e attualmente da X-Rite in seguito all’acquisizione di Gretag Macbeth.

Esistono vari modelli di ColorChecker sul mercato, alcuni dedicati alla fotografia, altri al video, di grandi e piccole dimensioni. In questo articolo andremo ad analizzare nello specifico il ColorChecker Passport Photo 2 di X-Rite, uno dei modelli più venduti grazie alle dimensioni ridotte e alla custodia rigida che lo rendono uno strumento comodo da utilizzare e indispensabile sul set.

Cosa si può fare con un ColorChecker Passport Photo 2

  • Bilanciamento del bianco
  • Creazione di profili camera personalizzati
  • Controllo dell’esposizione nella fase di scatto
  • Regolazioni creative

Il ColorChecker Passport Photo 2 ha una dimensione all’incirca di 9×13 cm, contenuto in una sottile custodia rigida in plastica è costituito da 4 pagine e ogni pagina è di fatto un target con una specifica funzione.

TARGET 1 – ColorChecker Classic 24

Il primo target ColorChecker Classic 24 è formato da 24 patch colorate ed è uguale a quello lanciato nel lontano 1976. I pigmenti utilizzati sono molto stabili e studiati per non decadere nel tempo (va comunque tenuto al riparo dalla luce quando non utilizzato) ed inoltre questi pigmenti sono a basso indice di metamerismo, in modo da risultare quanto più possibili uniformi e costanti al variare delle condizioni di illuminazione della scena. La nostra percezione del colore infatti non è solo influenzata dal colore dell’oggetto stesso ma anche dalle caratteristiche della luce che lo illumina.

Queste 24 patch sono divise in:

  • 6 patch di grigi: in ordine dal nero al bianco, tutte perfettamente neutre
  • 6 colori primari e secondari: RGB (rosso, verde, blu) + CMY (ciano, magenta, giallo)
  • 12 patch di colori comuni: utilizzate come riferimento visivo (troviamo ad esempio l’incarnato chiaro e scuro, il blu del cielo, il verde della vegetazione, ecc.). Questo era molto utile in fotografia analogica dove la corrispondenza cromatica veniva fatta nella maggior parte dei casi a occhio non avendo a disposizione un software in grado di farla. Oggi queste patch vengono utilizzate dal software di ColorChecker Camera Calibration di X-Rite per creare il profilo camera personalizzato da applicare poi nel software di sviluppo RAW.

I valori del ColorChecker originale del 1976 erano forniti nelle coordinate colorimetriche Yxy e sotto l’illuminante C. Oggi vengono forniti da X-Rite in CIE L* a* b* con illuminante D50 e osservatore a 2 gradi. Nello specifico i colori sono:

  1. Dark skin – Pelle scura
  2. Light skin – Pelle chiara
  3. Blue sky – Cielo azzurro
  4. Foliage – Fogliame
  5. Blue flower – Azzurro fiore
  6. Bluish green – Verde tendente al blu
  7. Orange – Arancio
  8. Purplish blue – Blu tendente al viola
  9. Moderate red – Rosso chiaro
  10. Purple – Viola
  11. Yellow green – Verde giallo
  12. Orange yellow – Giallo arancio
  13. Blue – Blu
  14. Green – Verde
  15. Red – Rosso
  16. Yellow – Giallo
  17. Magenta – Magenta
  18. Cyan – Ciano
  19. White – Bianco
  20. Neutral 8 – Grigio neutro (chiarezza 8/10)
  21. Neutral 6.5 – Grigio neutro (chiarezza 6.5/10)
  22. Neutral 5 – Grigio neutro (chiarezza 5/10) ovvero Grigio medio 18% (riflettanza 18%)
  23. Neutral 3.5 – Grigio neutro (chiarezza 3.5/10)
  24. Black – Nero
I dati sono forniti da X-Rite, Inc. e sono validi per i ColorChecker Classic 24 realizzati dopo il mese di novembre 2014.
I valori sono espressi in CIE L* a* b* con illuminante D50 e osservatore a 2 gradi.

Con questo primo target possiamo fare principalmente due cose:

Bilanciamento del bianco utilizzando la patch numero 20 o 21
Sarebbe più corretto dire bilanciamento del neutro che viene fatto su una patch grigio chiaro, questo per evitare che uno o più dei tre canali (RGB) arrivi a ridosso del limite massimo di 255 falsando così la taratura. Meglio avere margine e utilizzare un grigio chiaro che in fase di scatto deve essere esposto correttamente e non risultare sovraesposto.

Creazione di un profilo colore personalizzato della macchina
Il bilanciamento del bianco è fondamentale per neutralizzare la dominante colore dello scatto, minimizzando i problemi di cromia, ma non è sufficiente per avere una perfetta corrispondenza cromatica. Per questo è necessario creare tramite il software ColorChecker Camera Calibration di X-Rite dato in dotazione con il ColorChecker, un profilo macchina personalizzato. Una volta applicato questo profilo il software di sviluppo RAW porterà i colori del target fotografato (che saranno affetti da variazioni dovute dal tipo di sensore, alle tolleranze dei componenti hardware della macchina e all’illuminazione della scena considerando che alcune fonti luminose non hanno un’emissione spettrale lineare) a valori noti arrivando così a una perfetta, o quasi, corrispondenza cromatica. Il software è in grado di generare profili secondo lo standard ICC utilizzabile ad esempio con Capture One oppure DCP (DNG Camera Profile) di Adobe.
Creare dei profili personalizzati è utile e fortemente raccomandato quando si scatta la stessa scena con più macchine: così facendo si può uniformare la resa cromatica, per quanto possibile nei limiti delle varie macchine, risparmiando una notevole quantità di tempo nella fase di color correction in postproduzione.

TARGET 2 – Creative Enhancement

Il secondo target chiamato, Creative Enhancement, raccoglie un’altra serie di patch colorate che servono sia a scopo tecnico che creativo.

Per quanto riguarda la parte tecnica:

  • la prima riga in alto, riga di controllo HSL, è formata da 8 patch con i colori spettrali ovvero colori molto saturi utili come riferimento visivo per controllare che una volta applicato il profilo macchina non ci siano scostamenti troppo evidenti o anomali.
  • l’ultima riga in basso invece raccoglie 4 patch nere e 4 bianche utili a valutare se l’immagine presenta delle bruciature nelle alte luci o delle ombre troppo chiuse. Le patch infatti sono molto simili, fra l’una e l’altra l’incremento è di solo 1/3 di stop, ad eccezione della prima patch nera che con la seconda ha una differenza di 1/10 di stop. Come facilmente intuibile queste patch nello scatto devono essere distinguibili e avere una differenza data dagli incrementi sopra indicati. Nel caso risultassero indistinguibili sarebbe indice di sotto o sovraesposizione dello scatto. Nei software di sviluppo possono venire in aiuto gli alert di clipping o la lettura dei valori RGB.

La parte centrale è dedicata a delle regolazioni del bianco creative che sono di fatto dei bilanciamenti sbagliati ma ripetibili. Questo può essere utile in alcuni casi:

  • la seconda riga del target che riporta l’icona di una persona è dedicata al bilanciamento del bianco per i ritratti. La prima patch della riga è contrassegnata con un piccolo semicerchio nero nella parte inferiore e indica che è un grigio neutro utilizzabile per un bilanciamento del bianco corretto. Spostandosi verso destra invece le patch riportano un segno “+”, queste servono per avere un bilanciamento progressivamente più caldo in modo da rendere i toni dell’incarnato più piacevoli.
  • la terza riga del target invece riporta l’icona di una montagna; in questo caso la patch contrassegnata, e quindi quella neutra, è quella in centro della riga. Spostandosi verso sinistra si va a raffreddare l’immagine, utile per avere cieli più azzurri, oppure la si può scaldare con le due patch di destra in modo daenfatizzare le tonalità gialle-arancioni tipiche di un tramonto.

È molto importate sapere che queste sono tarature tecnicamente sbagliate ma molto utili nel caso di immagini creative in cui non sia fondamentale il corretto bilanciamento del bianco. Utilizzando questo metodo infatti si è in grado di fare una taratura facilmente ripetibile.

TARGET 3 – Gray Balance

Questo target contiene un’unica patch grande tutta la superficie del ColorChecker. Il colore è un grigio spettralmente neutro ametamerico, con le stesse caratteristiche della riga dei grigi presente nel primo target, utile per fare un corretto bilanciamento del neutro (o più comunemente chiamato bilanciamento del bianco). A differenza del primo target dove le patch sono molto piccole e possono essere utilizzate solo per il bilanciamento in postproduzione, questo target grazie alla superficie molto grande si presta ad essere utilizzato per eseguire il bilanciamento direttamente in camera. È importate sapere che nel caso si scatti in RAW il bilanciamento del bianco in macchina non serve, può essere fatto in fase di sviluppo senza nessuna perdita di informazioni, ma in certi casi può essere utile farlo ugualmente per visualizzare un’anteprima più corretta sul display della macchina mentre si scatta. Questo non vale se si scatta in JPEG, in questo caso il bilanciamento del neutro sul target è d’obbligo per avere un’immagine corretta. Modificare il bilanciamento in postproduzione significherebbe compromettere irrimediabilmente la gamma dinamica e la resa cromatica dell’immagine.

TARGET 4 – Gray 18%

Come il target precedente contiene una sola patch di colore grigio spettralmente neutro ametamerico con riflettanza del 18%, come la patch numero 22 presente nel primo target. Il suo scopo è quello di essere utilizzata per una lettura corretta dell’esposizione in luce riflessa durate lo scatto. Può essere utilizzata puntando un esposimetro manuale o quello interno della macchina.

Il ColorChecker Passport Photo 2 è quindi uno strumento indispensabile per garantire un flusso di lavoro corretto e veloce nella fase di sviluppo del file RAW in postproduzione, garantendo la corretta corrispondenza cromatica dello scatto e un considerevole risparmio di tempo. In un prossimo articolo vedremo come utilizzarlo nella pratica, creando un profilo macchina personalizzato.

Approfondimento sui valori

I valori numerici di ogni patch del ColorChecker Classic 24 riportati nello schema di questo articolo, come indicato nella descrizione, sono forniti da X-Rite e sono espressi in CIE L* a* b* con illuminante D50 e osservatore a 2 gradi. Questi sono gli unici valori ufficiali forniti, in internet si trovano molti altri dati, specialmente di conversioni fatte in spazi colore come AdobeRGB o sRGB. È importante sapere che questi dati sono conversioni più o meno accurate di terze parti e quindi da utilizzare con consapevolezza e cautela. Se volete verificare o fare correzioni manuali all’immagine vi consiglio di utilizzare dei punti di campionamento nelle patch del ColorChecker con lettura in Lab (è disponibile sia in Adobe Photoshop che in Capture One). Inoltre i valori solo validi per i ColorChecker realizzati dopo il mese di novembre 2014, infatti X-Rite dopo tale data ha aggiornato il metodo di produzione dei ColorChecker, introducendo dei nuovi coloranti nel processo di verniciatura che hanno portato a delle leggere differenze nella resa cromatica. Per questo esiste una differenza nei dati colorimetrici di riferimento per i prodotti realizzati prima e dopo il mese di novembre 2014.

Qui potete trovare la pagina ufficiale di riferimento con i nuovi valori:
New color specifications for ColorChecker SG and Classic Charts

Se invece il vostro ColorChecker risulta realizzato prima del mese di novembre 2014 dovete far riferimento ai valori che trovate in questa pagina, sempre pubblicati da X-Rite:
Colorimetric values for ColorChecker Family of Targets

In questo caso X-Rite aveva pubblicato anche una conversione in sRGB dei valori che però non ha proposto nella tabella per i prodotti post novembre 2014.

Calibrazione del monitor, la norma ISO 3664:2009

Per chi lavora in ambito fotografico la cura del colore è una parte fondamentale del proprio lavoro: inizia con la fase di scatto e si propaga fino alla fruizione finale del contenuto, sia esso in formato digitale che cartaceo. Purtroppo questo è un percorso costellato di variabili che possono finire per alterarne la percezione del colore. Vediamo quindi quali sono le indicazioni della normativa ISO di riferimento.

Premesso che ogni persona, per una questione biologica data dal numero diverso di recettori presenti nella retina e di elaborazione degli stimoli da parte del cervello, percepisce il colore in modo leggermente diverso e, fatto salvo per patologie come il daltonismo, diventa fondamentale ridurre il più possibile gli elementi che ci portano a percepire queste differenze.

Molte variabili sono fuori dal nostro controllo: ad esempio prendendone in considerazione una delle più impattanti come la condizione di visualizzazione, risulta diverso guardare una fotografia alla luce del sole a mezzogiorno, in un giorno piovoso o al tramonto. Inutile dire che la stragrande maggioranza delle fotografie ad oggi vengono viste tramite display e non stampate e dunque questo va a complicare ulteriormente le cose aumentando le possibili fonti di alterazione come ad esempio la bontà del display, la luminosità, ecc.

Per chi lavora con fotografie ad uso commerciale che verranno viste da un pubblico molto ampio e che durante la fase di lavorazione richiedono dei confronti fra le varie figure come il fotografo, il post-produttore, il direttore artistico diventa di fondamentale importanza trovare un punto comune di visualizzazione al quale avvicinarsi il più possibile in modo da avere una riproduzione coerente anche se si è in posti diversi con monitor diversi.

In ambito professionale l’utilizzo di monitor di fascia alta con specifiche adatte per la visualizzazione fotografica è dato per scontato, come lo è la calibrazione di routine. Quello che è meno scontato invece, a volte quasi un argomento tabù, sono le impostazioni di calibrazione. Infatti il processo che comunemente chiamiamo calibrazione del monitor non è un’operazione automatica, ma prevede tre fasi (che vedremo in modo approfondito in un articolo dedicato) che possiamo riassumere in questi termini:

  • CALIBRAZIONE ovvero l’utente sceglie i parametri che dovranno essere impostati sul monitor. Questa fase è manuale e gestita appunto dall’utilizzatore in base al tipo di lavoro che dovrà visualizzare a monitor.
  • CARATTERIZZAZIONE fase gestita completamente dal software che prevede la misurazione delle caratteristiche del monitor.
  • CREAZIONE PROFILO ICC il software si preoccupa di creare il profilo ICC che sarà poi installato nel sistema operativo.

È quindi la prima fase, quella manuale di scelta delle impostazioni, a creare divergenze e scuole di pensiero diverse. Molti professionisti decidono di non preoccuparsene utilizzando preset forniti direttamente dai software di calibrazione, impostando dei paramenti che hanno trovato online o nei casi peggiori per sentito dire. Sono pochi i professionisti che fanno scelte ponderate in base al lavoro e all’utilizzo prevalente del monitor.

È bene sapere che non esistono delle impostazioni obbligatorie per determinati usi, ci si può spostare all’interno di alcuni piccoli range di parametri. Ad esempio la nostra vista si adatta continuamente all’ambiente e a quello che stiamo guardando. Impostare un monitor da un punto di bianco di 5000 K a 5500 K farà apparire l’immagine più fredda ma questa sensazione durerà solamente alcuni minuti poi cominceremo nuovamente a percepire il bianco come neutro senza una dominante tendente al blu. E se torneremo di nuovo a 5000 K lo percepiremo come caldo e così via. Questo effetto è accentuato tanto più il monitor sarà isolato dal contesto, ad esempio in un ufficio di sera con poca luce ambientale. Le cose risulterebbero diverse se dietro al monitor ci fosse una parete bianca ben illuminata, cosa che involontariamente ci farebbe da riferimento costante nel percepire il bianco del monitor come freddo o caldo.

Per tornare al concetto che abbiamo introdotto all’inizio di questo articolo, più riusciamo a portarci vicino ad uno standard noto a tutti, meno saranno le variabili soggettive in campo, e più avremo un’immagine davanti i nostri occhi uguale, o forse meglio dire molto simile, a quella di un nostro collega o collaboratore: questo ci renderà la vita meno difficile e i confronti saranno meno soggetti a malintesi.

A questo scopo esistono due norme ISO che riguardano la colorimetria di un monitor e dell’ambiente circostante:

  • ISO 12646:2008/Amd 1:2010 Graphic technology – Displays for colour proofing – Characteristics and viewing conditions
  • ISO 3664:2009 Graphic technology and photography — Viewing conditions

Gli argomenti trattati da queste due norme sono molto complessi, ma ci basta sapere che la prima è rivolta alla visone di immagini digitali visualizzate a monitor per prove colore e stampa, mentre la seconda riguarda immagini digitali viste a monitor in modo isolato, indipendentemente da uno stampato quindi per post produzione e la generica visione a monitor, comunemente e brutalmente definita come uso web.

Vediamo quindi quali sono i principali parametri espressi nella norma ISO 3664, che per i più curiosi è descritta in un documento di 44 pagine acquistabile sul sito iso.org 

ISO 3664:2009 Graphic technology and photography Viewing conditions

Questo Standard Internazionale fornisce le specifiche per le condizioni di illuminazione e di visualizzazione che, se correttamente implementate, ridurranno gli errori e i malintesi causati da tali carenze e incongruenze.

PARAMETRI MONITOR

White point: 6500 K
Brightness: 80-100 cd/m2
Black level: minimum
Gamma: 2,2

Questi sono i parametri principali da impostare come target della calibrazione nel monitor. Possiamo scegliere il valore della luminanza in base a quanto è luminoso l’ambiente in cui lavoriamo e a come ci sembra più confortevole per la vista il monitor. Questo indipendentemente dallo spazio colore che andremo a scegliere: nativo del monitor, AdobeRGB, sRGB.

Un white point di 6500 K è consigliato con l’eccezione in cui sia possibile caricare una sola curva nella LUT rendendo impossibile regolare i livelli di R, G e B in modo indipendente. Solitamente questo è tipico dei portatili, in questo caso è opportuno scegliere il bianco nativo in modo da non far regolare il bianco dalle LUT.

Parametri impostati come target e risultati della misurazione effettuata
dal software ColorNavigator 7 su un monitor Eizo ColorEdge CG2420.

AMBIENTE

La norma oltre ai parametri da utilizzare come target per la calibrazione del monitor, definisce anche le condizioni ambientali ottimali per una corretta visualizzazione:

  • All’interno della postazione di lavoro, il monitor deve essere posizionato in modo che non vi siano zone fortemente colorate (compresi gli indumenti) direttamente nel campo visivo. Idealmente, tutte le pareti, i pavimenti e i mobili nel campo visivo dovrebbero essere grigi.
  • Il monitor inoltre deve essere posizionato in modo che nessuna fonte di illuminazione, come lampade o finestre non schermate, si trovi direttamente nel campo visivo o provochi riflessi visibili dalla superficie del monitor.
  • La luminanza dell’ambiente circostante dovrebbe essere inferiore al 25% della luminanza del bianco del monitor.
  • L’illuminazione nell’area attorno al monitor deve avere una temperatura colore inferiore o uguale a D65 (6500 K).

Ricapitolando la visualizzazione del colore a video è un argomento molto vasto con variabili soggettive, specialmente per quanto riguarda la parte relativa alla calibrazione del monitor poiché spesso la sua impostazione viene fatta su basi personali o comunque non del tutto corrette. Premesso che la quadratura del cerchio non esiste e quindi non è tecnicamente possibile avere condizioni di visualizzazione di un’immagine identiche al 100% fra vari monitor, è possibile mitigare il peso delle innumerevoli variabili in gioco applicando degli standard riconosciuti a livello internazionale. Nel caso della visualizzazione di fotografie e la relativa post produzione, quelli relativi alla norma ISO 3664:2009.

Digital Tech: cos’è, di cosa si occupa, i vantaggi di lavorare con un DT sul set

Specie nelle produzioni più importanti o comunque complesse, è materialmente impossibile che il fotografo si occupi di tutti gli aspetti dello shooting e quindi, all’interno del suo team, a fianco di figure professionali affermate come lo stylist e il make-up artist, è importante avere una figura che si faccia carico di tutti gli aspetti tecnologici connessi ad un set fotografico lasciandolo libero il fotografo di concentrarsi sull’aspetto più importante per il committente, ovvero lo scatto.


Il digital tech è una figura fondamentale nel mercato della fotografia commerciale che, dopo essersi affermata in maniera matura nel mercato americano con la sempre maggiore polarizzazione dei ruoli nella realizzazione degli shooting fotografici, sta prendendo piede anche in Italia.

Partiamo da una definizione di che cosa sia il Digital Tech

Il Digital Tech è una figura fondamentale per la realizzazione di uno shooting perché si fa carico delle problematiche tecniche relativamente all’attrezzatura, alla gestione ed archiviazione dei file prodotti ed alla postproduzione preliminare; svolge la sua attività nella fase di progettazione del servizio fotografico, sul set durante lo shooting e nella fase di finalizzazione delle immagini; libera dall’incombenza il fotografo ed il suo team; si assicura che il tempo e le risorse di ognuno siano impiegate al meglio.

Permette di sfruttare al massimo le potenzialità delle attrezzature ed i software a disposizione riducendo sensibilmente le inefficienze in termini di tempo e risorse economiche.

Andando ad approfondire nel concreto quali operazioni svolge un Digital Tech, vediamo che:

  • Nella fase di progettazione dello shooting si confronta con il fotografo, ed eventualmente l’art director, su quello che sarà il mood del servizio fotografico e controllando che l’attrezzatura scelta per la sua realizzazione sia adatta allo scopo, prendendo in considerazione eventuali imprevisti che potrebbero presentarsi e definendo alternative e soluzioni tampone; stabilisce il flusso di postproduzione delle immagini più corretto in base allo shooting e definisce assieme al fotografo come dovranno essere realizzate le immagini, e gli eventuali contributi, per fa sì che la lavorazione di queste ultime sia il più lineare possibile;
  • Il giorno del servizio fotografico si occupa del preshooting e fa in modo di essere completamente allineato con il fotografo e le sue attrezzature, se scattare in tethering o su SD, con quale software (CaptureOne, Lighroom, Phocus etc.) e come organizzare gli scatti; realizza assieme al fotografo qualche immagine di prova per avere la certezza che il flusso di lavoro proceda come deve, verificare che tutti i setup siano corretti e definisce una struttura di archiviazione e backup.

“Un digital tech inesperto avrà un sacco di difficoltà sul set;
uno capace si occuperà di tutto senza problemi; uno fantastico sembrerà che non faccia niente tutto il tempo”

Andrea Fremiotti