I nostri occhi non funzionano come una macchina fotografica, con pixel e frame rate. Si muovono con piccoli spostamenti rapidissimi e aggiornano continuamente l’immagine che catturano per “dipingere” i dettagli. Inoltre, visto che abbiamo due occhi, entrambi i segnali vengono combinati dal cervello per aumentare ulteriormente la risoluzione. Proprio per questo, il cervello riesce a generare un’immagine con una risoluzione molto più alta rispetto a quella di un singolo occhio. Il fatto stesso che non siamo stati in grado di creare dispositivi artificiali che funzionino come l’occhio umano conferma che non siamo ancora riusciti a comprendere completamente questo complesso organo del nostro corpo.

Quello che sicuramente sappiamo dell’occhio umano medio è che la sua capacità di distinguere tra due punti è misurata in circa 20 arcsec, o secondi d’arco. Ciò significa che due punti devono sottendere un angolo di almeno 0,005 gradi per essere distinti dall’occhio umano. Se fossero più vicini, l’occhio li vedrebbe come un unico punto.

C’è comunque da ricordare una cosa: se un oggetto sottende 0,005 gradi quando è a un metro di distanza dai nostri occhi, sottenderà un angolo minore man mano che si allontana; è per questo che, ad esempio, avviciniamo agli occhi un testo scritto molto in piccolo: avvicinandolo aumenta l’angolo che sottende, e solo allora l’occhio è in grado di distinguere le singole lettere.

La scienza di Apple

Si dice che il display Retina, vanto della Apple, sia così nitido che l’occhio umano non è in grado di distinguere i pixel da una normale distanza di osservazione. Come disse Steve Jobs:

Si è scoperto che c’è un numero magico intorno ai 300 pixel per pollice che, se si tiene qualcosa a circa 30 centimetri di distanza dagli occhi, è il limite massimo da cui la retina umana riesce a distinguere i pixel. Da una distanza abbastanza grande, tutti i display alla fine diventano retina.

Di fatto, Apple ha fatto i propri calcoli e se ne è uscita con un bel numero, 300 PPI (pixel per inch). Nella pratica, non serve avere un monitor che li superi. Ma tecnicamente sì.

“di più” non è meglio?

Nessuno ne è davvero sicuro. Secondo i miei calcoli, il display di un iPhone, osservato da una distanza di circa 40 centimetri, dovrebbe essere in grado di visualizzare 4 megapixel su quel piccolo schermo. O, in parole povere, circa 710 PPI; nella pratica, questo numero è un po’ troppo estremo (ammesso di aver fatto bene i calcoli).

Il mio banalissimo schermo è un display retina

Quindi, tecnicamente qualsiasi dispositivo può vantarsi di sfoggiare lo schermo più propagandato oggi nell’industria – un display retina – se viene tenuto a una distanza sufficiente. Per esempio, il monitor del mio portatile con una risoluzione inferiore a un quarto (~110 PPI) di quella che vediamo sui dispositivi di oggi diventa un retina display quando lo uso da una distanza di circa 80 cm. E, normalmente, la distanza di 80 cm è la distanza da cui uso il mio portatile. Inoltre, anche i medici considerano 50-70 cm come una distanza ottimale dallo schermo, per evitare l’affaticamento degli occhi.

Sul mio banalissimo schermo, i pixel sono a una distanza di 0,23 mm da centro a centro. E a 80 centimetri, il mio occhio non è praticamente in grado di vedere la differenza tra un display retina e un display qualsiasi. Quindi, dico io, c’è davvero bisogno di dispositivi con PPI sempre più alti? Ma questa, ovviamente, è solo la mia opinione.

Anche il mio banale telefono ha un display retina?

Poiché i telefoni sono generalmente utilizzati da una distanza molto più ravvicinata, richiedono un PPI più elevato per far sì che lo schermo risulti nitido. Il mio telefono ha uno schermo da 233 PPI. Diventa un retina display dopo una distanza superiore ai 40 centimetri. Devo tenere il telefono più distante di circa 10 centimetri rispetto a un iPhone per trasformare il suo display in un display buono come quello di un iPhone. Ho mai avuto bisogno di avvicinare così tanto il telefono agli occhi? No. Mi servono quindi più PPI? No.

Conclusione

Facciamo un semplice riassunto: la densità di pixel per pollice aiuta ad avere immagini nitide anche a distanze abbastanza ravvicinate dal monitor/display. Il problema, però, è che non capita praticamente mai di tenere tali dispositivi (smartphone o monitor) così vicini agli occhi. Di conseguenza, i nostri occhi non riescono a distinguere i singoli pixel nemmeno su schermi con densità di pixel per pollice inferiore, quindi a cosa serve questa continua corsa a stipare sempre più pixel in un pollice quadrato?

I recenti telefoni di Samsung, Nokia e HTC hanno 316, 332 e 440 o più PPI; adesso abbiamo le televisioni 4K e 8K, e le aziende stanno spendendo milioni e milioni per diminuire la distanza tra i pixel dei loro dispositivi. Il mio suggerimento è quello di terminare questa gara fra produttori e usare i soldi per qualcosa di più utile.

Rispondi