analogiaochio_11Estratto di un articolo di Science – Dicembre 1989 – Autore: Dr Jacqueline Renaud

Quando fissiamo un oggetto, la nostra lente naturale, il cristallino ( cellule del cristallino con microscopo elettronico a scansione) adatta sua curvatura per farsi che l’immagine di questo oggetto si proietti esattamente sulla retina: è la messa a fuoco. La luce proveniente dall’oggetto penetra cosi nell’occhio e attraversa i diversi strati di cellule nervose della retina fino a raggiungere i coni e i bastoncelli (3 – taglio della retina nel piano della pagina).
Queste cellule foto-recettrici reagiscono liberando degli impulsi elettrici, i quali si trasmettono, in senso inverso al tragitto della luce, attraversando cioè la retina dall’indietro verso l’avanti, sino alle fibre del nervo ottico.
I bastoncelli scaricano degli influssi nervosi proporzionali alla quantità di luce ricevuta. Sono loro che forniscono l’informazione sulla forma, il volume, il grano, ecc.. di quello che vediamo.
Un bastoncello (4) è una cellula nervosa che ha, come i neuroni, una membrana, un nocciolo e dei prolungamenti; siti ricettori e axoni.
Il sito recettore è costituito di una stratificazione di circa mille dischi, che si rinnovano senza sosta, con la formazione di un nuovo disco alla base circa ogni 20 minuti. Questi dischi, sacchi appiattiti, contengono nella loro parete una sostanza fotosensibile: il pigmento visuale.
Il pigmento visuale specifico ai bastoncelli è la rhodospine, una molecola tanto sensibile alla luce che è capace di reagire all’impatto di un solo fotone (per esempio, una lampadina di tasca emette 1018 fotoni per secondo)
L’arrivo del fotone sul pigmento crea una cascata di avvenimenti enzimatici e chimici che modificano la carica elettrica della membrana del bastoncello rispetto a quella che ha a riposo. Questo cambiamento elettrico, che corrisponde all’influsso nervoso, si propaga lungo il bastoncello fino ai bottoni sinattici alla fine dell’axone e che fanno sinapsi con la cellula della fibra ottica…./…
Un primo trattamento avviene al livello della retina, dove sono concentrati circa 100 milioni di bastoncini e una ventina di milioni di coni (5 – taglio della retina nel piano parallelo alla curvatura, vista con microscopo elettronico a scansione). Il nervo ottico, però, è composto di solo circa un milione di fibre, tanto è che ogni fibra copre da qualche decina a qualche centinaia di ricettori, a parte la fovea (6) regione privilegiata corrispondente al punto preciso fissato dall’occhio, e dove ogni bastoncino e collegato da una fibra del nervo ottico (non ci sono coni nella fovea)…./…

Vediamo adesso qual è l’analogia con il sensore digitale e l’obbiettivo:

• Il ns. occhio riceve, come il sensore a matrice bayer, i colori tricomatrici [ithoughts_tooltip_glossary-tooltip tooltip-content=”<p style=&aquot;color: #333333; font-family: Georgia, ‘Times New Roman’, ‘Bitstream Charter’, Times, serif; font-size: 13px; line-height: 19px;&aquot;><strong><span style=&aquot;font-family: arial, helvetica, sans-serif; font-size: 12pt;&aquot;><span style=&aquot;color: #ff0000;&aquot;>Red</span>, <span style=&aquot;color: #008000;&aquot;>Green</span>, <span style=&aquot;color: #0000ff;&aquot;>Blu</span></span></strong></p><br/><p style=&aquot;color: #333333; font-family: Georgia, ‘Times New Roman’, ‘Bitstream Charter’, Times, serif; font-size: 13px; line-height: 19px;&aquot;><span style=&aquot;font-family: arial, helvetica, sans-serif; font-size: 12pt;&aquot;><strong>RGB</strong> è un modello di colori le cui specifiche sono state descritte nel 1931 dalla CIE (<em><a class=&aquot;new&aquot; title=&aquot;Commission internationale de l’éclairage (la pagina non esiste)&aquot; href=&aquot;https://it.wikipedia.org/w/index.php?title=Commission_internationale_de_l%27%C3%A9clairage&action=edit&redlink=1&aquot;>Commission internationale de l’éclairage</a></em>). Diversamente dalle immagini a livelli di grigio, tale modello di colori è di tipo additivo e si basa sui tre colori rosso (<em>Red</em>), verde (<em>Green</em>) e blu (<em>Blue</em>), da cui appunto il nome RGB, da non confondere con i colori primari sottrattivi giallo, ciano e magenta.</span></p><br/><p style=&aquot;color: #333333; font-family: Georgia, ‘Times New Roman’, ‘Bitstream Charter’, Times, serif; font-size: 13px; line-height: 19px;&aquot;><span style=&aquot;font-family: arial, helvetica, sans-serif; font-size: 12pt;&aquot;>Un’immagine può infatti essere scomposta, attraverso filtri o altre tecniche, in questi colori base che miscelati tra loro danno quasi tutto lo spettro dei colori visibili, con l’eccezione delle <a title=&aquot;Porpora&aquot; href=&aquot;https://it.wikipedia.org/wiki/Porpora&aquot;>porpore</a>.</span></p><br/><p style=&aquot;color: #333333; font-family: Georgia, ‘Times New Roman’, ‘Bitstream Charter’, Times, serif; font-size: 13px; line-height: 19px;&aquot;><span style=&aquot;font-family: arial, helvetica, sans-serif; font-size: 12pt;&aquot;>Più specificamente i 3 colori principali corrispondono a forme d’onda (radiazioni luminose) di periodo fissato, quali:</span></p><br/><ul style=&aquot;color: #333333; font-family: Georgia, ‘Times New Roman’, ‘Bitstream Charter’, Times, serif; font-size: 13px; line-height: 19px;&aquot;><br/><li><span style=&aquot;font-family: arial, helvetica, sans-serif; font-size: 12pt;&aquot;><em>Rosso</em>, con una lunghezza d’onda di 700,47 nm</span></li><br/><li><span style=&aquot;font-family: arial, helvetica, sans-serif; font-size: 12pt;&aquot;><em>Verde</em>, con una lunghezza d’onda di 546,09 nm</span></li><br/><li><span style=&aquot;font-family: arial, helvetica, sans-serif; font-size: 12pt;&aquot;><em>Blu</em>, con una lunghezza d’onda di 455,79 nm</span></li><br/></ul><br/><p style=&aquot;color: #333333; font-family: Georgia, ‘Times New Roman’, ‘Bitstream Charter’, Times, serif; font-size: 13px; line-height: 19px;&aquot;><span style=&aquot;font-family: arial, helvetica, sans-serif; font-size: 12pt;&aquot;>L’RGB è un modello additivo: unendo i tre colori con la loro intensità massima si ottiene il bianco (tutta la luce viene riflessa). La combinazione delle coppie di colori dà il <a title=&aquot;Ciano&aquot; href=&aquot;https://it.wikipedia.org/wiki/Ciano&aquot;>ciano</a>, il <a title=&aquot;Magenta (colore)&aquot; href=&aquot;https://it.wikipedia.org/wiki/Magenta_(colore)&aquot;>magenta</a> e il <a title=&aquot;Giallo&aquot; href=&aquot;https://it.wikipedia.org/wiki/Giallo&aquot;>giallo</a>.</span></p><br/><p style=&aquot;color: #333333; font-family: Georgia, ‘Times New Roman’, ‘Bitstream Charter’, Times, serif; font-size: 13px; line-height: 19px;&aquot;><img src=&aquot;https://upload.wikimedia.org/wikipedia/commons/thumb/3/3c/AdditiveColorSynthesis_RGBpositives.jpg/550px-AdditiveColorSynthesis_RGBpositives.jpg&aquot; alt=&aquot;&aquot; /></p><br/><p style=&aquot;color: #333333; font-family: Georgia, ‘Times New Roman’, ‘Bitstream Charter’, Times, serif; font-size: 13px; line-height: 19px;&aquot;> </p>”]RGB [/ithoughts_tooltip_glossary-tooltip]ossia il Rosso, il Verde e il Blu dai quali la combinazione riproduce qualsiasi colore visibile.
• La cornea corrisponde alla lente frontale dell’obiettivo.
• L’iride corrisponde al diaframma.
• Il cristallino corrisponde alle lenti dell’obiettivo e in particolare alle lenti di messa a fuoco.
• I coni e i bastoncini corrispondono al sensore proprio con circa 120 milioni di ricettori contro per ora i 60 milioni dei migliori sensori.
• La fovea corrisponde ai sensori autofocus e all’esposimetro che danno gli impulsi al cristallino (messa a fuoco) e all’iride (aprire e/o chiudersi per la quantità di luce), la fovea potrebbe essere paragonata all’iperfocale.
• Il nervo ottico corrisponde al sistema elettronico di trasformazione analogica/digitale.
• Il cervello al processore di trattamento dell’immagine.

Come per i file RAW, ns. cervello non percepisce i colori direttamente dall’occhio, ma dei segnali che vengono elaborati e paragonati a quanto abbiamo imparato fin da bimbo, è per quello che dobbiamo insegnare i colori ai ns. figli.
Tuttavia nessuna fotocamera raggiunge (e non raggiungerà forse mai) velocità, capacità, sensibilità e accuratezza della coppia occhio/cervello, basta pensare che una fotocamera professionale raggiunge (solo) 11 scatti al secondo, nostra coppia occhio cervello traduce di continuo ciò che vediamo, mette a fuoco istantaneamente e lo rimane con soggetti che si muovono anche velocemente, ha una capacità di vedere contrasti che una fotocamera si sogna (latitudine di posa).
Per quanto riguarda la velocità, un film al cinema è proiettato alla velocità 24 immagini al secondo, sotto questa velocità diventa fastidioso perché viene percepito a scatto; un film alta definizione è proiettato a 60 immagini al secondo con una resa vicina a quanto vediamo noi.
Quando il sistema autofocus, esposimetro, diaframma, obiettivo, sensore, calcolatore, schede di memoria raggiungerà la coppia occhio cervello, credo che le fotocamere non esisteranno più, al posto ci sarà qualcosa di ancora sconosciuto, che noi non avremo la fortuna di vedere.

P. Franceschi

analogiaochio_4Cui vediamo un’altra analogia (con gentile concessione dall’autore Pierre LPEF, estratto dal suo sito):

http://www.la-photo-en-faits.com/2012/10/vision-humaine appareil-photo.html

Chi ha dimestichezza con il Francese può trovarci una miniera di informazioni relativi alla fotografia

Questo post, divertente per l’analizi delle prestazioni dell’occhio, come se fosse una macchina fotografica digitale, il confronto va fatto con il senno di poi; come l’esercizio è inverosimile. Confrontiamo la visione umana con:

  • un sensore
  • obbiettivo
  • un alloggiamento (elettronica e le funzioni di un AFN)

Nota: per evitare di appesantire il testo parlerò di occhio invece di “visione umana” occhio in senso largo come una sintesi della visione binoculare e il cervello.

analogiaochio_6

Formato:

Il formato è il rapporto tra la larghezza e l’altezza di un’immagine.

Maggior parte delle fotocamere compatte hanno un rapporto di 4:3, le bridge e le reflex hanno un formato di 3:2.

La visione umana è “più larga” nell’ordine di 16:9, che ha ispirato il mondo del video che ha adottato queste proporzioni.

Definizione:

Definizione indica il numero di pixel sul sensore.

Anche se questa è stata (ed è tuttora) una chiave di marketing la gara ai megapixel sembra calmarsi, si può dire che circa 24Mpx è rappresentativo di sensori contemporanei.

E ‘molto difficile parlare di mega pixel per l’occhio, prima vediamo cosa permette all’occhio di vedere:

  • Coni: circa 7 milioni di coni presenti nel centro del campo di vista, ci sono tre tipi, ciascuno specializzato nella rilevazione di rosso, verde o blu (proprio come un pixel del sensore digitale che scompone la luce in valori RGB). I coni forniscono la visione diurna .
  • Bastoncelli : più di 120 milioni di bastoncelli sono distribuiti in tutto il campo di visione, salvo in centro, non distinguono i colori e sono solo sensibili alla luce, assicuranno la visione notturna (Night Vision / scotopica).

Si nota che c’è una “zona morta” senza coni o bastoncelli:

analogiaochio_9

Niente a che fare con i pixel ordinati di un sensore.

Per fare un’analogia, possiamo considerare due cose:

  • Il campo di visibilità “comoda” (per distinguere le forme) dell’occhio è 40 °
  • La risoluzione angolare massima dell’occhio è 1/60 °

Se riduciamo questi numeri in un formato di 16:09 si ottiene una definizione di 8Mpx.

Una sensibilità spettrale

La sensibilità spettrale è la misura dello spettro di luce che può essere osservato.

Questo è un pleonasmo,: l’occhio percepisce lo spettro visibile, da 380nm a 780nm, tra ultravioletti e infrarossi, con un picco di sensibilità intorno a 560nm (il confine tra giallo e verde) .

Attenzione: quando un sensore è uniformemente sensibile a tutti i colori, la sensazione di luminosità percepita dall’occhio dipende dal colore, come evidenziato da questo grafico:

Il sensore digitale può vedere oltre lo spettro ma filtri limitano la sensibilità nello spettro visibile.

Dinamica

La dinamica è l’intervallo tra il punto di luce più scuro e il punto più luminoso distinguibile

Un sensore di corrente è fino a circa 14 EV, un rapporto di 1 a 16.000 (2 ^ 14) tra il più luminoso e il più scuro che può registrare.

L’occhio può adattarsi alla luce da 0001 lux a 10.000 lux, un rapporto di 1 a 10 milioni, più di 26EV!

Ma questo grande potere di sistemazione è da ponderare: l’occhio non può distinguere entrambe le ombre e le luci brillanti, si adatta continuamente alle condizioni di luce, come una macchina fotografica, che è la regola sensibilità ISO.

Profondità di colore

La profondità del colore caratterizza il numero di colori distinguibili.

Per un sensore digitale dipende in fine de numero di bit utilizzati per codificare i colori, i sensori di ultima generazione utilizzano fino a 24 bit, che può rappresentare 2 ^ 24 = più di 16 milioni di colori.

L’occhio è più modesto, egli distingue circa 8 milioni di colori, che può essere ridotto ad una codifica a 23 bit.

Attenzione: mentre una videocamera distinguere i colori continuamente, l’occhio è molto meno omogeneo, per esempio, distingua molto meglio le tonalità di colore nel blu / porpora che nel verde / giallo.

analogiaochio_7Focale

La lunghezza focale è la distanza tra il sensore e un centro ottico dell’obbiettivo

dalla lunghezza focale dipende il campo di visione: maggiore è la lunghezza focale è più corta è il campo di visione ed inversamente (l’immagine è “meno zoomata”).

Tutto è possibile per un obiettivo, un paio di mm (ultra grandangolare) a diverse centinaia di mm (per teleobiettivi).

Non è facile definire la lunghezza focale dell’occhio, il campo utile di vista dipende dall’applicazione:

Situazione Campo di visione orizontale Focale equivalente
Lettura
20°
102 mm
Riconnoscenza dei simboli
40°
49 mm
Distinzione dei colori
60°
31 mm
Visione globale
120°
10 mm

Di solito è basata sulla capacità di distinguere i simboli, una lunghezza focale pari a 49 millimetri.

Questo spiega perché una focale di 50 mm è considerato come naturale.

Apertura:

L’apertura in fotografia è il rapporto tra la lunghezza focale e diametro del diaframma. Si scrive f/ N, comunemente da 1.4 (molto aperto) a 22 (molto piccola apertura).

Per l’apertura dell’occhio dipende dalla dimensione dell’iride, che si espande quando la luce è debole e vice-versa, essa varia da f / 2 af / 8

Distanza di messa a fuoco

La distanza di messa a fuoco è la distanza tra la telecamera (o l’occhio) e il soggetto su cui facciamo il punto.

Mentre un obiettivo di solito può fare la messa a fuoco fra la lunghezza focale (in cm, ad esempio per 50 millimetri 50cm) a l’infinito, l’occhio può adattarsi tra 25 cm e l’infinito, più vicino L’immagine risulterà mossa.

Risoluzione:

Risolvendo un obiettivo caratterizza la nitidezza può essere ottenuto, infatti l’immagine sul sensore è sempre un può sfocata, con una risoluzione media di 40lp/mm la sfocatura creata dall’obbiettivo è molto piccola.

Considerando per l’occhio un cerchio di confusione di D/1730 allora questo CdC è 25 micron su un sensore full frame, dunque una risoluzione equivalente di un 20lp/mm .

Diffrazione:

La diffrazione è un fenomeno ottico che, quando un fascio di luce passa attraverso un foro piccolo ne esce “ “allargato” e crea un senso di sfocato.

La dimensione della sfocatura dipende solo dal diametro del foro, riportato al diametro dell’apertura (diaframma) la sfocatura viene calcolata come segue:

diametro dello sfocato = 2 x 1,22 x lambda x N

con lambda la lunghezza d’onda della luce, di norma 560 nm (corrispondente al picco di sensibilità dell’occhio)

Per l’occhio, la diffrazione sarà quindi 2.7μm a f/ 2 per 10.9μm a f/ 8.

Difetti: vignettatura e la distorsione:

Vignettatura e distorsione sono molto dipendenti dalla qualità di fabbricazione di una lente.

Nel caso del’occhio, la vignettatura è più o meno pronunciato a seconda retinite pigmentosa, la distorsione è impercettibile perché corretto dal cervello.

analogiaochio_5

FPS

Gli fps (fotogrammi al secondo) indicano il numero di foto che è possibile scattare continuamente, al secondo.

le DSLR han

no fps tra i 4 e 11 fotogrammi al secondo.

Per l’occhio è la persistenza della visione, che limita il numero di immagini che possono essere elaborate dal cervello, abbiamo letto tutto su questo valore: 100ms a 25ms, conservano il caro 1/25sec ai video dove: 25 fps.

Latenza

La laten

za è il tempo che intercorre tra quando si preme il pulsante di scatto e il momento in cui l’immagine viene memorizzata, è circa 100ms per una macchina fotografica efficiente.

Il tempo preso dal cervello per elaborare le informazioni fornite dal l’occhio è tra 150 ms e 300 ms.

Si noti, infine, che l’occhio ha un autofocus continuo, un sistema di rimozione della polvere (palpebre e lacrime) ed è tropicalizzato

loading