skip to main | skip to sidebar
60 commenti

Messa a fuoco? Cos’è?

Fotografia computazionale: scegliere la messa a fuoco di una foto dopo averla scattata


Ogni tanto m'imbatto in qualche scoperta tecnologica che risveglia l'effetto wow: quello che si prova quando si vede per la prima volta una cosa apparentemente impossibile diventare realtà.

È il caso di questa demo di Adobe, dove viene mostrata un'applicazione di una lente addizionale "plenottica" (plenoptic lens), composta da un gran numero di microlenti, che si mette fra il sensore e l'obiettivo normale e permette di fotografare il soggetto da angolazioni multiple leggermente differenti. Il segnale raccolto contiene quindi informazioni tridimensionali che consentono di scegliere quale piano di messa a fuoco utilizzare dopo aver scattato la foto. Vedere per credere.


Ci vuole una discreta potenza di calcolo e si paga il prezzo di una risoluzione inferiore, ma evitare con certezza che una foto irripetibile sia sfocata è un privilegio impagabile.

Se vi interessano i dettagli, date un'occhiata a questo articolo o a questo (PDF scaricabile) e soprattutto a questo video esplicativo (74 MB, niente streaming). E poi ditemi se non vi sentite dentro una scena di Blade Runner.
Invia un commento
I commenti non appaiono subito, devono essere tutti approvati da un moderatore. Lo so, è scomodo, ma è necessario per tenere lontani scocciatori, spammer, troll e stupidi: siate civili e verrete pubblicati qualunque sia la vostra opinione; gli incivili di qualsiasi orientamento non verranno pubblicati, se non per mostrare il loro squallore.
Inviando un commento date il vostro consenso alla sua pubblicazione, qui o altrove.
Maggiori informazioni riguardanti regole e utilizzo dei commenti sono reperibili nella sezione apposita.
NOTA BENE. L'area sottostante per l'invio dei commenti non è contenuta in questa pagina ma è un iframe, cioè una finestra su una pagina di Blogger esterna a questo blog. Ciò significa che dovete assicurarvi che non venga bloccata da estensioni del vostro browser (tipo quelle che eliminano le pubblicità) e/o da altri programmi di protezione antimalware (tipo Kaspersky). Inoltre è necessario che sia permesso accettare i cookie da terze parti (informativa sulla privacy a riguardo).
Commenti
Commenti (60)
GRANDE GIOVE!

Sto letteralmente sbavando sulla tastiera, questa app è GRANDIOSA!!


...primo... :)
Ma se fotografo un UFO, poso scegliere che sia sfocato tutto quanto, oggetto, sfondo e il moscerino che passa davanti ai sensori? Oppure uno dei tre deve essere a fuoco per forza?
Posso
Soluzione poco pratica e troppo dispendiosa in termini di qualità dell'immagine. Mettiamo che i "quadratini" che si vedono nell'immagine originale ingrandita (quelli che corrispondono alla singola microlente) siano 10x10 pixel - e a naso sono molto di più - vuol dire che l'immagine elaborata avrà una risoluzione 100 volte inferiore all'originale. Ora, capisco tutto, però trovarsi con un'immagine da 0.2 Mpixel con una reflex da 2500 euro obiettivo escluso mi sembra una di quelle cose che servono solo più ad attirare l'attenzione su di te e sul "wow factor" citato da Paolo.

Se non sei capace di mettere a fuoco perfettamente usa il diaframma più chiuso che è una soluzione a costo zero sia in termini economici (nessuna lente aggiuntiva, nessun plugin) che in termini di pixel (e qualità nel complesso, dato che più vetro metti tra la scena e il sensore peggio è).

Molto più figa sarebbe stata la soluzione di combinare 2/3/4 digitali leggermente sfalsate in posizione per poter elaborare, grazie alla visione stereoscopica, un modello 3d della scena e di conseguenza applicare successivamente il blur (partendo cioè da fotografie con grande profondità di campo, ovvero con il diaframma molto chiuso). I vantaggi sarebbero molteplici: puoi applicare in postproduzione il blur che desideri in quantità e tipo (ci sono lenti che vengono preferite ad altre proprio per il tipo di sfocatura che generano nel fuori fuoco); non perdi di risoluzione (anzi, potresti combinare gli scatti per guadagnarne), e potresti addirittura spostare leggermente l'inquadratura.
praticamente scatta n foto a condizioni di fuoco diverse. Veramente figo, anche perché a questo punto si possono ottenere profondità di campo notevoli con diaframmi molto aperti (la profondità di campo globale è data dalla somma delle profondità di campo delle varie posizioni di fuoco), scegliendo per ogni area da quale pezzo di immagine prendere per formare l'immagine finale.
Davvero notevole...
Claudio, quello che tu proponi lo fa, con le ovvie limitazioni di una tecnologia "in fasce", il sistema (ri)proposto da Adobe, come successe per le prime digitali proposte da Fuji e Nikon. Già accoppiato a un dorso digitale medio formato potrebbe essere interessante.

Vado a ordinare i due banchi da 4GB per il MacBook che potrebbero servire ;-)
Ma scusate l'ingenuità, non sarebbe più semplice fare un bracketing del fuoco e poi applicare una tecnica tipo HDR?
e questa t'e' sfuggita Pa'?

http://www.youtube.com/watch?v=SsZvl83nquc&feature=player_embedded
@Riccardo (D.O.C.)
Certamente, ma solo se il soggetto è statico... Il limite del bracketing (sia di esposizione che variando diaframma o messa a fuoco) è sul tempo e il momento di scatto. Se il soggetto si muove (o si muove la fotocamera...) non si riescono poi a sovrapporre le immagini. Il sistema mostrato scatta un singolo fotogramma, quindi è compatibile con soggetti in movimento.
Qua c'è un'infinità di esclamazioni, oltre a WOW. Altro che bracketing, questo è un sogno.
Accademia ha ragione: adesso chi fotografa gli UFOs non ha più scuse
""Ma scusate l'ingenuità, non sarebbe più semplice fare un bracketing del fuoco e poi applicare una tecnica tipo HDR?""

certo
infatti quello che dici è GIA' presente tra le funzioni di photoshop :)
"ma poter salvare una foto sfocata irripetibile è impagabile."

Premetto che non ho ancora letto i dettagli, ma siamo sicuri che si possa davvero fare ciò? Un conto è cambiare la messa a fuoco in una foto scattata correttamente, un'altro conto è mettere a fuoco un'immagine sfocata.
siamo sicuri che si possa davvero fare ciò?

Mi sono espresso male: con questo sistema non si possono recuperare fotografie normali sfocate, ma si evita del tutto il problema: tutte le foto sono sempre a fuoco, l'utente sceglie poi quale piano focale tenere a fuoco nell'immagine finale.

Provo a chiarire il concetto nel post.
che una foto sfocata irripetibile sia sfocata è un privilegio impagabile.
c'è uno "sfocata" di troppo?
Sicché, se non ho capito male, non è un filto di PS che fa tutto il lavoro di "focheggiatura in post-produzione", bensì PRIMA bisogna metter un filtro davanti all'obiettivo E POI in post-produzione si gioca con i piani focali eccetera, giusto?

Se è così è un po' meno wow, ma sempre un lavoro in pelle interessante.
c'è uno "sfocata" di troppo?

Dannazione, sì. Invoco l'attenuante delle dosi luculliane di custard di ieri sera.
Ragazzi, forse non sono stato sufficientemente esplicito nel mio precedente post ma... avreste un'immagine con molteplici fuochi a risoluzioni infime tipiche dalle risoluzioni delle primissime fotocamere da cellulare, del tipo 640x480.

E questo partendo con le ipotesi:
- sensore da 30 megapixel
- 10 piani di fuoco registrati in contemporanea

Altro piccolissimo difetto della tecnica: chi ha mai avuto in mano una reflex appena appena sa benissimo che il fuoco è una questione millimetrica. Ecco, ci si immagini di poter fare il fuoco solamente su 10 distanze predefinite: delirio.

Insomma, questi si chiamano "proof of concept". Giusto per dire "lo so fare".
Claudio, leggi l'articolo citato... Mi sembra che la cosa sia moooolto più complessa. Non è come pensavo io che di N pixel N/10 sono a fuoco per una ditanza, N/10 per un'altra e così via... Mi sembra di capire che ogni microlente copra più pixel. E c'è di mezzo quel rompiscatole di Fourier. Stasera se ho tempo leggo meglio e cerco di capire.
Ma in pratica, sovrapponendo le foto si ottiene un effetto molto più nitido a tutti i livelli di profondità?
In pratica una cosa del genere: http://freeforumzone.leonardo.it/discussione.aspx?idd=8684604
Non ne sono sicuro, non ne capisco molto di foto...
"ma si evita del tutto il problema: tutte le foto sono sempre a fuoco"

Temo rimangano ancora le sfocature più frequenti, ovvero quelle dovute al movimento del soggetto (o del fotografo) e quelle dovute alla scarsa luminosità. Ma leggerò i dettagli.
Comunque sia, resta una grande innovazione. E' chiaramente ancora all'inizio, ma non ci vorrà molto a renderla consumer.
In realtà c'è qualche studio su come recuperare immagini sfocate (a parte filtraggi in bassa frequenza che vengono usati già da qualche programma) utilizzando la convoluzione inversa. Eccovi la pubblicazione a cui mi riferisco: Towards Digital Refocusing from a Single Photograph
http://nis-lab.is.s.u-tokyo.ac.jp/~ybando/refocus/PG07refocus.pdf
meh! mi clonate le battute: (commento 9) Grrr A parte gli scherzi, questa applicazione è davvero incredibile.
Temo rimangano ancora le sfocature più frequenti, ovvero quelle dovute al movimento del soggetto (o del fotografo) e quelle dovute alla scarsa luminosità.

Queste in realtà non sono sfocature, sono micromossi
Invoco l'attenuante delle dosi luculliane di custard di ieri sera.

Con o senza i bastoncini di pesce? :)
Come è spiegato mi lascia molto perplesso.

Lo strato di microlenti è posto fra il sensore e l'obiettivo normale, pertanto proietta sul piano focale i raggi provenienti dall'ottica;

leggo che permette di fotografare il soggetto da angolazioni multiple leggermente differenti: angolazione differente significa parallasse differente cioè spostamento del punto di presa.
Come è possibile se il punto di presa è stabilito dall'ottica principale e questo non varia?

Il segnale raccolto contiene quindi informazioni tridimensionali: non dovrebbe essere possibile in quanto non varia la parallasse.

Da qualche sito mi sembra però di capire (con la mia bassissima conoscenza dell'inglese) che lo strato di microlenti sia utilizzato al posto dell'ottica normale.
Allora qualcosa tornerebbe.

Concordo comunque con chi scrive che sarebbero foto di bassa qualità, come quelle scattate con macchinette economiche che magari già montano un fuoco fisso risolvendo il problema alla partenza.
Non riesco a vedere l'utilità "vera" di foto scattate attraverso microlenti.
ronzii ne fa?
Non capisco le critiche, questo esposto nel post è solo l'inizio di quella che potrebbe rivelarsi una rivoluzione della fotografia, e sinceramente la dimostrazione nel video mi sembra più eloquente di qualsiasi critica. Insomma, sembra la critica di qualcuno che vede il lancio del primo missile in orbita e dice "sì, vabbè, ma tanto con quello che ci fai, mica arrivi sulla Luna". Ci rendiamo conto???
Boh, probabilmente non mi rendo conto. Ok, stendiamo un velo pietoso sulle foto degli UFO ma... sinceramente, non vedo come la messa a fuoco ottimale possa essere il cardine della bellezza o veridicità di una fotografia.
Riccardo: ho dato un'occhiata veloce all'articolo e non ho trovato informazioni sulla perdita di risoluzione (magari non le ho viste io eh). Ogni microlente copre molti pixel, io ipotizzavo una matrice 10x10 ma nell'articolo parlano di matrici anche più grandi. Il fatto che venga scomodato Fourier non mi stupisce: si trasforma un segnale 4D (come viene definito dall'articolo; in soldoni è in 4D perché c'è una matrice bidimensionale di "immaginine" prodotte dalle microlenti, che a loro volta sono bidimensionali e che possono essere viste come un segnale che si modifica spostandosi nella matrice che le contiene) in un segnale 2D, ovvero l'immagine finale. Il fatto che si impieghi Fourier non toglie che le informazioni che giocoforza non vengono registrate possano materializzarsi per magia.

Grezzo: sei un ingenuo se pensi che tutti i "proof of concept" abbiano una ricaduta pratica. Io ho fatto un'analisi (anche se sommaria) costo/benefici, e ho suggerito un altra soluzione allo stesso problema. Prima ancora bisogna accertare se di problema effettivamente si tratta.
Questo commento è stato eliminato dall'autore.
Un bel lavoro!
Le micro-immagini tra l'altro sono stereoscopiche chissà che non si possa ricostruire un 3D. In questo caso forse si potrebbe ovviare al problema della profondità di campo del 3D esistente.
Immagino le possibilità artistiche di chi sta girando un film decidendo cosa mettere a fuoco solo in fase di montaggio, o ancora l'eliminazione di ottiche mobili in apparecchi montati su satelliti o in future attrezzature mediche (magari sonde piu piccole per operare a distanza), oppure foto con grandi profondità di campo e HDR.

Insomma non capisco lo scetticismo di molti, è una possibilità in più ci vuole tempo prima che venga sfruttata o per capire se possa esserlo, è troppo facile dire che alcune trovate sono inutili ...
Quando circa 20 anni fa si scopri' che il primario di Hubble Space Telescope soffriva di aberrazione sferica, ci fu un enorme impulso nella ricerca di algoritmi in grado di correggere questo tipo di problemi, appoggiandosi alla disponibilita' di sufficiente potenza di calcolo. Uscirono in pochissimo tempo decine e decine di articoli che sfruttavano in ultima analisi la possibilita' di "pompare" informazione dal rapporto segnale/rumore alla risoluzione angolare, che e' un noto "problema mal posto", non avendo una soluzione analitica esatta.

Anche se qui si tratta apparentemente di un problema molto diverso, non mi stupirei se anche questo sviluppo non fosse figlio di questa branca della matematica sviluppatasi enormemente tra il lancio di HST e la prima servicing mission e ancora utilissime in un gran numero di applicazioni pratiche.

Comunque e' effettivamente vero che la quantita' di informazione contenuta in una fotografia e' quella e quindi se si puo' variare il fuoco bisogna farlo a spese della risoluzione.
@ Claudio

e ho suggerito un altra soluzione allo stesso problema

Scusami, ma proporre la chiusura del diaframma è una sciocchezza. Sarebbe come dirti "chi se ne frega se l'immagine è sgranata e rumorosa, scatta a 6000 iso, che tanto l'immagine c'è lo stesso". Ma a parte questo, un teleobiettivo ad esempio puoi anche chiudergli il diaframma (che crea un altro "paio di problemi", come ben sai), ma la profondità di campo rimane comunque piuttosto limitata. Ti sfugge forse che grazie a questa tecnica in teoria sarebbe possibile correggere anche i microerrori di fuoco che normalmente possono accadere quando si hanno più soggetti su diversi piani, e che non risolvi certo con un diagramma più chiuso o contrastando l'immagine artificialmente (degradando l'immagine), per non parlare del possibile bracketing scattando un'unica foto. Quanto ai costi e ai limiti tecnologici, ti ricordo che è un problema di tutte le tecnologie giovani, dagli LCD (forse qualcuno dimentica che nonostante fosse figo avere uno schermo piatto per PC i primi anni in cui erano disponibili, la qualità era davvero terribile e i costi esorbitanti, per non parlare delle risoluzioni estremamente limitate) ai lettori blue-ray, ma soprattutto la fascia pro-sumer non si mette di questi problemi, altrimenti non ci sarebbero reflex dal costo decine di migliaia di euro o obiettivi che possono arrivare a costare altrettanto (ne ho visto uno della sigma, per foto stronomiche, roba da sbavare). Mi sembra di sentire le stesse critiche fatte per il passaggio dall'analogico al digitale nella fotografia professionale, e ora la Kodak ha smesso del tutto di fabbricare pellicole.
Dimenticavo una cosa: quanti problemi ti risolverebbe una cosa del genere (ovviamente adeguatamente sviluppata) nella fotografia macro? Mah, secondo me chi critica non ci ha neanche pensato.
prevedo un ramanzina di AdP sul commento di Grezzo :)
@ Fabio, semplice errore di battitura :)
Mah, poi stai a vedere che magari le applicazioni vanno a finire da tutt'altra parte, che so, nelle telecamere di bassissimo costo (in cui credo che qualunque meccanismo di messa a fuoco costi di più dello schermino con le lenti, e in cui la risoluzione dei sensori è ormai largamente superiore al necessario), o per la misurazione delle distanze come accennato anche nell'articolo (no, Rosicario, non agitarti: la distanza a cui passano gli aerei dal tuo terrazzino è largamente superiore alla distanza iperfocale di qualunque obiettivo tu ti possa permettere...).

Invece non mi sembra del tutto corretta l'affermazione che la quantita' di informazione contenuta in una fotografia e' quella: se la puoi combinare con altre informazioni puoi tirarne fuori anche cose che nella fotografia da sola non c'erano (che so, puoi correggere le aberrazioni geometriche).
tutto lascia pensare che ci sara' un grande sviluppo nell'immediato futuro di lenti "anomale", ora che la tecnologia e la potenza di calcolo sono.

Ricordo che di lenti plenoptiche si parava gia' all'inizio degli anni '90 e Adobe mi pare che abbia solo creato un programma dimostrativo che potrebbe portare ad una diffusione del sistema a livello consumers.
Per Grezzo

Ti sei lasciato prendere dalla foga, eh? Guarda quanti errori ti sono sfuggiti dalla tastiera.

Ma a parte questo, un teleobiettivo ad esempio puoi anche chiudergli il diaframma

A un teleobiettivo, ad esempio, puoi anche chiudere il diaframma.

...e che non risolvi certo con un diagramma più chiuso

Diaframma.

o contrastando l'immagine artificialmente

Forse tra fotografi è gergo quotidiano, ma in un forum non specialistico sarebbe meglio dire "aumentando artificialmente il contrasto dell'immagine".

per non parlare del possibile bracketing scattando un'unica foto.

Del possibile bracketing che si verifica scattando un'unica foto.
Ho trovato il termine tecnico "esposizione a forcella". Si usa tra fotografi?

ma soprattutto la fascia pro-sumer

Prosumer

non si mette di questi problemi,

Non si pone questi problemi. Oppure: non si interessa di questi problemi.

(ne ho visto uno della sigma, per foto stronomiche, roba da sbavare).

Della Sigma.
Astronomiche.

Mi sembra di sentire le stesse critiche fatte per il passaggio dall'analogico al digitale nella fotografia professionale, e ora la Kodak ha smesso del tutto di fabbricare pellicole.

Ha smesso di fabbricare pellicola Kodachrome. Se non sbaglio, Porta ed Ektachrome sono tuttora in commercio.
E fra i produttori di pellicole per macchina fotografica non esiste solo la Kodak.
Questo commento è stato eliminato dall'autore.
Vorrei far notare che una foto presa con una grande profondita' di campo non e' comunque (al di la' dei problemi di risoluzione e/o luminosita') la stessa cosa di una foto presa con una lente plenottica. Una volta presa la foto con un obiettivo normale, non e' possibile defocalizzare alcuni piani come e' possibile fare con una lente plenottica, perche' l'informazione 3D e' andata perduta per sempre. E siccome sappiamo tutti che una foto senza profondita' di campo non e' mai un granche'...

Una macchina con lente plenottica funziona un po' come una macchina fotografica stereoscopica, solo che invece di focalizzare l'immagine su una sola distanza, puo' farlo per un numero molto grande di distanze, cosi' che sia possibile poi interpolare qualsiasi messa a fuoco.

Forse ha ragione chi dice che una possibile applicazione di questo sistema e' quella di un sistema senza parti meccaniche in movimento costose e inaffidabili, ma senza i limiti delle macchine con fori stenopeici, che hanno profondita' di campo infinita e bassissima luminosita'.
Aggiungo alcune informazioni:

E' una invenzione della Stanford University del 2005.

http://graphics.stanford.edu/papers/lfcamera/

La fotocamera all'epoca era già funzionante, il difetto era che replicando 16 volte l'immagine sullo stesso sensore, l'effettiva risoluzione della foto finale andava divisa per 16, quindi si aveva una foto molto piccola (anche se multifocus) a partire da un sensore molto denso e grande. Avevano creato anche un prototipo funzionante e portatile basato su una medio formato.

Ovviamente ci sono dei difetti, come la necessità di interporre dietro alla lente principale, una serie di lenti che scompongano la luce in 16 parti, con evidenti problemi di nitidezza e correzione.

Sarebbe clamorosamente bello se mettessero in vendita una 1Ds MKIV che con apposito adattatore diventa multifocus... solo che ci vorrebbe un sensore di partenza di 80mpx per ottenere uno scarso 5mpx finale... a meno di mirabolanti invenzioni tecniche forse è un pò presto per questa tecnologia!
@pgc: hai ragione, il punto è proprio quello di creare macchine fotografiche senza parti in movimento. Questo porterebbe ad una semplificazione di tutto l'obiettivo e di parte dell'elettronica. Spazio e soldi possono essere usati per progettare sensori molto più grandi e potenti, necessari per ottenere buoni risultati con questa tecnica.
Per fabio

prevedo un ramanzina di AdP sul commento di Grezzo :)

Fatta. Sta in coda di moderazione. :-(
Bisonte: credo che l'idea originale sia molto piu' antica del 2005.

http://portal.acm.org/citation.cfm?id=132014
per non parlare del possibile bracketing scattando un'unica foto.

Del possibile bracketing che si verifica scattando un'unica foto.


No.

Del bracketing che sarebbe possibile fare scattando un'unica foto, che è una cosa del tutto diversa.

Accademia, ancora una volta hai toppato. Ma non eri già stato invitato a piantarla con i tuoi inconcludenti commenti zrettinici?
Mah....roba vecchia.
Quelli di CSI utilizzavano questa tecnologia 10 anni fa e non perdendo in risoluzione, ma al contrario ottenendo risoluzioni da 36 Mpixel a colori da foto 640x480 in B/W.
E tutto senza lenti addizionali.

Ciao

Carson
@ bisonte_biscottato
Dovri capire meglio l'algoritmo e la tecnica impiegata, ma dalla dimostrazione sembra che ogni micro immagine contenga solo una porzione dell'immagine, se così fosse la perdita di risoluzione sarebbe minima se non nulla.
Per Riccardo (D.O.C.)

per non parlare del possibile bracketing scattando un'unica foto.

Del possibile bracketing che si verifica scattando un'unica foto.

No.

Del bracketing che sarebbe possibile fare scattando un'unica foto, che è una cosa del tutto diversa.

Accademia, ancora una volta hai toppato. Ma non eri già stato invitato a piantarla con i tuoi inconcludenti commenti zrettinici?


Punto primo, il senso della frase lascialo decidere a Grezzo. Non escludo tu abbia ragione, ho fatto una correzione "a senso" anziché sforzarmi di indovinare cosa intendesse dire. Chi ha dimestichezza con la redazione di testi divulgativi partendo da testi specialistici, o semplcimente da appunti buttati in fretta, sa che la prima interpretazione non sempre è quella giusta.
In questo specifico caso: la frase è eccessivamente criptica con l'interpretazione tua, con la mia, e anche proponendo una terza alternativa. Ed è quello che mi interessava.
Punto secondo: stai perdendo il tuo tempo, se pensi di escludermi dal dibattito attaccandomi solo su simili dettagli. Per farmi fare scivoloni pari a quelli dei miei interlocutori, ti devi sforzare molto, molto di più.
Meglio: buttati giù in fretta.
"no, Rosicario, non agitarti"

ROTFL :D
@Accademia
Non c'è proprio niente da indovinare. Il "bracketing" non è un fenomeno, ma un processo, come sa chi si intende anche minimamente di fotografia.
Un fenomeno si verifica, un processo no. Il tuo commento, oltre che sbagliato, è anche fuorviante.
Ho letto un paio di articoli e ho capito che le lenti plenottiche funzionano come un insieme di fori stenopeici adiacenti (le macchine fotografiche stenopeiche che si possono fare anche con una scatola di cartone e un piccolo buchino). Anche in questo caso, siccome l'apertura di ogni lente e' molto piccola, la profondita' di campo e' molto grande. In piu' ogni lente e' in una posizione diversa, cosi' che si ha un effetto stereoscopico. Alla fine, uno ha sia l'informazione sulla distanza sia una discreta luminosita', visto che l'apertura complessiva della lente e', a differenza di un singolo foro stenopeico, quella di una lente normale.

Ringrazio Paolo Attivissimo per aver segnalato questa invenzione. L'unica cosa e' che non e' tanto l'applicazione Adobe la cosa straordinaria, quanto l'invenzione originale di due ricercatori MIT, Andelson & Wang, 1992.
Per Riccardo (D.O.C.)

Non c'è proprio niente da indovinare. Il "bracketing" non è un fenomeno, ma un processo, come sa chi si intende anche minimamente di fotografia.

Insomma, vuoi dire che chi non si intende di fotografia non ha il diritto di correggere frasi ambigue di fotografi e appassionati. Anzi, sedicenti appassionati.
Come se poi l'errore fosse solo quello. Guarda la mia annotazione all'ultimo capoverso, che tratta di una circostanza precisa, non di italiano.
@ Pgc

E siccome sappiamo tutti che una foto senza profondita' di campo non e' mai un granche'...

Questo è soggettivo, e non dal punto di vista di chi guarda, ma del soggetto che si intende fotografare. Se ad esempio vuoi immortalare un dettaglio, la profondità di campo non ti serve granchè, anzi, vuoi che lo sfondo non esista proprio. Ma a parte questo sono frequentissime le situazioni in cui aprire il diaframma è sostanzialmente impossibile, e in questi casi è più che probabile il problema della messa a fuoco, ed è in questo tipo di foto che sarebbe maggiormente utile questa tecnica.
da quando ho riletto quel mio "mai" di troppo mi aspettavo questo commento... :)

Ricordati comunque che il dettaglio nella fotografia computazionale non e' mai quello di una foto normale. In alcuni casi anzi ho letto che l'algoritmo crea artefatti.
... e sono gia' sul mercato, software incluso:

http://raytrix.de/
E' interessante. Ma dov'è il fascino della perfezione tecnica? un bel film è bello anche in vhs, non solo in HD, così come una bella foto rimane tale anche se è leggermente sfocata.
some news. Adesso c'e' un prodotto che si basa su un principio un po' diverso, ma il cui risultato e' molto simile:

http://allthingsd.com/20111019/lytro-light-field-camera-revealed/?mod=tweet