Lytro Immerge: la fotocamera innovativa ti consente di muoverti in video VR

Da quando Lytro è entrato in scena con la sua prima fotocamera a campo luminoso tre anni fa, ha fatto le cose in modo molto diverso. La tecnologia di imaging della società è sempre stata innovativa: Fanno ancora telecamere che consentono di catturare uno scatto, poi decidere dove mettere a fuoco e come regolare la profondità di campo dopo il fatto. Tutto ad un tratto, “fix it in post” applicato a cose che non erano mai state possibili prima nella fotografia fissa – con una singola fotocamera, almeno.

Ma le prime due fotocamere di Lytro non sono state un successo, per una buona ragione. Il primo prodotto di consumo dell’azienda, un piccolo sparatutto dall’aspetto caleidoscopico con controlli di base e un minuscolo schermo del mirino, era estremamente limitato per il suo prezzo da 4 400 a $500. La sua seconda fotocamera, la Lytro Illum, sembrava più una DSLR e offriva controlli più profondi. E ‘ anche costato $1.600 e inciampato in aree chiave di usabilità. Né fotocamera in grado di catturare immagini ad alta risoluzione, e né catturato grande qualità dell’immagine, nonostante quei trucchi di rifocalizzazione innovativi.

Visualizza altro

Non giravano video, ma Lytro ha sempre preso in giro che simili funzioni di messa a fuoco dopo lo scatto erano possibili anche con le immagini in movimento-una fotocamera Lytro che girava video era inevitabile, davvero. Ora è qui, ed è una bestia completamente diversa da quella che la maggior parte si aspettava. Lytro ha messo gli occhi sulla cattura di video VR, e la società sta annunciando un nuovo sistema end-to-end che potrebbe cambiare radicalmente le possibilità per gli spettatori VR e registi allo stesso modo.

Il sistema Lytro Immerge è in fase di sviluppo da circa un anno e mezzo. Non è per i consumatori medi; è il primo prodotto Lytro destinato alla produzione video professionale. E non è solo un rig telecamera VR costituito da video-shootin’ Lytros, sia: CEO Lytro Jason Rosenthal dice che i sensori e il sistema sono stati progettati completamente da zero. Il suo fulcro è la fotocamera Immerge, un globo a cinque anelli che cattura ciò che Lytro sta chiamando un “volume di campo luminoso.”A differenza degli impianti di ripresa VR esistenti, che catturano un’immagine statica a 360 gradi, la fotocamera Immerge ti consente di spostarti un po’ all’interno della scena.

“Immagina una macchina fotografica ferma, ma in grado di muovere la testa e allontanarsi sempre più da un oggetto in una scena”, spiega Rosenthal. “Avere la riflessione e i raggi di luce che si regolano di conseguenza. Ciò che rappresenta il volume del campo luminoso è che stiamo catturando densamente tutti i raggi in un dato volume geometrico, e poi abbiamo costruito un software che ci permette di riprodurre quei raggi a frame rate molto alti e ad alta risoluzione. Ti dà la perfetta ricreazione del mondo reale che stai catturando.”

Questa capacità da sola è un salto da capogiro per il cinema VR, e l’annuncio di Immerseè cronometrato bene in preparazione per la prossima generazione di hardware VR. Le cuffie posizionali come Oculus Rift, HTC Vive, Sony PlayStation VR sono tutte previste per il rilascio il prossimo anno. Rosenthal dice che il video di Lytro sarà compatibile con tutte quelle piattaforme.

Fino ad ora, quelle imminenti cuffie posizionali-tracking hanno suggerito un grande, nuovo balzo in avanti per il gioco coinvolgente, ma non necessariamente per il video: Con un ambiente completamente generato dal computer, i giocatori possono effettivamente muoversi all’interno di esso. Ma quando il suo filmato viene visualizzato con un auricolare posizionale-tracking, Immerge promette simile libertà di movimento al video live-action—anche se una gamma molto limitata di movimento in questo prodotto di prima generazione.

“Ognuno degli strati rappresenta un’onda molto densamente imballata di sensori di campo luminoso”, spiega Rosenthal, affermando che in un singolo rig, ci saranno centinaia di sensori individuali che catturano il volume del campo luminoso. “È una cattura di campo luminoso a 360 gradi. E poi impilando cinque uno sopra l’altro, vi stiamo dando una cattura del volume pieno campo di luce. Otterrai circa un metro cubo di area che sarai in grado di catturare completamente l’insieme di raggi all’interno di quello. E poi, da un’esperienza di consumo, sarai in grado di muoverti all’interno di quel volume e far reagire il mondo di conseguenza.

“Possiamo e costruiremo sfere più grandi e altre configurazioni per diversi tipi di situazioni di ripresa. Puoi andare fuori dal ring, ma quello che vedrai è una specie di graduale degradazione dell’esperienza. Inizierai a notare delle lacune in cui potremmo non avere i dati dell’immagine per ricreare completamente la scena … Queste sono ancora cose che stiamo perfezionando, ma quando usi un iPhone e arrivi alla fine dello scorrimento, ottieni quel tipo di esperienza di bande di gomma. Potresti immaginare qualcosa di simile in un’esperienza VR, in cui arrivi al limite di ciò che una fotocamera può fare, il tuo ambiente si estende un po’.”

Lytro intende Immergere per essere un sistema di flusso di lavoro end-to-end. Dimenticate popping una scheda SD ad alta capacità in questa cosa: Per risparmiare quantità ridicole di dati ad alta velocità e ad alta risoluzione che passano da quelle centinaia di sensori mentre vengono catturati, il sistema Immerge viene fornito con il proprio stack di server. Rosenthal dice che ciascuno contiene circa un’ora di video a campo luminoso a 360 gradi.

Perché è per i professionisti, è progettato per funzionare con strumenti di produzione come Nuke, Final Cut Pro, Adobe Premiere e Avid Media Composer. Ci saranno plug-in per quei programmi e altri software standard del settore che supportano l’importazione e l’utilizzo di Immerge video.

“In questo momento, creatori di contenuti e registi stanno creando i propri strumenti e tecnologie, perché nessuno del flusso di lavoro di produzione dall’hardware al software esiste effettivamente”, afferma Rosenthal. “E questo fa solo schifo una quantità enorme di tempo, costi ed energia che preferirebbero investire nel raccontare grandi storie.”

C’è un’altra enorme differenza nel dirigere video VR. Le telecamere VR catturano video in tutte le direzioni, quindi l’equipaggio non può stare sul set senza far parte dello spettacolo. Per questo motivo, il sistema Immerseè progettato per essere azionato in remoto tramite un tablet o un telefono, in modo che i cameramen possano effettuare regolazioni senza essere nella scena. E il software di controllo della fotocamera è progettato per eliminare un’enorme curva di apprendimento, poiché è modellato sugli schemi di controllo per le fotocamere Arri, RED e Sony di livello professionale.

“È molto questo sistema che acquisirà, modificherà ed elaborerà una volta, ma eseguirà il rendering e la riproduzione in qualsiasi dispositivo”, afferma Rosenthal. “Questo è qualcosa che abbiamo sentito un sacco di eccitazione dai nostri partner. Oggi, devono passare attraverso un flusso di lavoro di produzione molto diverso a seconda del dispositivo per cui stanno costruendo.”

Questi partner includono alcuni battitori pesanti nel mondo della VR. Lytro dice che il sistema è stato sviluppato con input da aziende di produzione VR stagionato Vrse, Wevr ,e Felix & Paul. Rosenthal dice che nei primi mesi del 2016, sarete in grado di guardare i contenuti girato da quelle società di produzione con il sistema Immerge.

Non trattenere il respiro quando si tratta di essere in grado di girare video VR in campo chiaro con il telefono o una fotocamera consumer. Il sistema Immerge è costo-proibitivo e ingombrante; Rosenthal dice che è progettato per essere montato su un treppiede o un carrello piuttosto che gestito come unità palmare. Ed è troppo pesante per un drone. Acquistarlo costerà diverse centinaia di migliaia di dollari quando sarà disponibile nella prima metà del 2016. Nel mondo del cinema, la maggior parte delle attrezzature professionali viene affittata e Rosenthal afferma che sono in corso piani di noleggio per poche migliaia di dollari al giorno.

Tutto questo è solo la prima fase. Rosenthal afferma che sono previste applicazioni ancora più sorprendenti per il futuro di Immerge: La possibilità di rifocalizzare all’interno di una scena basata sull’eye-tracking di un auricolare, sulla modellazione 3D istantanea e sulla fusione realistica di contenuti CG con video dal vivo.

“Stiamo catturando tutta la profondità e la geometria 3D del mondo reale, in modo da comporre oggetti generati al computer con la giusta profondità e la giusta ombreggiatura, ombre e illuminazione, che tutto diventa molto più facile di quanto non sia mai stato prima”, spiega Rosenthal. “Immagina un videogioco in cui invece di avere le strane persone catturate dal movimento e rese in CG, puoi effettivamente avere persone fotorealistiche. Che inizia a diventare possibile.”