Generazione di ologrammi 3D: un metodo di calcolo più veloce per dispositivi di nuova generazione

Schermata 2020 06 06 alle 08.55.36 999x640

Algoritmi velocissimi possono alleggerire il carico della generazione di ologrammi 3D aprendo la strada per dispositivi di realtà aumentata di nuova generazione.

I ricercatori della Tokyo Metropolitan University hanno sviluppato un nuovo modo di calcolare semplici ologrammi per display heads-up (HUD) e near-eye (NED).

Il metodo è fino a 56 volte più veloce degli algoritmi convenzionali e non richiede unità di elaborazione grafica (GPU) assetate di energia, in esecuzione su normali core di elaborazione come quelli presenti nei PC.

Ciò apre la strada allo sviluppo di dispositivi di realtà aumentata compatti, efficienti dal punto di vista energetico, di nuova generazione, che comprenderà la navigazione 3D su parabrezza e occhiali per auto.

Il termine ologramma ha ancora un anelito fantascientifico, ma l’olografia, la scienza della creazione di registrazioni di luce in 3D, viene utilizzata ovunque, dalla microscopia, alla prevenzione delle frodi sulle banconote fino alla conservazione dei dati all’avanguardia.

Ovunque, cioè, tranne nel suo ambito più ovvio: display veramente 3D.

La distribuzione di display veramente 3D che non necessitano di occhiali speciali deve ancora essere diffusa. I recenti progressi hanno visto le tecnologie della realtà virtuale (VR) farsi strada nel mercato, ma la stragrande maggioranza si affida a trucchi ottici che convincono l’occhio umano a vedere le cose in 3D. Ciò non è sempre fattibile e ne limita la portata.

Uno dei problemi per la generazione di ologrammi 3D di oggetti arbitrari è la pesantezza dal punto di vista computazionale.

Uno dei motivi è che la generazione dell’ologramma 3D di oggetti arbitrari è pesante dal punto di vista computazionale. Questo rende ogni calcolo lento e assetato di energia, una seria limitazione quando si desidera visualizzare immagini 3D di grandi dimensioni che cambiano in tempo reale. La stragrande maggioranza richiede hardware specializzato come unità di elaborazione grafica (GPU), i chip che consumano energia che alimentano i giochi moderni. Ciò limita fortemente la possibilità di distribuire schermi 3D.

Pertanto, un team guidato dall’assistente professor Takashi Nishitsuji ha esaminato il modo in cui sono stati calcolati gli ologrammi.

Si sono resi conto che non tutte le applicazioni necessitavano di un rendering completo dei poligoni 3D. Concentrandosi esclusivamente sul disegno del bordo attorno agli oggetti 3D, sono riusciti a ridurre significativamente il carico computazionale dei calcoli dell’ologramma.

In particolare, si potrebbero evitare di utilizzare le Fast-Fourier Transforms (FFT), routine matematiche intensive che alimentano ologrammi per poligoni completi. Il team ha combinato i dati di simulazione con esperimenti reali visualizzando i loro ologrammi su un modulatore di luce spaziale (SLM) e illuminandoli con luce laser per produrre un’immagine 3D reale. Ad alta risoluzione, hanno scoperto che il loro metodo poteva calcolare ologrammi fino a 56 volte più velocemente e che le immagini erano simili a quelle realizzate usando metodi convenzionali più lenti.

È importante sottolineare che il team ha utilizzato solo un normale core di elaborazione per PC senza unità di elaborazione grafica autonoma, rendendo l’intero processo significativamente meno dispendioso dal punto di vista energetico.

Calcoli più rapidi su core più semplici significano dispositivi più leggeri, più compatti ed efficienti dal punto di vista energetico che possono essere utilizzati in una gamma più ampia di impostazioni.

Il team pensa che il loro metodo possa applicarsi a display heads-up (HUD) sui parabrezza delle auto per la navigazione e su occhiali capaci di trasmettere istruzioni su procedure tecniche pratiche, entrambe prospettive entusiasmanti per un futuro non troppo lontano.

 

Potrebbe interessarti:

league of legends

 

 

Ologrammi 3D dal vivo per gli ospedali da campo
Ologrammi 3D dal vivo per gli ospedali da campo
"Skin VR", ultrasottile e senza fili, un'esperienza vivida per il metaverso
"Skin VR", ultrasottile e senza fili, un'esperienza vivida per il metaverso
Robot controllati in VR: Reachy di Pollen Robotics fa faville
Robot controllati in VR: Reachy di Pollen Robotics fa faville
Realtà virtuale: un nuovo dispositivo per simulare le sensazioni tattili
Realtà virtuale: un nuovo dispositivo per simulare le sensazioni tattili
Realtà virtuale: un avatar per fare fisioterapia a casa
Realtà virtuale: un avatar per fare fisioterapia a casa
Realtà virtuale: un avatar per fare fisioterapia a casa
Realtà virtuale: un avatar per fare fisioterapia a casa