Che cos’è, quali dispositivi e hardware utilizza la Realtà aumentata

Che cos’è, quali dispositivi e hardware utilizza la Realtà aumentata

Cos’è la Realtà aumentata

Per augmented reality (AR), in italiano Realtà aumentata, si intende la sovrapposizione di contenuti sensoriali generati da un sistema informatico, quali immagini o audio, a contenuti catturati dal mondo reale per mezzo, ad esempio, di una videocamera o una webcam, allo scopo di aggiungere informazione o elementi
interattivi. Gli elementi aggiunti sono inesistenti nella realtà fisica (virtuali), e sono pertanto fruibili dall’utente esclusivamente attraverso l’uso di un dispositivo, come ad esempio lo schermo di un computer o di un telefono cellulare, oppure ancora occhiali stereoscopici.

Più in generale, la realtà aumentata è un caso particolare di Computermediated reality, ovvero di realtà modificata (mediata) tramite un calcolatore con lo scopo di alterarne la percezione complessiva o la quantità di informazione presente. A differenza della forse più nota realtà virtuale, le modifiche si limitano ad affiancare la realtà fisica, integrandola con l’aggiunta di elementi virtuali ma senza sostituirla del tutto, in modo che la percezione da parte dell’utente rimanga comunque quella di un ambiente prevalentemente reale.

Tali modifiche avvengono tipicamente, ma non esclusivamente, in real time, e devono pertanto essere elaborate dal sistema ad una velocità tale da essere sovrapposte ad un flusso video catturato dal mondo reale senza introdurre ritardi ed in modo trasparente all’utilizzatore, per non infrangere la sua percezione della realtà, e per consentirgli una più intuitiva ed efficace interazione con essa.

Che cos'è, quali dispositivi e hardware utilizza la Realtà aumentata
Un semplice esempio di realtà aumentata è la sovraimpressione in tempo reale di testo o immagini al flusso video di una trasmissione televisiva, come l’interfaccia grafica che mostra il punteggio ed il tempo di gioco in una partita di calcio, o le immagini tridimensionali affiancate in chroma-key alle riprese in studio durante le previsioni meteorologiche.
Tale sovrapposizione aumenta infatti la quantità di informazione disponibile all’utente tramite elementi originariamente non presenti nel flusso video catturato dalle telecamere, generati in tempo reale da un computer e visibili solo per mezzo di uno schermo.

Hardware utilizzato

Dal punto di vista hardware, i componenti di un tipico sistema AR coinvolgono un’unità di elaborazione e dei dispositivi di input e output. Dispositivi portatili come laptop, tablet e smartphone tipicamente integrano tutto l’hardware necessario per l’esecuzione di un largo numero di applicazioni AR in svariati domini applicativi, e di conseguenza si prestano facilmente a tali scopi.
Perchè il flusso video formato da tali immagini sia percepito fluidamente, è necessaria una frequenza di refresh minima pari a circa 15-20 Hz, con valori superiori (almeno pari a 30 Hz) ovviamente preferibili.

Dispositivi di input

I dispositivi di input possono includere hardware di vario genere, a seconda del dominio applicativo e delle necessità della specifica applicazione. Il più importante e comunemente utilizzato è ovviamente la telecamera, o due telecamere nel caso di sistemi AR in grado di generare immagini in 3D stereoscopico, tipicamente basata su tecnologia CMOS.
A seconda dell’applicazione, possono poi essere utilizzati dispositivi classici come mouse e tastiera, touch screen, oppure meno convenzionali come guanti, puntatori o il corpo dell’utente in applicazioni che usino tecniche di computer vision e object recognition, sia con che senza l’utilizzo di marker. Ulteriori dispositivi di input, soprattutto in sistemi AR mobili o in applicazioni che necessitino di dati sulla posizione fisica dell’utente o sul suo orientamento nello spazio, possono includere sensori quali accelerometri o giroscopi, tipicamente basati su tecnologia MEMS, oppure ricevitori GPS e magnetometri.
La qualità e la precisione dei dispositivi di input utilizzati influisce sia sulla presenza di errori statici nel caso di sensori imprecisi, come ad esempio telecamere a risoluzione insufficiente o sensori MEMS con letture non sufficientemente accurate, che sulla presenza di errori dinamici se tali dispositivi introducono dei ritardi durante l’elaborazione.

Dispositivi di output

Così come per i dispositivi di input, anche quelli di output dipendono fortemente dalla specifica applicazione. E’ fondamentale, comunque, che il sistema disponga di uno o più display per visualizzare il flusso video in uscita. Oltre ai comuni monitor per computer ed agli schermi per dispositivi portatili, sono spesso utilizzati head-mounted display di due categorie: optical see-through e video see-through. Mentre i primi utilizzano un sistema di specchi per sovrapporre in semitrasparenza gli elementi virtuali alla realtà circostante, come il già citato The Sword of Damocles o il display AR suggerito da Caudell, gli HMD di tipo video see-through utilizzano uno o due schermi opachi, del tutto simili a dei monitor, per visualizzare immagini AR complete.

Il vantaggio principale degli HMD è di non obbligare l’utente a rimanere rivolto nella direzione del monitor, o a tenere lo schermo in mano nel caso di un portatile, e spesso tali dispositivi possono integrare sensori aggiuntivi, per consentire ad esempio l’head tracking. Gli svantaggi includono un maggiore costo, la necessità di avere un HMD per ogni persona, ed una limitazione nel campo visivo dell’utente.
Un ulteriore dispositivo di output comunemente utilizzato per visualizzare scene AR è il proiettore. Mediante uno o più proiettori digitali è possibile proiettare immagini aumentate su oggetti reali, tecnica denominata spatial augmented reality (SAR), consentendo a più di una persona alla volta di usufruire del programma senza incorrere nelle limitazioni dei display tradizionali e nei costi di un numero elevato di HMD. Inoltre, utilizzare oggetti reali per le proiezioni consente di ottenere feedback tattile passivo semplicemente toccandoli, ossia senza bisogno di periferiche e risorse computazionali. Gli svantaggi includono la necessità di disporre di superfici reali per le proiezioni, e la sensibilità di queste ultime nei confronti delle condizioni di illuminazione ambientale.

Oltre ai display descritti finora, la categoria dei dispositivi di output utilizzati nei sistemi AR comprende anche una serie di interfacce il cui scopo è fornire all’utente ulteriori tipi di feedback, come il già citato feedback tattile. Tali dispositivi, denominati interfacce aptiche, hanno forma, struttura e tecnologia fortemente dipendenti dalla specifica applicazione, ed utilizzano motori o attuatori per fornire all’utente sensazioni di tipo tattile quali pressione, forze o vibrazioni. Esempi possono includere un joystick con force feedback in grado di offrire resistenza fisica ai movimenti dell’utente, o display braille.

Nello specifico, in campo AR vengono utilizzate interfacce aptiche in grado di fornire, mediante force feedback, la sensazione di toccare fisicamente gli elementi virtuali. Esempi includono touch screen, guanti dotati di attuatori, esoscheletri e braccia robotiche. A causa dei costi e, talvolta, delle dimensioni, l’utilizzo di tali dispositivi al di fuori dell’ambito accademico o di un numero ristretto di laboratori è ancora oggi piuttosto ridotto. La recente introduzione di nuovi touch screen con feedback aptico, in grado di fornire all’utente la sensazione di toccare oggetti con consistenze o texture differenti, potrebbe però cambiare tale situazione non appena i suoi costi raggiungeranno il mercato consumer.

Pubblicato da Vito Lavecchia

Lavecchia Vito Ingegnere Informatico (Politecnico di Bari) Email: [email protected] Sito Web: https://vitolavecchia.altervista.org

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *