Sembra che il mondo degli hack kinect stia per ottenere un po ‘più interessante.
Mentre molti dei progetti basati su Kinect vediamo utilizzare una o due unità, questo sistema di telepresenze 3D sviluppato da UNC Chapel Hill Student [Andrew Maimone] sotto la guida di [Henry Fuchs] li ha tutti battuti.
La configurazione utilizza fino a quattro sensori Kinect in un singolo endpoint, catturando immagini da vari angoli prima che vengano elaborate utilizzando filtri accelerati GPU. Il video catturato dalle telecamere viene elaborato in una serie di passaggi, fori di riempimento e regolazione dei colori per creare un’immagine mesh. Una volta che i flussi video sono stati elaborati, sono sovrapposti l’uno con l’altro per formare un’immagine 3D completa.
Il risultato è un’incredibile rendering 3D in tempo reale del soggetto e della stanza circostante che ci ricorda questo costume papercraft. Il video 3D può essere visualizzato su una stazione remota che utilizza un sensore Kinect per tracciare i movimenti degli occhi, alterando di conseguenza il punto di vista del feed del video. Il sistema di telepresenza offre anche la possibilità di aggiungere oggetti inesistenti, rendendolo uno strumento fantastico per dimostrazioni tecnologiche remote e simili.
Dai un’occhiata al video qui sotto per vedere una lunga procedura dettagliata di questo sistema di telepresenze 3D.