HomeCommunication & Tecnologies

E’ stato sviluppato un sistema per vedere attraverso i muri con il wi-fi

Permette il rilevamento dettagliato del corpo umano senza l’utilizzo di telecamere o sensori radar e anche attraverso barriere fisiche. Lo studio è attualmente in fase di revisione

E’ stato sviluppato un sistema per vedere attraverso i muri con il wi-fi

[themoneytizer id="106658-3"]   “Vedere” le persone attraverso i muri con il wi-fi e ricostruirne il corpo in 3D. Come? Grazie a due semplici

Nuova tecnologia rende possibile un ecografia di 48 ore
Tra gli esopianeti conosciuti ce ne sono tre in meno: sono troppo grandi per il MIT
Polo Infrastrutturale del gruppo Fs e Mit lanciano la campagna Regole. “Una sicurezza per la tua sicurezza”
[themoneytizer id=”106658-3″]

 

“Vedere” le persone attraverso i muri con il wi-fi e ricostruirne il corpo in 3D. Come? Grazie a due semplici router e al sistema di intelligenza artificiale che un gruppo di scienziati della Carnegie Mellon University di Pittsburg, negli Stati Uniti, ha sviluppato. I risultati di questa ricerca sono disponibili su arXiv, una piattaforma che rende accessibili articoli scientifici (o meglio “preprint”) che non hanno ancora subito il processo di revisione paritetica (detto “peer-reviewing”).

Secondo i ricercatori, il loro sistema sarebbe in grado di stimare la posizione di più soggetti contemporaneamente con un grado di precisione relativamente elevato rispetto a sistemi simili sviluppati in precedenza, utilizzando i segnali wi-fi come unico input. La convenienza di questa tecnologia rispetto ad esempio ad altre che si basano su sensori radar è il costo molto più contenuto. Rispetto invece alle normali videocamere il notevole vantaggio di un sistema unicamente wi-fi based è il fatto che la presenza di ostacoli o la scarsa illuminazione non interferiscono con il rilevamento. “Questo – scrivono gli autori nelle prime righe del loro articolo – apre la strada ad algoritmi a basso costo, ampiamente accessibili”.

Studi precedenti

Il filone di ricerca non è nuovo, studi precedenti avevano infatti sviluppato sistemi simili, anche se il livello di precisione ottenuto era decisamente inferiore rispetto a quello dello studio in questione. Un gruppo di ricercatori del Mit (Massachusetts Institute of Technology, Stati Uniti), per esempio, aveva pubblicato nel 2018 un dispositivo simile dal punto di vista concettuale, ovvero in grado di rilevare parti del corpo nascoste da muri o altri ostacoli grazie alla combinazione del segnale WiFi e di una rete neurale appositamente sviluppata. In quel caso, l’idea era in particolare quella di applicare questa tecnologia per monitorare pazienti affetti da patologie come il Morbo di Parkinson, la sclerosi multipla o la distrofia muscolare. “Abbiamo visto – aveva dichiarato all’epoca uno degli autori della ricerca – che il monitoraggio della velocità di deambulazione dei pazienti e della loro capacità di svolgere da soli le attività di base offre agli operatori sanitari una finestra sulla loro vita che prima non avevano, il che potrebbe essere significativo per tutta una serie di malattie. Un vantaggio fondamentale del nostro approccio è che i pazienti non devono indossare sensori o ricordarsi di caricare i loro dispositivi”. In questo caso però l’output era costituito da una figura stilizzata in 2D, quindi, come dicevamo, con un livello di dettaglio relativamente basso.

La novità

Tornando al recente studio, i ricercatori coinvolti hanno utilizzato un sistema già esistente, chiamato DensePose, capace di produrre rappresentazioni in 3D del corpo umano a partire da immagini in due dimensioni, ovvero semplici fotografie. “In questo lavoro – spiegano gli autori nell’articolo – prendiamo in prestito la stessa architettura di DensePose; tuttavia, il nostro input non sarà un’immagine o un video, ma utilizzeremo segnali wi-fi 1D per recuperare la corrispondenza densa”, dove per “corrispondenza densa” si intende appunto la rappresentazione tridimensionale. Basandosi su un sistema di intelligenza artificiale, il dispositivo ha comunque bisogno di un training set da cui partire. Infatti, come riportano gli stessi ricercatori, i casi che si sono rivelati fallimentari durante i loro esperimenti sono stati principalmente due: quando al sistema veniva richiesto di individuare posizioni che si sono verificate raramente nel training set, oppure quando tre o più soggetti sono presenti simultaneamente in un’acquisizione. Nel primo caso era quindi probabile che venissero riprodotte immagini distorte, mentre nel secondo caso il sistema faticava a estrarre informazioni dettagliate sui singoli individui. “Riteniamo – concludono gli scienziati nell’articolo – che entrambi i problemi possano essere risolti ottenendo training set più completi”.

Fonte: Wired.it

Commenti