HomeLa Riflessione di Giancarlo Elia Valori

L’intelligenza artificiale e i progressi della fisica nel campo delle onde gravitazionali (II) e l’alternativa dell’open source scientifica

L’intelligenza artificiale e i progressi della fisica nel campo delle onde gravitazionali (II) e l’alternativa dell’open source scientifica

Il Laser Interferometer Gravitational-Wave Observatory (LIGO) è composto da dieci sottosistemi, uno dei quali è il Data and Computing Systems (DSC). I

Quale ruolo avrà l’Intelligenza artificiale nelle guerre del futuro
Geopolitical implications of AI and digital surveillance adoption
” Entro la fine del secolo l’ intelligenza artificiale supererà gli esseri umani”

Il Laser Interferometer Gravitational-Wave Observatory (LIGO) è composto da dieci sottosistemi, uno dei quali è il Data and Computing Systems (DSC). I dati ottenuti da LIGO non includono solo le risultanze emesse dal rilevatore di onde gravitazionali dell’interferometro laser, ma contengono anche vari rilevatori e registratori indipendenti che monitorano l’ambiente del rilevatore e lo stato delle sue apparecchiature, come temperatura, pressione atmosferica e vento; condizioni quali forte pioggia, grandine, vibrazioni superficiali, suoni, campi elettrici e campi magnetici, nonché dati sullo stato del rilevatore stesso come la posizione dello specchio piano e della lente all’interno del rilevatore di onde gravitazionali.

In termini di acquisizione dati, ad esempio il LIGO di Hanford (Stato di Washington), e gli interferometri H1 e H2 per l’acquisizione di dati (DAQ, Data AcQuisition) hanno registrato un totale di 12.733 canali, di cui 1.279 erano canali veloci.

Il LIGO aggiornato è progettato per registrare acquisizioni di dati maggiori di 300mila canali, inclusi circa tremila veloci. Questo è un tipico problema di analisi ed elaborazione dei big data, che richiede potenti risorse di calcolo e algoritmi avanzati per elaborare in modo efficace una quantità così enorme di dati.

Nella ricerca dei segnali delle onde gravitazionali viene utilizzata la tecnologia di filtraggio adattato. Questa è una tecnologia basata sull’analisi della forma d’onda, che richiede: la creazione di un modello fisico ragionevole della sorgente delle onde gravitazionali; e la generazione di migliaia di elaborazioni basate sull’utilizzo di questi modelli per abbinare i segnali nei dati delle onde gravitazionali per trovare eventi rilevanti.

Inoltre, a differenza dei telescopi, le lenti gravitazionali distorcono gli oggetti in anelli e archi sfocati, quindi è abbastanza difficile da capirli. Applicare le reti neurali dell’intelligenza artificiale all’analisi delle immagini delle onde gravitazionali sarà più veloce del metodo originale: dieci milioni di volte. La rete neurale dell’IA è in grado di scoprire nuove inquadrature e determinarne le proprietà, la distribuzione di massa e i livelli di ingrandimento delle galassie di fondo. Le reti neurali ci aiuteranno a identificare oggetti interessanti e ad analizzarli rapidamente, il che offrirà più tempo per esplorare e porre domande sull’universo.

Allo stato attuale, ci sono almeno diversi aspetti degni di attenzione quando si applica l’intelligenza artificiale all’analisi e all’elaborazione dei big data sulle onde gravitazionali.

Nell’“apprendimento supervisionato” il metodo del filtro abbinato deve conoscere la forma d’onda del segnale. Questa volta l’analisi dei dati sulla deformazione delle onde gravitazionali deve corrispondere alle forme d’onda nell’enorme libreria di forme a disposizione. È ovviamente un processo con un enorme carico di lavoro computazionale. Come migliorare la ricerca d’efficienza e ridurre il carico computazionale? Il consumo di risorse è senza dubbio meritevole di uno studio approfondito.

Invece nell’“apprendimento non supervisionato” del rilevamento delle onde gravitazionali, le forme d’onda di un gran numero di eventi sono sconosciute. Per le supernovae e le stelle di neutroni rotanti, l’attuale accumulo di osservazioni astronomiche non può fornire una stima teorica dell’intensità delle onde gravitazionali che rilasciano, il che richiede l’uso dell’“apprendimento non supervisionato”, ossia algoritmi per scoprire modelli sconosciuti nei dati delle onde gravitazionali.

Nella strategia di “apprendimento integrata” vi sono altri tipi di onde gravitazionali, come le continue e le primordiali, diverse dalle onde gravitazionali rilevate come nella fusione di doppi buchi neri, accennata nel precedente articolo. Esse non sono ancora state rilevate, come nel caso delle onde gravitazionali continue provenienti da stelle rotanti di neutroni: oltre a richiedere una maggiore sensibilità del rivelatore, occorrono anche requisiti estremamente elevati per le capacità di analisi dei dati.

La ricerca astronomica è troppo lontana dalla gente comune, e spesso negli Stati Uniti d’America e non solo, ci si lamenta dei costi troppo elevati. Sebbene la ricerca sulla tecnologia di analisi dei dati delle onde gravitazionali non abbia alcun valore commerciale diretto, la migrazione della tecnologia all’algoritmo necessario può essere presa in considerazione in futuro e la tecnologia si sta sviluppando per la corretta analisi ed elaborazione dei big data; comunque questi possono essere applicati ad altri ambiti commerciali o meramente accademici per produrre valore attraverso la ricerca.

La maggior parte dell’analisi dei dati delle onde gravitazionali utilizza la tecnologia di elaborazione del segnale unidimensionale, che può essere trasferita all’analisi dei dati spettrali, all’analisi dei dati di rilevamento e all’analisi dei dati generici.

In effetti, la tecnologia dell’intelligenza artificiale, come sappiamo, è stata utilizzata per molto tempo nell’esplorazione spaziale e non: inclusa la visione artificiale, il riconoscimento vocale, l’elaborazione del linguaggio naturale, l’apprendimento automatico, ecc. Però i rilevatori ci aiutano anche ad ottenere immagini, informazioni e dati dall’universo e quindi a trasmetterli. Man mano che gli esseri umani migliorano la loro capacità di comprendere l’universo, l’intelligenza artificiale svolgerà un ruolo sempre più importante in futuro e l’esplorazione della scienza spaziale e il perfezionamento della tecnologia dell’IA finiranno per portare benefici all’intera società umana.

Pensando a Newton diremmo: «Se guardi le stelle, vedrai una mela. Se vedi una mela, studierai la sua origine. Se studi la sua origine, avrai una legge. Se hai una legge vorrai una conclusione», però spesso succede che una conclusione può finire in una contraddizione, e se si entra in una contraddizione dovremo riguardare le stelle.

L’esplorazione dello spazio, la tecnologia dell’intelligenza artificiale e la società umana si trovano probabilmente in questa relazione dialettica di rinnovamento – pensate alla teoria della relatività e alla fisica quantistica – che continua a stimolare l’immaginazione e il potere di sviluppo della mente e della civiltà umane.

Però dobbiamo stare attenti a non sconfinare nel grottesco e penso che l’argomento debba essere trattato, senza giungere alla conclusione che un domani l’intelligenza artificiale si manifesti col confinamento degli uomini in uno zoo per specie protette; in quanto tutto questo – si spera – sarà sempre creato e gestito dall’uomo, ancora unico risolutore dei problemi che scavalcano gli standard e che sono i reali costituenti del mondo in cui viviamo.

Con gli strumenti adeguati, i metodi dell’intelligenza artificiale possono essere applicati nei flussi di lavoro degli scienziati. Lo scopo non è, come anzidetto, quello di sostituire l’intelligenza umana, ma di migliorarla in modo significativo e ridurre il lavoro. Questa ricerca ha verificato parte della teoria della relatività di Einstein e la connessione tra tempo e spazio. Rappresenta a tutt’oggi anche il punto di partenza della ricerca sull’astronomia delle onde gravitazionali. E anche le persone non addette ai lavori saranno in grado d’iniziare a comprendere l’universo in profondità e a una velocità maggiore, compresa l’energia oscura, la gravità e le stelle di neutroni.

Il contributo di questa ricerca è che combinando la potenza dell’intelligenza artificiale e dei supercomputer è possibile risolvere istantaneamente enormi esperimenti sui dati e tutto questo può essere riprodotto, anziché solamente limitato a verificare se l’intelligenza artificiale possa unicamente essere utilizzata per risolvere altre sfide importanti.

Tra le altre cose, una soluzione per accelerare i progressi è il modello open source (codice aperto), utilizzato da altri gruppi di ricerca senza alcuna preclusione. In poche parole l’open source è il codice sorgente reso disponibile gratuitamente per possibili modifiche e ridistribuzioni. I prodotti includono il permesso di utilizzare il codice sorgente, i documenti di progettazione o il contenuto del prodotto liberamente disponibili al pubblico.

L’open source è un modello di sviluppo software decentralizzato che incoraggia la collaborazione aperta. Uno dei principi fondamentali dello sviluppo del software open source è la produzione tra pari. L’uso del termine ha avuto origine con il software, ma si è espanso oltre il settore del predetti per coprire altri contenuti e forme di collaborazione aperta. Il movimento open source nel software è iniziato come risposta alle limitazioni del codice proprietario. 

a cura di Giancarlo Elia Valori

Commenti