Introduzione

 La rivelazione delle onde gravitazionali tramite interferometro, oltre a rappresentare una conquista tecnica formidabile del genere umano (giustamente premiata dal conferimento del premio Nobel a Barish, Weiss e Thorne nel 2017), è una ennesima conferma della Teoria della Relatività Generale e costituisce un nuovo, potentissimo mezzo di indagine su una varietà di processi astrofisici estremi, altrimenti difficili da rivelare e studiare.

 Dopo le osservazioni estemporanee condotte dalle due antenne americane LIGO nel 2015 (il cosiddetto ciclo O1) e nel 2017 (ciclo O2, alla fine del quale si aggiunse anche l'antenna italo-francese Virgo), dal 1 Aprile di quest'anno le tre antenne, che hanno subito un netto miglioramento di sensibilità, sono continuamente in "ascolto" e, nei primi 100 giorni di osservazione, hanno già rivelato 18 segnali sufficientemente significativi e di probabile origine astrofisica. Il condizionale è d'obbligo poiché queste misure sono estremamente delicate e spesso dominate dal rumore. Soltanto i segnali abbastanza potenti che vengono rivelati contemporaneamente da almeno due antenne e che hanno un profilo caratteristico (detto "chirp") vengono selezionati come "super-eventi" da un apposito software e comunicati in tempo reale ai principali osservatori mondiali, per consentire la pronta ricerca di eventuali controparti nello spettro elettromagnetico. Questi allarmi vengono pubblicati su un apposito database, detto GraceDB, e dopo alcune ore vengono confermati o eventualmente smentiti nel caso in cui ulteriori analisi ne rivelino la probabile origine terrestre (finora è successo in 3 casi).

 Personalmente, ho approntato una pagina su questo Blog, in cui riporto il contenuto aggiornato del database, rappresentandolo sia in forma grafica che tabellare e aggiungendo altre informazioni riguardanti l'effettivo funzionamento dei tre strumenti nel tempo. E' proprio monitorando questi eventi che mi è balzata all'occhio una successione temporale decisamente insolita e apparentemente improbabile, oggetto del presente articolo.

 

Le anomalie

 Iniziamo dai primi due segnali, apparsi entrambi nella seconda settimana di osservazione, a 4 giorni uno dall'altro. Prodotti entrambi dalla fusione di due buchi neri non troppo lontani, sono a tutt'oggi i segnali di gran lunga più significativi ricevuti; infatti, la probabilità (FAR) che, per caso, il rumore produca fluttuazioni così forti e caratteristiche è inferiore a una parte su 109 ogni anno! Questa è la prima stranezza, perché nei successivi 98 giorni (e chissà per quanti altri ancora) non si è più visto nulla del genere: tutti gli eventi successivi esibiscono, infatti, un FAR compreso tra 1 e 10-6 eventi/anno.

 Dopo 9 giorni di silenzio, poi, è iniziato un vero e proprio bombardamento con 11 segnali di media e bassa significatività, sempre più frequenti; si è giunti, il 21 Maggio, a registrare due eventi a 3,5 ore uno dall'altro! Poi, dal giorno dopo, un silenzio interminabile, durato oltre 5 settimane e interrotto solo da un segnale il 2 giugno. Negli ultimi 10 giorni, infine, l'attività è ripresa con 4 segnali di cui gli ultimi 2 sono apparsi a 11 ore uno dall'altro.

 Tutto questo è sintetizzato nel grafico in apertura, dovei i colori dei cerchi indicano la presunta sorgente del segnale e la loro altezza è l'inverso del parametro FAR in scala logaritmica; di fatto è il tempo medio che bisognerebbe aspettare per vedere un falso allarme analogo, come frutto del semplice rumore statistico. La curva rossa e il corrispondente asse sulla destra indicano invece il tasso di eventi medio per settimana, registrato dall'inizio del ciclo osservativo.

 La sequenza è troppo strana per non lasciare adito al sospetto che non sia dominata dal caso, anche se si sa che il caso gioca a volte degli scherzi curiosi. Ho cercato quindi di capire fino a che punto l'anomalia è statisticamente significativa e per fare questo ho tentato due diversi approcci, uno più teorico, l'altro più sperimentale.

 

L'analisi statistica classica

  In questo paragrafo, si utilizzerà una "risoluzione temporale" di una settimana e quindi sono considerate le prime 14 settimane del ciclo O3, ovvero i primi 98 giorni di osservazioni, dal 1 Aprile al 7 Luglio 2019 compreso; in questo intervallo di tempo, essendo stati osservati 18 segnali confermati, il tasso medio è stato 1,286 eventi/settimana e il tempo medio tra due eventi consecutivi è pari a 5,44 giorni. Naturalmente, se ci volessimo concentrare solo sui 6 eventi più significativi (FAR<10-3 anni-1) scenderemmo a 0,43 eventi/settimana, ma per ora lasciamo in sospeso questa eventualità.

 L'arrivo di onde gravitazionali dalla fusione di oggetti compatti in altre galassie deve essere necessariamente un fenomeno casuale, nel senso che si tratta di segnali generati in luoghi tra loro estremamente distanti e quindi non causalmente collegati. Quello che ci si aspetta, quindi, è che tali fenomeni seguano una distribuzione di Poisson P(n) che, in statistica, descrive proprio la probabilità che si ha di osservare un numero n di eventi indipendenti in un dato intervallo di tempo Δt, sapendo che, mediamente, in quell'intervallo se ne verifica un numero λ (definizione liberamente tratta da Wikipedia). La P(n) è allora data da:

GWD P

 nel nostro caso, avendo scelto Δt=1 settimana, avremo λ=1,286 e la frequenza di eventi osservati in ogni settimana è quella riportata nella figura sottostante (rettangoli blu) mentre in rosso c'è la distribuzione di Poisson attesa, ottenuta con la formula precedente:

GW isto1

 Come si vede, le maggiori discrepanze tra la distribuzione osservata e quella teorica riguardano la depressione per n=1,4 e un eccesso per n=2,3; quest'ultimo rappresenta appunto la tendenza apparente dei punti a raggrupparsi vicini tra loro, in coppie o triplette, a danno di eventi isolati settimanali.

 Un altro modo di analizzare i dati è quello basato sugli intervalli di tempo tra due eventi consecutivi. Esso è descritto dalla distribuzione esponenziale, secondo cui la probabilità di avere un lasso maggiore di x è dato da:

GWD exp2

 In questo caso, conviene ragionare in termini di giorni e non di settimane, perciò sarà λ=0,1838 eventi al giorno. Andando a graficare i 17 intervalli di tempo che separano i 18 eventi effettivamente osservati, si vede chiaramente che l'andamento reale è sistematicamente "depresso" per intervalli di breve e media lunghezza, compresi tra 1,5 e 15 giorni e specialmente intorno ai 4 giorni (area verde), mentre risulta decisamente in eccesso per lassi compresi tra 16 e 28 giorni (in blu); quest'ultima deviazione è essenzialmente dovuta al prolungato "silenzio" nel mese di giugno:

 GW isto3i

 Questa distribuzione dei lassi di tempo è a mio parere l'indicatore più significativo per evidenziare l'anomalia statistica nella sequenza degli eventi osservati; un indicatore numerico efficace per esprimere tale discordanza è la deviazione standard degli intervalli di tempo, legata alla somma dei quadrati dei suddetti lassi temporali:

GWD stdev

 Nel caso della sequenza effettivamente osservata, tale deviazione standard vale 6,8 giorni. contro i 5,4 (cioè 1/λ) attesi dalla distribuzione di Poisson. 

 Sia il grafico che la deviazione standard, però, non riescono ad evidenziare l'altra stranezza della sequenza osservata, cioè l'apparente tendenza degli eventi a raggrupparsi in brevi intervalli di tempo; a questo scopo, è utile costruire anche una distribuzione del reciproco del lasso di tempo 1/x e concentrarsi sui valori grandi, cioè intervalli piccoli (dell'ordine di 1 giorno o meno):

GW isto4

 Guardando la distribuzione, l'unico eccesso sistematico riguarda in realtà gli intervalli di media lunghezza, con 0,4<1/x<0,85 e quindi lassi di tempo compresi tra 1,2 e 2,5 giorni; per quantificare questo eccesso, ci concentreremo sul valore medio di 1/x, che nel caso reale è pari a 0,566 giorni-1.

 A questo punto, si dovrebbe procedere con una analisi statistica, ad esempio col metodo del chi-quadro (χ2), per poter testare l'ipotesi che le distruzioni reali siano significativamente diverse  da quelle previste, e con quale probabilità. Tuttavia, reputo più "divertente" e istruttivo utilizzare un sistema "empirico" molto usato comunque anche dagli scienziati per fare test statistici su sistemi troppo complessi per essere trattati con metodi tradizionali.

 

L'analisi col "metodo di Montecarlo"

 L'idea è semplicissima, diciamo al computer di generare un gran numero di sequenze simulate di onde gravitazionali; naturalmente, gli eventi devono essere rigorosamente indipendenti tra loro e in tutte le sequenze devono avere la stessa frequenza media di quella osservata. In pratica, usando un foglio elettronico, ho sfruttato la funzione "casuale" ("random" in inglese) moltiplicata per 100 in modo da avere, ogni volta, 18 eventi distribuiti casualmente su un intervallo di 100 giorni, per l'appunto; la sequenza viene poi ordinata in senso crescente e vengono calcolati i lassi di tempo e i loro inversi, su cui effettuare le opportune considerazioni statistiche. L'unico problema è che, per avere risultati statisticamente attendibili, è necessario generare un gran numero di sequenze fittizie, almeno qualche centinaio. Per ridurre il lavoro altamente ripetitivo ho dovuto fare ricorso a una semplice "Macro" che effettua da sola la generazione e l'ordinamento di 10 sequenze alla volta, ovviamente diverse tra loro (il computer rigenera automaticamente il valore delle celle in cui ci sono valori casuali, ogni volta che viene effettuata una qualsiasi operazione sul foglio elettronico).

 Dopo avere generato 200 sequenze virtuali, ho effettuato una rapida analisi statistica mettendo a confronto media, mediana e deviazione standard relativi alla distribuzione di x e di 1/x con i valori effettivamente osservati (caratteri in azzurro):

GW TABLE2

 La penultima colonna in verde indica lo scarto tra la media delle sequenze virtuali e quella osservata, divisa per la deviazione standard; questo parametro esprime convenzionalmente la significatività di uno scostamento rispetto a una distribuzione (che si suppone Gaussiana) e, come si vede, è sempre decisamente piccolo tranne in un caso, quello della deviazione standard dei lassi di tempo x, parametro che avevo già identificato in precedenza come caratteristico di tempi di attesa prolungati. Le deviazioni entro 1σ (come si suol dire) sono da considerarsi invece come normali oscillazioni statistiche, dunque anche la media degli 1/x (considerata un indicatore della tendenza al raggruppamento degli eventi) risulta "fisiologica"; in realtà, su questo parametro la differenza tra valore medio e mediana e, soprattutto, l'elevata deviazione standard fanno capire che stavolta la distribuzione non è affatto gaussiana ma fortemente asimmetrica, dunque è necessario un indicatore  differente, che tenga conto della reale distribuzione.

 L'ultima colonna (in azzurro) serve proprio a quantificare la reale collocazione dei valori osservati rispetto a quelli della popolazione generata artificialmente. Essa esprime la percentuale di sequenze fittizie che mostrano, per quel particolare parametro, valori più grandi di quelli osservati; come si vede, tale percentuale oscilla sempre tra il 41 e il 54% tranne il caso suddetto della stdev(x) che, nel 93% dei casi, risulta inferiore al livello osservato. Rimangono comunque 14 sequenze fittizie che sono, da questo punto di vista, peggiori di quella osservata; il caso estremo esibisce addirittura un intervallo lungo 31 giorni e un altro di 19,5 giorni, senza alcun segnale! 

 Un'ultima osservazione riguarda l'incertezza dei risultati indicati; è ovvio che, generando un diverso campione di 200 sequenze virtuali, essi potrebbero variare, ma non di molto. In effetti, parlando del parametro che più ci interessa (deviazione standard di x) il numero di 14 "outliers" al di sopra del valore osservato potrebbe oscillare ragionevolmente di ±3,7 (la radice quadrata di 14), quindi l'effettiva percentuale potrebbe oscillare tra 5,1 e 8,9%. 

 

Le conclusioni

 La conclusione dell'analisi è, tutto sommato, rassicurante. Anche se la sequenza di eventi osservati presenta un "silenzio" decisamente prolungato di 28 giorni, questa caratteristica la fa rientrare nel 7-percentile e comunque sopra il 5-percentile, che è normalmente considerato la soglia della normalità; possiamo dire che si tratta di un caso normale, anche se "border line"; viene inoltre smentita la presenza di una particolare tendenza, negli eventi osservati, a raggrupparsi tra loro su brevi intervalli di tempo, l'altro comportamento "sospetto" che sembrava trasparire dalle osservazioni.

 Qualcuno potrebbe obiettare che la conclusione DOVEVA essere necessariamente questa, data la natura indipendente e "senza memoria" degli eventi in questione. Tuttavia, questa conclusione "a posteriori" non era affatto scontata perché, in realtà, non era da escludere che alcuni degli eventi osservati (almeno quelli meno significativi) fossero in realtà effetti spuri di origine terrestre, quindi soggetti a possibili sistematicità.

 Ulteriori analisi statistiche andrebbero svolte sulla strana distribuzione degli eventi in termini di significatività del segnale, spiegata a inizio articolo. Per ora questo aspetto non è affrontato, anche a causa del campione statisticamente poco significativo (al massimo 6 eventi complessivi, imponendo un limite 1/FAR>1000 anni), ma è probabile che torneremo a parlarne più in là...