Correzione di Bonferroni

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

In statistica, la correzione di Bonferroni è uno dei numerosi metodi utilizzati per contrastare il problema dei confronti multipli.

Origine[modifica | modifica wikitesto]

La correzione Bonferroni prende il nome dal matematico italiano Carlo Emilio Bonferroni per il suo uso delle disuguaglianze di Bonferroni.[1] Il suo sviluppo è spesso attribuito a Olive Jean Dunn, che ha descritto l'applicazione della procedura a intervalli di confidenza .[2][3]

Il test delle ipotesi statistiche si basa sul rifiuto dell'ipotesi nulla se la probabilità che i dati osservati sotto l'ipotesi nulla è bassa . Se vengono verificate più ipotesi, aumenta la possibilità di osservare un evento raro e, quindi, aumenta la probabilità di rifiutare erroneamente un'ipotesi nulla (ovvero, fare un errore di tipo I).[4]

La correzione di Bonferroni compensa l'aumento di tale probabilità verificando ogni singola ipotesi a un livello di significatività di , dove è il livello di significatività statistica e è il numero di ipotesi.[5] Ad esempio, se sto testando ipotesi con un desiderato , allora la correzione di Bonferroni verificherà ogni singola ipotesi con .

Definizione[modifica | modifica wikitesto]

Siano una famiglia di ipotesi e i loro corrispondenti valori p. Sia il numero totale di ipotesi nulle e il numero di ipotesi nulle vere. Il tasso di errore familiare (FWER) è la probabilità di rifiutare almeno una vera, cioè di commettere almeno un errore di tipo I. La correzione Bonferroni respinge l'ipotesi nulla per ciascun , controllando in tal modo il FWER . La prova di questo controllo deriva dalla disuguaglianza di Boole, come segue:

Questo controllo non richiede alcuna assunzione sulla dipendenza tra i valori p o su quante delle ipotesi nulle siano vere.[6]

Estensioni[modifica | modifica wikitesto]

Generalizzazione[modifica | modifica wikitesto]

Piuttosto che verificare ogni ipotesi al livello di , le ipotesi possono essere verificate a qualsiasi altra combinazione di livelli che si sommano ad , a condizione che il livello di ciascun test sia determinato prima di esaminare i dati.[7] Ad esempio, per due test di ipotesi, un totale di 0,05 potrebbe essere mantenuto eseguendo una prova a 0,04 e l'altra a 0,01.

Intervalli di confidenza[modifica | modifica wikitesto]

La correzione Bonferroni può essere utilizzata per regolare gli intervalli di confidenza . Se uno stabilisce intervalli di confidenza e desidera avere un livello di confidenza complessivo di , ogni intervallo di confidenza individuale può essere regolato con un livello di .[2][3]

Alternative[modifica | modifica wikitesto]

Esistono modi alternativi per controllare il tasso di errore familiare . Ad esempio, il metodo Holm-Bonferroni e la correzione Šidák sono procedure universalmente più potenti della correzione Bonferroni, il che significa che sono sempre almeno altrettanto potenti. A differenza della procedura Bonferroni, questi metodi non controllano il valore atteso degli errori di tipo I per famiglia (il tasso di errore di tipo I per famiglia).[8]

Critica[modifica | modifica wikitesto]

Per quanto riguarda il controllo FWER, la correzione di Bonferroni può essere prudente se ci sono molti test e/o se le statistiche dei test sono correlate positivamente.[9]

La correzione ha il costo di aumentare la probabilità di produrre falsi negativi, cioè di ridurre la potenza statistica.[9][10] Non esiste un consenso definitivo su come definire una famiglia in tutti i casi e i risultati adeguati dei test possono variare a seconda del numero di test inclusi nella famiglia di ipotesi. Tali critiche si applicano al controllo FWER in generale e non sono specifiche della correzione Bonferroni.

Note[modifica | modifica wikitesto]

  1. ^ Bonferroni, C. E., Teoria statistica delle classi e calcolo delle probabilità, Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze 1936
  2. ^ a b Olive Jean Dunn, Estimation of the Means for Dependent Variables, in Annals of Mathematical Statistics, vol. 29, n. 4, 1958, pp. 1095–1111, DOI:10.1214/aoms/1177706374.
  3. ^ a b Olive Jean Dunn, Multiple Comparisons Among Means (PDF), in Journal of the American Statistical Association, vol. 56, n. 293, 1961, pp. 52–64, DOI:10.1080/01621459.1961.10482090.
  4. ^ Ron C. Mittelhammer, George G. Judge e Douglas J. Miller, Econometric Foundations, Cambridge University Press, 2000, pp. 73–74, ISBN 978-0-521-62394-0.
  5. ^ Rupert G. Miller, Simultaneous Statistical Inference, Springer, 1966, ISBN 9781461381228.
  6. ^ Jelle J. Goeman e Aldo Solari, Multiple Hypothesis Testing in Genomics, in Statistics in Medicine, vol. 33, n. 11, 2014, pp. 1946–1978, DOI:10.1002/sim.6082, PMID 24399688.
  7. ^ AF Neuwald e P Green, Detecting patterns in protein sequences, in J. Mol. Biol., vol. 239, n. 5, 1994, pp. 698–712, DOI:10.1006/jmbi.1994.1407, PMID 8014990.
  8. ^ Andrew Frane, Are per-family Type I error rates relevant in social and behavioral science?, in Journal of Modern Applied Statistical Methods, vol. 14, n. 1, 2015, pp. 12–23, DOI:10.22237/jmasm/1430453040.
  9. ^ a b Matthew Moran, Arguments for rejecting the sequential Bonferroni in ecological studies, in Oikos, vol. 100, n. 2, 2003, pp. 403–405, DOI:10.1034/j.1600-0706.2003.12010.x.
  10. ^ Shinichi Nakagawa, A farewell to Bonferroni: the problems of low statistical power and publication bias, in Behavioral Ecology, vol. 15, n. 6, 2004, pp. 1044–1045, DOI:10.1093/beheco/arh107.

Collegamenti esterni[modifica | modifica wikitesto]

  Portale Statistica: accedi alle voci di Wikipedia che trattano di statistica