Se lo desideri, puoi citare il Teorema del No Free Lunch , ma potresti anche citare il Modus Ponens (noto anche come Legge del distacco , la base del ragionamento deduttivo), che è la radice del Teorema del No Free Lunch .
Il Teorema No Free Lunch comprende un'idea più specifica: il fatto che non esiste un algoritmo adatto a tutti gli scopi. In altre parole, il Teorema del No Free Lunch sta sostanzialmente dicendo che non esiste un proiettile magico algoritmico . Ciò si basa sul Modus Ponens, perché per un algoritmo o un test statistico per dare il risultato corretto, è necessario soddisfare le premesse.
Proprio come in tutti i teoremi matematici, se si violano le premesse, il test statistico è privo di senso e non si può ricavarne alcuna verità. Quindi, se vuoi spiegare i tuoi dati usando il tuo test, devi presumere che le premesse richieste siano soddisfatte, se non lo sono (e lo sai), allora il tuo test è completamente sbagliato.
Questo perché il ragionamento scientifico si basa sulla deduzione: in sostanza, il tuo test / legge / teorema è una regola di implicazione , che dice che se hai la premisse Apuoi concludere B: A=>Bma se non l'hai A, allora puoi avere Bo no B, ed entrambi i casi sono veri , questo è uno dei principi di base dell'inferenza / deduzione logica (la regola di Modus Ponens). In altre parole, se si violano le premesse, il risultato non ha importanza e non si può dedurre nulla .
Ricorda la tabella binaria delle implicazioni:
A B A=>B
F F T
F T T
T F F
T T T
Quindi nel tuo caso, per semplificare, hai Dependent_Variables => ANOVA_correct. Ora, se usi variabili indipendenti, così Dependent_Variablesè False, allora l'implicazione sarà vera, dal momento che l' Dependent_Variablesassunzione è stata violata.
Naturalmente questo è semplicistico, e in pratica il tuo test ANOVA potrebbe ancora restituire risultati utili perché c'è quasi sempre un certo grado di indipendenza tra le variabili dipendenti, ma questo ti dà l'idea del perché non puoi semplicemente fare affidamento sul test senza soddisfare i presupposti .
Tuttavia, puoi anche utilizzare i test che premettono non sono soddisfatti dall'originale riducendo il tuo problema: allentando esplicitamente il vincolo di indipendenza, il tuo risultato può essere comunque significativo, anche se non garantito (perché quindi i tuoi risultati si applicano al problema ridotto, non al problema completo, quindi non è possibile tradurre tutti i risultati tranne se è possibile dimostrare che i vincoli aggiuntivi del nuovo problema non influiscono sul test e quindi sui risultati).
In pratica, questo è spesso usato per modellare dati pratici, usando Naive Bayes per esempio, modellando variabili dipendenti (anziché indipendenti) usando un modello che assume variabili indipendenti, e sorprendentemente funziona spesso molto bene, e talvolta meglio della contabilità dei modelli per dipendenze . Puoi anche essere interessato a questa domanda su come utilizzare ANOVA quando i dati non soddisfano esattamente tutte le aspettative .
Riassumendo: se intendete lavorare su dati pratici e il vostro obiettivo non è dimostrare alcun risultato scientifico ma realizzare un sistema che funzioni (ad es. Un servizio web o qualunque applicazione pratica), l'assunzione di indipendenza (e forse altre ipotesi) può essere rilassato, ma se stai cercando di dedurre / provare qualche verità generale , allora dovresti sempre usare test che puoi garantire matematicamente (o almeno assumere in modo sicuro e dimostrabile) che soddisfi tutte le premesse .