report di affidabilità di comunicare la validità di un test attraverso prove ripetute . Affidabilità equivale alla stabilità , e misura risultati nel tempo al fine di determinare come siano affidabili . I più errori , il meno affidabile; meno errori significano più affidabilità . Segnalazione questi risultati significa riferire ogni prova di affidabilità e dei suoi risultati . L’affidabilità può essere misurata con diversi test : attraverso la ri -test ripetuti o “test re- test”; utilizzando una misura “parallelo” che guarda a test simili; affidabilità inter- rater , o il grado di precisione tra i valutatori di prova; e coerenza interna , che misura quanto costantemente ogni elemento produce risultati . Istruzioni

1

relazione i coefficienti di correlazione test- re- test, o gradi a cui correlato o non sono correlate quando sono state applicate prove ripetute . Ad esempio , i coefficienti di correlazione possono variare 0,84-0,95 sulla scala attitudinale, e 0,83-0,97 sulla scala verbale utilizzando un campione di popolazione simile su prove ripetute . Ciò comunicare la coerenza tra le sottoscale di prova su un test di intelligenza .

2

Tracciare le prove ripetute e la gamma di consistenze su un diagramma a dispersione o un altro diagramma per illustrare il numero di prove ripetute e dei loro risultati come essi sono correlati ai risultati effettivi , o il “valore vero “. Test di affidabilità determinano il modo stabile uno strumento di misura è o è probabile che sia . Queste prove ripetute pesano su questo affidabilità .

3

Segnala l’affidabilità inter- rater , o la misura di accordo tra valutatori . Esaminare in che modo accurato e coerente punteggi dei test riportano lo stesso progresso utilizzando gli stessi strumenti sullo stesso o simile campione di popolazione . Se la coerenza , c’è meno errori; se non c’è consistenza , allora c’è spazio per ulteriori errore , e quindi l’affidabilità è influenzata . Tracciare questo su una semplice matrice , con ogni rater per nome o numero , la loro ” prima formazione” valutazioni , e “dopo di formazione” I voti per delineare le differenze , una volta che sono stati addestrati , o tarati , nei loro accordi di rating .

4

relazione della coerenza interna , o la misura di quanto elementi di prova consistenti o simili erano del tutto. Il meno consistenti o connesse sono tra loro , più spazio per l’errore . Se hai a che fare con un test standardizzato , per esempio , riportare le sottoscale per ciascun gruppo di elementi di prova per determinare la coerenza tra di loro . Un test di matematica dovrebbe avere numeri , di misura, la geometria e le statistiche come sottoscale relative .

5

Relazione e rappresentare graficamente tutti gli errori , le incongruenze e le grandi variazioni nelle equazioni su uno dei test di affidabilità . Questa sezione si concluderà il rapporto di affidabilità , e consentono di accertare l’attendibilità dello studio o lo strumento di studio in discussione .