Qual è la differenza tra precisione e precisione?

Precisione e precisione sono due fattori importanti da considerare quando si eseguono misurazioni dei dati. Sia l'accuratezza che la precisione riflettono quanto è vicina una misura a un valore reale, ma l'accuratezza riflette quanto è vicina una misura a un valore noto o accettato, mentre la precisione riflette quanto sono riproducibili le misure, anche se sono lontane dal valore accettato.

Key Takeaways: precisione contro precisione

  • La precisione è quanto è vicino un valore al suo vero valore. Un esempio è quanto una freccia si avvicina al centro dell'occhio di bue.
  • La precisione è la ripetibilità di una misurazione. Un esempio è quanto è vicina una seconda freccia alla prima (indipendentemente dal fatto che una delle due sia vicino al segno).
  • L'errore percentuale viene utilizzato per valutare se una misurazione è sufficientemente accurata e precisa.

Puoi pensare a precisione e precisione in termini di colpire un occhio di bue. Colpire con precisione il bersaglio significa che sei vicino al centro del bersaglio, anche se tutti i segni sono su lati diversi del centro. Colpire con precisione un bersaglio significa che tutti i colpi sono ravvicinati, anche se sono molto lontani dal centro del bersaglio. Le misurazioni precise e accurate sono valori ripetibili e quasi reali.

Precisione

Esistono due definizioni comuni di precisione. In matematica, scienze e ingegneria, l'accuratezza si riferisce a quanto una misurazione è vicina al valore reale.

L'ISO (International Organization for Standardization) applica una definizione più rigida, in cui l'accuratezza si riferisce a una misurazione con risultati sia reali che coerenti. La definizione ISO indica che una misurazione accurata non ha alcun errore sistematico e nessun errore casuale. In sostanza, l'ISO lo consiglia preciso essere usato quando una misurazione è sia accurata che precisa.

Precisione

Precisione è quanto sono coerenti i risultati quando si ripetono le misurazioni. I valori precisi differiscono l'uno dall'altro a causa di un errore casuale, che è una forma di errore osservazionale. 

Esempi

Puoi pensare all'accuratezza e alla precisione in termini di un giocatore di basket. Se il giocatore fa sempre un canestro, anche se colpisce diverse parti del bordo, ha un alto grado di precisione. Se non crea molti cestini ma colpisce sempre la stessa porzione del cerchio, ha un alto grado di precisione. Un giocatore i cui tiri liberi fanno sempre il canestro esattamente allo stesso modo ha un alto grado di accuratezza e precisione.

Prendi misure sperimentali per un altro esempio di precisione e accuratezza. Se si prendono misure della massa di un campione standard da 50,0 grammi e si ottengono valori di 47.5, 47.6, 47.5 e 47.7 grammi, la bilancia è precisa, ma non molto accurata. Se la bilancia fornisce valori di 49,8, 50,5, 51,0 e 49,6, è più accurata del primo equilibrio ma non altrettanto precisa. La scala più precisa sarebbe meglio usare in laboratorio, a condizione che tu abbia fatto una correzione per il suo errore.

Mnemonico per ricordare la differenza

Un modo semplice per ricordare la differenza tra accuratezza e precisione è:

  • UNCil curato è Correct (o Cperdere al valore reale)
  • PRecise è Repeating (o Repeatable)

Precisione, precisione e calibrazione

Pensi che sia meglio usare uno strumento che registra misure accurate o uno che registra misure precise? Se ti pesa su una bilancia tre volte e ogni volta che il numero è diverso, ma è vicino al tuo vero peso, la bilancia è accurata. Tuttavia, potrebbe essere meglio utilizzare una scala precisa, anche se non è accurata. In questo caso, tutte le misurazioni sarebbero molto vicine tra loro e "spente" dal valore reale di circa lo stesso importo. Questo è un problema comune con le bilance, che spesso hanno un pulsante "tara" per azzerarle.

Mentre le bilance e le bilance possono consentire di tarare o effettuare una regolazione per rendere le misurazioni accurate e precise, molti strumenti richiedono la calibrazione. Un buon esempio è un termometro. I termometri spesso leggono in modo più affidabile all'interno di un determinato intervallo e forniscono valori sempre più imprecisi (ma non necessariamente imprecisi) al di fuori di tale intervallo. Per calibrare uno strumento, registra quanto distano le sue misurazioni da valori noti o reali. Conservare una registrazione della calibrazione per garantire letture corrette. Molte apparecchiature richiedono una calibrazione periodica per garantire letture accurate e precise.

Per saperne di più

Precisione e precisione sono solo due concetti importanti utilizzati nelle misurazioni scientifiche. Altre due importanti abilità da padroneggiare sono figure significative e notazione scientifica. Gli scienziati usano l'errore percentuale come un metodo per descrivere quanto sia accurato e preciso un valore. È un calcolo semplice e utile.