Misura (misurazione)

Indice dei contenuti

    I processi conoscitivi con i quali l’uomo si pone in rapporto con le entità ed i fenomeni presenti nell’universo, si possono distinguere e classificare in base alle caratteristiche ed alle proprietà che tali entità e fenomeni manifestano. Per cui, tale valore associato alla grandezza in oggetto di studio, viene chiamato misura della grandezza fisica.

    Il risultato della misurazione è la misura. Di sovente, per questioni di semplicità, si parla di misura anziché di misurazione, ma è bene tener presente la differenza tra i due termini.

    Con il termine misurazione, invece, si indicano una serie di operazioni o procedimenti teorici o sperimentali aventi lo scopo di determinare quantitativamente il valore (numerico) di una grandezza fisica. La conoscenza della realtà che ci circonda è fondata sulla misura delle grandezze fisiche, infatti conoscere significa misurare.

    L’esecuzione di una misura richiede, teoricamente, un confronto tra la quantità incognita che si vuol misurare e una quantità nota, che è presa come campione di riferimento. Infatti il concetto di misura deriva dalla possibilità di fare il rapporto fra due grandezze fisiche omogenee di cui una è presa come campione o unità di misura; rapportando due grandezze A e B esiste sempre un determinato numero reale e razionale o irrazionale, tale che:

    il valore numerico di m si chiama misura di A rispetto a B e a tale risultato corrispondono alcune caratteristiche:

    • indicazione bruta: è il valore numerico fornito in uscita dall’ultimo stadio di uno strumento di misura, senza unità di misura;
    • misura bruta: è il valore numerico fornito dallo strumento di misura a cui è associata l’unità di misura della grandezza fisica misurata;
    • misura corretta: è quella misura che corrisponde alla misura bruta a cui è associata l’unità di misura (tale operazione si ottiene attraverso la curva di graduazione);
    • valore vero: è quel valore di una misurazione che corrisponde alla misura corretta senza incertezze (si ottiene tramite l’analisi delle misure e la presentazione dei dati di più misure corrette che siano le probabili).

    Metodi di misura

    Per metodo di misura si intende la sequenza logica di operazioni pratiche, impiegate nell’esecuzione della misurazione di grandezze fisiche in osservazione.

    Quanto migliore è il metodo di misura utilizzato e quanto migliori sono gli strumenti e la loro tecnologia, tanto più vicina alla realtà è la misura che descrive lo stato della grandezza fisica misurata. In linea di principio quindi la misura rappresenta la realtà fisica con una certa approssimazione, ovvero con un certo errore, errore che potrà essere reso piccolissimo ma mai nullo.

    Ci sono due possibilità per effettuare una misura:

    1. il metodo diretto di misura permette di ottenere il risultato della misura direttamente dalla lettura dello strumento utilizzato (in altre parole si ha un confronto diretto della grandezza da misurare con una grandezza omogenea scelta come campione), senza la necessità di conoscere esplicitamente valori di altri parametri, eccetto ovviamente quelli delle grandezze che influenzano la misura stessa; una misura ottenuta con il metodo diretto è ovviamente detta misura diretta;
    2. si parla invece di metodo indiretto di misura quando il risultato della misura è ottenuto per mezzo di una legge fisica misurando, per via diretta, le varie grandezze che in essa intervengono. Parliamo perciò in questo caso di una misura indiretta. Ad esempio, una misura di resistenza si può ottenere misurando la tensione ai suoi capi e la corrente attraverso di essa e facendo poi il rapporto.

    La maggior parte delle misure è ottenuta per via indiretta, quasi sempre per motivi di costo. Ad esempio, una misura di densità di una data sostanza potrebbe essere ottenuta direttamente tramite un apparecchio che si chiama densimetro, ma è decisamente più comodo misurare direttamente la massa ed il volume della sostanza e farne poi il rapporto.

    Il vantaggio delle misure dirette consiste essenzialmente nel fatto che con esse è più difficile compiere errori grossolani, in quanto lo strumento necessario per compiere il confronto è in generale semplice, e pertanto non soggetto a guasti occulti.

    Le misurazioni indirette, invece, hanno la caratteristica di essere maggiormente soggette al compimento di approssimazioni in quanto nell’applicazione della formula che rappresenta la legge fisica è presente la propagazione degli errori. Occorre pertanto porre attenzione particolare alle approssimazioni che si compiono quando si eseguono le misure dirette.

    Si definiscono inoltre misurazioni con strumenti tarati, quelle effettuate a mezzo di uno strumento, e cioè un dispositivo atto a memorizzare definitivamente il campione con il quale viene confrontata la grandezza in esame. Nel caso di strumenti tarati, in generale, lo strumento è sensibile a grandezze non omogenee con quella da misurare.

    Grandezze di influenza nelle misure

    In Metrologia, nei casi in cui le condizioni ambientali di reale utilizzazione del trasduttore si discostino in modo rilevante dalle condizioni ambientali di calibrazione occorrerà tenere conto degli effetti dovuti alle grandezze di influenza. In questi casi si dovranno condurre prove specifiche su di una popolazione dei trasduttori oppure, almeno, su di un solo esemplare di trasduttore.

    Appare necessario evidenziare che occorre porre attenzione alle condizioni ambientali non solo durante l’esercizio del sensore ma anche durante le precedenti fasi quali lo stoccaggio ed il trasporto; dette condizioni ambientali, se non controllate e verificate possono alterare significativamente e, soprattutto, in modo imprevedibile le prestazioni metrologiche del trasduttore.

    Talune delle principali grandezze di influenza che si manifestano nelle misure meccaniche e termiche sono qui di seguito richiamate.

    Effetti dovuti alla temperatura

    Per ogni trasduttore viene indicato il campo di variazione della temperatura di lavoro all’interno del quale può essere utilizzato senza determinarne un danneggiamento.

    In detto campo di utilizzo vengono generalmente forniti dal costruttore gli andamenti sia della deriva di zero che della deriva della sensibilità; infatti, ad esempio, nelle misure condotte con estensimetri a resistenza sono forniti sia gli andamenti della deformazione apparente in funzione della temperatura (deriva di zero) che il coefficiente di sensibilità del fattore di taratura in funzione della temperatura (deriva della sensibilità).

    Un ulteriore metodo che consente di esprimere il modo sintetico l’effetto dovuto alla temperatura è la individuazione di un intervallo di variazione dell’errore da essa dovuta, che viene espresso ad esempio in percentuale del fondo scala.

    Occorre anche conoscere il valore massimo e minimo della temperatura alla quale può essere esposto il trasduttore senza che si abbia un danneggiamento permanente dello stesso, ossia senza che le caratteristiche metrologiche vengano a variare. Variazioni della temperatura ambiente non solo determinano effetti sulle caratteristiche metrologiche statiche ma anche su quelle dinamiche. Infatti occorre che i valori forniti dal costruttore siano riferiti ad uno specifico campo di variazione della temperatura.

    Tuttavia la temperatura manifesta effetti che possono anche essere significativi quando si abbiano sue variazioni a gradino.

    Effetti dovuti all’accelerazione

    Gli errori causati dalla accelerazione possono manifestarsi sia direttamente sull’elemento sensibile, sia sugli elementi di connessione o di supporto e possono essere di entità tale da indurre deformazioni da rendere prive di significato le misure condotte.

    In generale, i trasduttori mostreranno una sensibilità alle accelerazioni più rilevante secondo alcuni assi, è necessario quindi indicare la terna degli assi di riferimento scelta ed esprimere l’errore dovuto alla accelerazione.

    Viene definito come errore di accelerazione la massima differenza tra l’uscita del sensore in assenza ed in presenza di una specificata accelerazione costante applicata secondo un determinato asse.

    Infine è opportuno specificare che alcuni sensori mostrano una sensibilità alla accelerazione di gravità così che la disposizione del trasduttore rispetto al campo gravitazionale costituisce una importante condizione di vincolo.

    Effetti dovuti alle vibrazioni

    La variazione della frequenza delle vibrazioni, applicate secondo uno specifico asse di riferimento, può determinare (ad esempio per fenomeni di risonanza, eccetera) rilevanti effetti nell’output del segnale fornito dal trasduttore.

    Per esprimere in modo sintetico l’effetto dovuto alle vibrazioni occorrerà definire la variazione massima nell’output, per ogni valore della grandezza fisica in ingresso, quando una specifica ampiezza della vibrazione, e per un determinato campo di frequenze, è applicata secondo un asse del trasduttore.

    Effetti dovuti alla pressione ambiente

    Talvolta si può verificare che il trasduttore debba operare in condizioni alle quali la pressione è significativamente diversa dalla pressione alla quale è stata condotta l’operazione di calibrazione, che in generale è pari alla pressione ambiente.

    Pressioni relativamente diverse da quelle alle quali sono state condotte le prove di calibrazione possono determinare variazioni della geometria interna del trasduttore così da variare le caratteristiche metrologiche fornite dal costruttore.

    Appare forse non necessario ricordare che risulta ben più grave uno scostamento dalle condizioni di calibrazione piuttosto che da un danneggiamento del trasduttore che, invece, è facilmente individuabile dallo sperimentatore.

    Si definisce come errore dovuto alla pressione la massima variazione dell’output del trasduttore, per ogni valore della grandezza in ingresso compreso nel campo di misura, quando la pressione alla quale opera il trasduttore viene fatta variare in specificati intervalli.

    Effetti dovuti alla messa in esercizio del trasduttore

    Si può presentare la circostanza in cui una non attenta messa in esercizio del trasduttore possa causare danni allo stesso (deformazioni della struttura, ad esempio) tali da variare le condizioni di funzionamento del trasduttore.

    Ovviamente non sono disponibili dal costruttore dati relativi a detta causa di errore ed occorre che l’utente si assicuri dell’accurata e corretta installazione del dispositivo.

    Errori di misura

    In Metrologia l’analisi degli errori comprende lo studio delle incertezze nelle misure, in quanto, nessuna misura per quanto essa sia eseguita con cura è completamente libera da incertezze.

    Dal momento che tutte le scienze e la tecnica dipendono dalle misura, è fondamentale valutare e calcolare con buona approssimazione tali incertezze (errori) per ridurle al minimo possibile.

    Classificazione degli errori di misura

    Gli errori di misura possono essere classificati come segue:

    Errori di misura grossolani

    Gli errori grossolani sono quelli addebitabili a imperizia o distrazione dell’operatore che sta compiendo la misura; possono ad esempio derivare da una sbagliata lettura o da un uso improprio degli strumenti, oppure da trascrizioni errate dai dati sperimentali o anche da errate elaborazioni di tali dati.

    È evidente perciò che tali errori non si presentano quando si opera con cura e attenzione e comunque possono essere eliminati semplicemente ripetendo la misura.

    Errori di misura accidentali

    Gli errori accidentali (detti anche non sistematici o casuali) sono quelli che permangono anche nell’ipotesi di essere riusciti ad eliminare tutti gli errori grossolani e sistematici. Le cause di tali errori sono tipicamente le imprevedibili fluttuazioni nelle condizioni operative, strumentali ed ambientali.

    Gli errori accidentali possono essere analizzati statisticamente, in quanto si è visto empiricamente che essi sono generalmente distribuiti secondo leggi semplici. In particolare, si fa spesso l’ipotesi che le cause di tali errori agiscano in modo del tutto aleatorio, determinando perciò scarti, rispetto al valore medio, sia negativi sia positivi. Questo ci autorizza ad aspettarci che gli effetti mediamente si annullino, ossia sostanzialmente che il valore medio degli errori accidentali sia nullo.

    Questa considerazione ha una conseguenza fondamentale: se riusciamo a correggere tutti gli errori grossolani e quelli sistematici, per cui avremo a che fare solo con errori accidentali, ci basterà compiere misure ripetute e poi mediare i risultati: quante più misure considereremo, tanto meno il risultato finale (media dei singoli risultati) sarà affetto da errori accidentali.

    Quanto più piccoli risultano gli errori accidentali, tanto più si dice che la misura è precisa.

    In generale, dunque, nell’ipotesi di aver eliminato ogni tipo di errore grossolano, possiamo affermare che l’errore di una misura è somma di un errore sistematico (che si ripete ogni misura, in uguali condizioni operative) e di un errore accidentale (che invece varia casualmente in ogni misura, anche se le condizioni operative rimangono immutate):

    E = ES + EA

    Somma degli errori accidentali (o casuali)

    I valori degli errori accidentali sono normalmente preceduti dal segno + o dal segno −; per ottenere la somma totale di questi errori si dovrà valutare la radice quadrata della somma dei quadrati del contributo di ciascun errore:

    La somma di detti errori è chiamata errore residuo. In Metrologia si definisce errore residuo quell’errore di misura dato dalla somma di tutti gli errori casuali riscontrati durante il procedimento di misurazione.

    L’errore residuo può essere valutato sia a posteriori che a priori. Il metodo di valutazione dell’errore residuo a posteriori consiste nell’applicare i risultati del calcolo delle probabilità ad una popolazione di misure (affette solo da errori accidentali) onde ricavarne il valore più probabile. Lo svantaggio più evidente di tale metodo è legato alla necessità di effettuare un numero molto grande di osservazioni.

    Il metodo di valutazione dell’errore residuo a priori consiste nel valutare singolarmente il contributo fornito dall’errore accidentale da ogni possibile causa sia interna che esterna allo strumento stesso. La validità del metodo a priori è legata alla possibilità di conoscere in modo completo tutte le grandezze che accidentalmente influiscono sulla misura. Nella pratica, la valutazione del contributo di ciascuna di queste grandezze, che per tale motivo vengono dette grandezze d’influenza, è possibile a patto di poter annullare l’effetto di tutte le grandezze tranne quella della quale si vuole valutarne l’influenza sulla misura.

    Si definisce, invece, errore relativo di una misura il rapporto tra errore assoluto (differenza tra valore misurato e valore vero della grandezza) ed il valore misurato per la grandezza; viene normalmente espresso in percentuale.

    Si osserva che nella pratica l’errore relativo è il più utilizzato in quanto fornisce immediatamente l’idea dell’importanza dell’errore commesso nel compiere una misurazione.

    Errori di misura sistematici

    Gli errori sistematici sono quelli che si ripresentano sempre con lo stesso segno e la stessa ampiezza, ove ovviamente la misura di una grandezza venga ripetuta più volte con la stessa strumentazione e nelle stesse condizioni operative ed ambientali.

    Un errore viene detto sistematico se è nota la relazione funzionale tra l’entità dell’errore e l’intensità della grandezza fisica che ne è la causa.

    L’errore sistematico è per sua natura valutabile in modo preciso e la sua conoscenza permette il passaggio dalla misura bruta alla misura corretta, tramite la curva di taratura. Una volta effettuata detta correzione, la misura rimane ancora affetta da un errore residuo dato dalla somma di tutti gli errori casuali.

    Questi errori sono generalmente dovuti ad una non corretta taratura degli strumenti oppure a difetti intrinseci degli strumenti stessi (ad esempio, possono esserci dei difetti costruttivi oppure dei malfunzionamenti derivanti dall’aver usato gli strumenti in particolari condizioni operative o ambientali; elevate temperature, forti campi elettromagnetici, sovraccarichi e così via); questo significa, sostanzialmente, che in talune situazioni è possibile correggere tali errori o comunque minimizzarli.

    Errori statici

    Vengono definiti errori statici quegli errori valutati in condizioni statiche, ossia, mediante effettuazione della misurazione di una grandezza costante; essi sono:

    Errori dinamici

    Viceversa, nel caso in cui vengano misurate grandezze “dinamiche” (variabili) si aggiungono le seguenti cause di errore dinamico:

    Voci correlate

    Traduzioni

    IngleseMeasurement
    SpagnoloMedición
    FranceseMesure physique
    TedescoMessung

    Aiutaci a migliorare

    ...a breve verrà data la possibilità di segnalare errori o collaborare a questo progetto enciclopedico.