My Work IS My Passion.

METROLOGIA

Tabella dei Contenuti

Nella vita quotidiana utilizziamo, anche in modo inconsapevole, i concetti teorici e pratici che sono alla base della metrologia, infatti, basti pensare agli aspetti legali e tecnici che sono implicitamente nascosti durante l’azione di misura, come ad esempio in alcuni campi il risultato della misura potrebbe determinare delle azioni legali.

INTRODUZIONE

Il concetto di misura nasce dalla necessità di poter confrontare gli attributi di due diversi corpi o fenomeni fisici, come ad esempio il confronto tra la lunghezza di due oggetti. L’esperienza ha mostrato che nessuna misura, per quanto fatta con cura, può essere completamente libera da errori. Nella scienza la parola errore non implica il solito significato di sbaglio o svista.

Errore in una misura scientifica significa l’inevitabile incertezza che è presente in tutte le misure: nessuna grandezza fisica può essere misurata con completa certezza. L’errore è, per definizione, la differenza tra il valore vero e il valore misurato della grandezza in esame. Il meglio che si possa fare è assicurarsi che gli errori siano il più ragionevolmente piccoli possibile, e avere qualche stima realistica di quanto essi sono grandi. Vedremo in questo capitolo come si presentano, quali sono le principali cause, come caratterizzano la misura, in che modo si calcolano e come vengono espressi.

Leggere anche gli articoli: L’INTERRUTTORE DIFFERENZIALE e PROGETTO INTEGRA.

DEFINIZIONI

METROLOGIA LEGALE E TECNICA

Secondo il Vocabolario Internazionale delle Misure, UNI CEI U37.00.001.0 del 1990, la metrologia è il campo della conoscenza che riguarda le misurazioni: la metrologia comprende tutti gli aspetti teorici e pratici che riguardano le misurazioni, qualunque sia il livello di accuratezza, in ogni campo della scienza e della tecnologia.

La metrologia si divide in due grossi campi di applicazione:

  • la metrologia legale è il settore della scienza della misura che si occupa delle unità, dei metodi e degli strumenti di misura ed è finalizzata a garantire la correttezza delle misure utilizzate per le transazioni commerciali e più in generale, a garantire la pubblica fede in ogni tipo di rapporto economico che per la sua esplicazione prevede l’utilizzo di uno strumento per pesare o per misurare;
  • la metrologia tecnica – scientifica che si distingue da quella legale perchè si occupa di effettuare studi e ricerche finalizzati alla realizzazione e disseminazione dei campioni primari delle unità di misura. Essa ha il compito di svolgere e promuovere attività di ricerca scientifica, si occupa di scienza delle misure e dei materiali, sviluppa tecnologie e dispositivi innovativi. Inoltre si occupa di trasferirla nei centri di taratura che potranno curare la disseminazione delle unità di misura realizzate con i campioni nazionali.

Di seguito si riportano alcuni esempi di strumenti di misura che rientrano nella gestione della metrologia legale:

  • bilance meccaniche ed elettroniche;
  • misurazioni di carburanti liquidi;
  • contatori di misura del gas;
  • contatori di energia elettrica;
  • autovelox.

Diversi sono i motivi o le finalità per cui si effettua una misura:

  • finalità commerciali (regolazione degli scambi commerciali);
  • finalità scientifiche (conoscenza delle leggi fisiche definendo mediante misurazioni le proprietà dei materiali e verificando le leggi descrittive della fisica);
  • finalità industriali (regolazione e controllo, monitoraggio e verifica dei parametri dei processi di produzione).

DEFINIZIONI (UNI 4546)

Prima di addentrarci nello studio della metrologia dobbiamo acquisire alcune definizioni con lo scopo di armonizzare ed utilizzare una nomenclatura comune:

  • il parametro è ogni grandezza, pertinente a un sistema fisico, alla quale è necessario assegnare valori per descrivere:
    • il sistema stesso e il suo stato;
    • la sua evoluzione;
    • le sue interazioni con altri sistemi e con l’ambiente.
  • il misurando è quello oggetto fisico o parametro su cui effettuare la misura; generalmente il misurando viene rappresentato attraverso un modello matematico;
  • la misurazione è il processo di misura per determinare in maniera quantitativa una proprietà del misurando;
  • la misura è il risultato della misurazione;
  • la strumentazione è il dispositivo che consente di eseguire la misurazione;
  • l’operatore coordina e supervisiona la sequenza di operazioni previste dal metodo di misura impiegato, legge le indicazioni degli strumenti, elabora le letture per ottenere il risultato della misura; l’operatore potrebbe non essere un umano e in questo caso si parla di sistema automatico di misura.

ERRORI E CAUSE D’ERRORE

Il confronto di una grandezza fisica con l’unità di misura è reso particolarmente semplice ed immediato con l’utilizzo di strumenti di misura, cioè apparecchi dove l’unità di misura è riprodotta su di essi e dove un indice (strumenti analogici) o un numero su un display (strumenti digitali) fornisce direttamente la misura.

Le principali caratteristiche di uno strumento di misura sono:

  • portata: indica l’intervallo di misura entro cui lo strumento può operare. Se si usa uno strumento per misure superiori alla sua portata si rischia di rovinarlo!
  • sensibilità: è la più piccola variazione della grandezza che lo strumento permette di rilevare. Pertanto la sensibilità di uno strumento è la sua capacità a rispondere prontamente a variazioni della grandezza da misurare normalmente portata e sensibilità sono caratteristiche contrastanti tra loro nel senso che a strumenti di misura con grande portata corrisponde una scarsa sensibilità e viceversa.;
  • precisione: è il rapporto tra la sensibilità dello strumento e la portata;
  • prontezza: è il tempo che uno strumento impiega per fornire una misura.

L’esperienza ha mostrato che nessuna misura, per quanto fatta con cura, può essere completamente libera da errori. Nella scienza la parola errore non implica il solito significato di sbaglio o svista. Errore in una misura scientifica significa l’inevitabile incertezza che è presente in tutte le misure: nessuna grandezza fisica può essere misurata con completa certezza. L’errore è, per definizione, la differenza tra il valore vero e il valore misurato della grandezza in esame. Il meglio che si possa fare è assicurarsi che gli errori siano il più ragionevolmente piccoli possibile, e avere qualche stima realistica di quanto essi sono grandi. Le possibilità di commettere un errore durante una misura sono molteplici, ed è necessario, quindi, incominciare a mettere un po’ di ordine nella valutazione degli errori, riunendoli in due sole categorie fondamentali:

  • errori sistematici;
  • errori accidentali o casuali.

ERRORI SISTEMATICI

Gli errori sistematici sono quelli che compaiono in ogni singola misura e possono essere:

  1. errori strumentali, legati all’utilizzo di strumenti poco precisi (ogni strumento è contraddistinto da una classe che ne indica il grado di precisione), mal tarati o non adatti alla misura che si deve effettuare;
  2. errori soggettivi, provocati dalla poca abilità o dalla negligenza dello sperimentatore, quali errori di lettura, di apprezzamento ecc.;
  3. errori ambientali, determinati da fattori esterni come, per esempio, la presenza di fonti di calore, campi magnetici esterni ecc.

Essi influiscono sulla misurazione sempre nello stesso senso e, solitamente, per una stessa quantità.

ERRORI CASUALI

Gli errori casuali non si possono né prevedere né evitare e affliggono la misura con valori che possono risultare a volte minori e a volte maggiori di quelli reali. Questi errori possono essere provocati anche da brevi e imprevedibili variazioni di fattori ambientali, come la pressione, l’umidità o la temperatura dell’aria, di cui lo sperimentatore non ha tenuto conto durante l’esecuzione della misura. Questo tipo di errore può influire sulla misura, a seconda dei casi, in un senso o nell’altro; esso può essere ridotto al minimo ripetendo più volte la misura e facendo poi la media aritmetica dei valori trovati.

Le differenze tra le due tipologie di errori, sistematici e accidentali, introducono i concetti di accuratezza e di precisione della misura. Una misura viene definita:

  • accurata, quando la si effettua utilizzando strumenti idonei e in adatte condizioni ambientali;
  • precisa se l’operatore può determinare l’incidenza degli errori, dai quali essa è affetta, o quando, ripetendo più volte la misura, i risultati ottenuti siano sostanzialmente concordanti, cioè differiscano in maniera irrilevante tra loro.

Da queste osservazioni emerge una considerazione: non è detto che una misura precisa possa considerarsi sempre anche accurata.

METODI DI MISURAZIONE

L’esecuzione di una misurazione comporta diverse fasi:

  1. la prima fase è quella dell’impostazione teorica, che richiede una conoscenza preventiva del fenomeno in esame, e che consente di determinare il principio di misurazione da adottare;
  2. il principio scelto viene quindi tradotto in una sequenza logica di operazioni (metodo di misurazione) ed eventualmente anche in una descrizione dettagliata delle operazioni da eseguire (procedura);
  3. segue, infine, la realizzazione sperimentale del metodo, utilizzando la strumentazione opportuna ed assemblata.

Ogni processo di misurazione è caratterizzato da una certa variabilità dovuta a due cause principali:

  • il misurando ha una variabilità intrinseca durante il processo di misurazione (es. un segnale variabile nel tempo);
  • il sistema di misura, il metodo di misura e/o l’operatore possono introdurre delle variabilità.

I metodi di misurazione in metrologia possono essere classificati in diversi modi. In funzione di come viene determinato il valore delle grandezze si hanno i seguenti metodi:

  • metodo diretto la misura della grandezza è ottenuta direttamente, senza misurare altre grandezze ad essa legate, es. misurazione di una tensione direttamente con un voltmetro;
  • metodo indiretto la misura della grandezza è ottenuta a partire dalla misurazione diretta di altre grandezze che sono legate ad essa mediante relazioni funzionali, es. misurazione indiretta di una resistenza, a partire dai valori ottenuti con la misurazione diretta della tensione e della corrente e dalla legge di Ohm.

Volendo, invece, considerare il modo in cui avviene la misurazione si ha:

  • misurazione fondamentale in cui il valore misurato è ottenuto dalla misurazione di una delle grandezze fondamentali del Sistema di Unità di Misura (es. massa, lunghezza, tempo,..);
  • misurazione con il metodo del confronto la misura è ottenuta mediante confronto con una grandezza della stessa specie e di valore noto; ci sono diversi metodi di confronto:
    • differenziale: si esegue un confronto tra la grandezza in esame ed una grandezza della stessa specie e di valore prossimo ad essa e si determina solo la differenza tra le due;
    • sostituzione: la grandezza in esame viene sostituita nel circuito di misura da una grandezza della stessa specie e dello stesso valore e viene verificato che lo strumento dia la stessa indicazione;
    • zero: la misurazione si esegue bilanciando una grandezza mediante la variazione di una o più grandezze di valore noto, legate alla prima mediante relazioni matematiche note. La condizione di bilanciamento è visualizzata dall’indicazione di zero di un appropriato strumento (es. bilanciamento dei ponti per la misurazione di resistenze o di impedenze, tecniche potenziometriche per la misurazione di tensioni).

I metodi di misurazione sono anche classificati come a lettura:

  • singola: la misura viene ottenuta effettuando un’unica misurazione;
  • ripetuta: la misura viene ottenuta effettuando un’analisi statistica sulla distribuzione dei dati ottenuti ripetendo la misurazione in condizioni nominalmente uguali.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Share the Post:

Post Corelati

TiSystem 8

L’azienda bTicno rilascia la versione del suo SW più famoso: TiSystem 8. La novità più grande che è un applicativo web: TiSystem 8 pertanto è fruibile via web da qualsiasi dispositivo, PC o tablet anche in mobilità tramite un browser come Google Chrome, Microsoft Edge, Mozilla Firefox o Safari. L’interfaccia e l’esperienza utente sono del tutto simili a quelle di TiSystem 7 che a sua volta si è ispirato alla versione 5 questo per garantire agli utenti abituali una continuità nell’utilizzo del SW e per dare ai nuovi utenti la migliore esperienza maturata negli ultimi 30 anni da Bticino.

Read More

AVVIAMENTO DIRETTO DI UN MOTORE ASINCRONO TRIFASE

L’avviamento diretto di un motore asincrono trifase (MAT), secondo la norma CEI EN 60947-4-1 (CEI 17-50), avviene quando lo stesso viene collegato direttamente e in un’unica manovra alla rete di alimentazione. Nel momento della chiusura del circuito, il motore assorbe una corrente superiore a quella nominale, chiamata corrente di spunto; tale corrente ha la funzione di sviluppare una coppia di spunto, la quale, se è superiore alla coppia resistente, determina la rotazione immediata del motore.

Read More