Attributo R&R del calibro

Tempo di lettura

La R&R degli attributi si riferisce specificamente alle caratteristiche degli attributi, cioè alle caratteristiche che sono categorizzate piuttosto che misurate numericamente. Ad esempio, caratteristiche come la conformità a una specifica, la presenza o l'assenza di un difetto, ecc. 

La Standard MSA (Measurement System Analysis), fornisce linee guida e metodologie per valutare e migliorare l'affidabilità di un sistema di misura, sia per misure continue che per attributi. Per le caratteristiche degli attributi, la MSA propone metodi specifici per valutare la ripetibilità e la riproducibilità, in particolare utilizzando il metodo degli attributi Gage R&R con l'indicatore Kappa di Cohen (vedi dettagli). 

Secondo lo standard MSA, per eseguire uno studio di attribuzione Gage R&R, in genere si raccomandano le seguenti fasi: 

  • Selezione delle caratteristiche degli attributi Identificare le caratteristiche dell'attributo che si desidera valutare. Esempio: aspetto  
  • Definizione di categorie Definire chiaramente le categorie o le classificazioni per ogni caratteristica dell'attributo. (CF/NCF) / (OK/KO) ecc... 
  • Selezione degli operatori Scegliere gli operatori che effettueranno le misurazioni. È importante che questi operatori siano rappresentativi di coloro che utilizzeranno il sistema di misurazione nella pratica. 
  • Raccolta dati Misurare le caratteristiche degli attributi di un campione di pezzi utilizzando il sistema di misura in questione. Questa fase richiede che un esperto caratterizzi i campioni prima dello studio Gage R&R. Poi ogni operatore deve misurare ogni pezzo. 
  • Analisi dei dati Utilizzare metodi statistici appropriati per scomporre la variazione totale in componenti attribuibili alla ripetibilità (variazione dovuta allo stesso operatore) e alla riproducibilità (variazione dovuta a operatori diversi). 
  • Interpretazione dei risultati Valutare la percentuale di variazione totale attribuibile alla ripetibilità e alla riproducibilità. Se queste componenti della variazione sono piccole rispetto all'intervallo di tolleranza della caratteristica, il sistema di misura è considerato affidabile per le caratteristiche dell'attributo. 

Kappa di Cohen 

Le Coefficiente kappa di CohenIl coefficiente kappa, spesso indicato semplicemente come "kappa", è una misura statistica utilizzata per valutare l'accordo tra due osservatori o metodi di misurazione nella classificazione di elementi in categorie discrete. È ampiamente utilizzato nella ricerca medica, nell'epidemiologia, nella psicologia e in altre discipline in cui l'accordo tra osservatori o metodi è importante. 

Il coefficiente kappa tiene conto sia dell'accordo effettivo tra gli osservatori sia dell'accordo che potrebbe essere dovuto al caso. Corregge quindi il semplice tasso di accordo lordo tenendo conto della probabilità di accordo dovuta al caso. 

Il coefficiente kappa viene calcolato con la formula : 

Kappa =\frac{P_{0}-P_{e}}{1-P_{e}}

  • 𝑃0 è la percentuale di accordo osservata tra gli osservatori. 
  • 𝑃𝑒 è la percentuale di concordanza attesa dovuta al caso. 

Il coefficiente kappa può variare da -1 a 1, dove : 

  • Kappa = 1, indica un perfetto accordo tra gli osservatori. 
  • Kappa=0, indica un accordo equivalente a quello che si potrebbe ottenere per caso. 
  • Kappa=-1, indica un completo disaccordo tra gli osservatori. 

Efficienza : 

L'efficacia di un metodo di misurazione degli attributi quantifica il tasso di decisioni corrette rispetto al numero complessivo di opportunità. 

Efficienza = \frac{testo{numero di decisioni corrette}}{testo{numero di parti ispezionate}}

Tasso di errore : 

Il tasso di errore esprime la frequenza con cui un pezzo non conforme viene erroneamente considerato conforme dall'operatore. 

Tasso di errore = \frac{{testo{numero di decisioni "conformi" sapendo che il pezzo è "non conforme"}}}{{testo{numero di opportunità per un pezzo non conforme}}.

Tasso di falsi allarmi : 

Il tasso di errore esprime la frequenza con cui una parte conforme viene erroneamente considerata non conforme dall'operatore. 

Falsi allarmi = \frac{{testo{numero di decisioni "non conformi" sapendo che la parte è "conforme"}}}{{testo{numero di opportunità per una parte conforme}}.