














Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
Este capítulo aborda a avaliação de pressupostos na modelagem da curva de calibração, o mínimo valor detectável e quantificável, assim como as incertezas relacionadas à obtenção e utilização da curva de calibração em métodos analíticos. Além disso, é apresentada a função de calibração e a análise da resposta como função da concentração, incluindo a detecção de dados discrepantes e a análise de regressão.
Tipologia: Notas de aula
1 / 22
Esta página não é visível na pré-visualização
Não perca as partes importantes!
A calibração é muitas vezes considerada como uma maneira de estabelecer a exatidão de um sistema de medição, ou seja, o grau de concordância entre o resultado de uma medição e um valor verdadeiro convencional do mensurando (Vocabulário internacional de termos fundamentais e gerais de metrologia, 2000). Na realidade, a calibração é um processo que compara valores de dois ou mais sistemas de medição. O primeiro é o sistema de referência, ou laboratório, e o segundo o sistema de medição que está sendo calibrado, por exemplo. No procedimento de medição química a comparação pode ser feita usando medições obtidas do mesmo Material de Referência Certificado, MRC. Considera- se que cada quantidade do MRC utilizada é a mesma, pelo menos no que diz respeito às propriedades do analito, embora se saiba que existem incertezas até mesmo para duas quantidades de um mesmo material. Quando amostras são utilizadas para calibração, a homogeneidade é crítica e a contribuição da variabilidade do MRC deve ser declarada no resultado analítico do laboratório. Utiliza-se a regressão estatística para avaliar o sistema de calibração e suas incertezas associadas. O modelo linear de regressão assume que a variável aleatória x é conhecida e a variável dependente y é desconhecida. Através dos mínimos quadrados calcula-se as estimativas do coeficiente angular e do intercepto da curva de regressão resultante. Este modelo é utilizado para predizer os valores de y a partir dos valores de x. Já no procedimento de medição química, a calibração é mais complexa, pois os valores de y são utilizados para predizer os valores de x, sendo assim denominada regressão inversa. Os pressupostos na obtenção da curva de calibração são: linearidade do modelo; erro somente em y; erros aleatórios e com variância homogênea; e erros com distribuição probabilística normal.
Neste capítulo serão abordadas: a avaliação dos pressupostos na modelagem da curva de calibração; o mínimo valor detectável ; o mínimo valor quantificável e as incertezas decorrentes da obtenção e utilização da curva de calibração, como a primeira parte do processo de validação do método analítico.
3. Sinal observado e função de calibração
A função de calibração é definida como a relação funcional do procedimento de medições químicas que se refere ao valor esperado do sinal observado, y, ou variável resposta, E(y), dada uma certa quantidade de analito x. O gráfico correspondente é denominado de curva de calibração (ou curva analítica) , para dados multivariados, superfície de calibração. A curva de calibração é uma função monótona da resposta, y, determinada pelos métodos de estimação, com a pressuposição de que a variância da resposta seja constante para diferentes níveis de quantidade. Para a curva de calibração linear, o sinal observado ou resposta, y, é dado por: y = F(x)+ ey (3.1) Com F(x) = B +Sn (3.2) Ou F(x) = B +Ax (3.3) Onde: Sn denota o sinal (puro sem ruído); B, o sinal do branco; x, quantidade de analito ou concentração; A é chamado de sensibilidade; e ey é o erro aleatório, que segue uma distribuição normal com média zero e desvio- padrão σ, ou seja, ey ~ N(0, σ^2 ).
A estimativa do sinal é dada por: Bˆ^ ± Bf SB (3.4)
tem sua delimitação por vários efeitos, entre os quais o sistema de resposta do instrumento. A faixa de trabalho é determinada por regressão, utilizando-se o método dos mínimos quadrados; a quantidade ou concentração do analito pertencente a esta faixa deve ter uma relação linear com a resposta ou sinal. Sendo necessárias dez amostras independentes para pelo menos seis concentrações do material de referência (EURACHEM, 2000), para a determinação da faixa de trabalho. A linearidade da curva de calibração , é determinada pelo ensaio de amostras que possuem concentrações de analito dentro da faixa de trabalho pretendida. A curva de calibração é muitas vezes dada apenas pela faixa linear da curva que relaciona a resposta ou sinal com a quantidade ou concentração do analito. Se a curva de calibração não é linear, o valor da sensibilidade varia com a concentração do analito, enquanto que, trabalhando na faixa linear, o valor da sensibilidade fica constante em toda essa faixa. Isso possui várias vantagens, em particular no caso de aparelhos analógicos que convertem internamente e de maneira automática o sinal em quantidade ou concentração e trabalham com uma função linear, não admitindo outra forma de função. Por essas razões, muitas vezes na prática, trabalha-se apenas na faixa linear. Avalia-se a linearidade da curva de calibração pelo teste de ajustamento, que consiste em decompor a variância total em três componentes devida à regressão, ao modelo e aos resíduos (Neto, 2001; Seber 1977). Considera-se que, em cada concentração j, o modelo gera n resíduos, um para cada medição; assim, para b concentrações, têm-se as seguintes somas de quadrados residuais: Soma de quadrados dos resíduos (SQ (^) R ) na concentração j: = ∑= −
n k 1
(SQR )j (yjk yˆj.)^2 Soma de quadrados residuais: =∑= = ∑∑= = −
b j 1
n k 1
b jk j. 2 R (^) j 1 R j SQ (SQ ) (y yˆ )
Cada resíduo individual pode ser decomposto algebricamente na diferença de dois termos: (y (^) jk − yˆj.)=(yjk−yj.)−(yˆj.−yj.) (3.8)
onde y (^) j.é a média das respostas observadas na concentração j.
Pode-se demonstrar que o somatório dos termos cruzados se anula quando se eleva a equação (3.8) ao quadrado, obtendo-se:
∑∑= = − =∑∑= = − + ∑∑= = −
b j 1
n k 1
b j. j. 2 j 1
n k 1
b jk j. 2 j 1
n k 1
( yjk yˆj.)^2 (y y) (yˆ y ) (3.9)
O primeiro somatório do lado direito reflete apenas a dispersão do sinal (resposta), y (^) jk, em torno de suas média, y , oferecendo uma medida do erroj.
aleatório, e sendo, portanto, denominado de S oma de Quadrados devido ao Erro Puro, SQ (^) EP. O segundo somatório decorre do modelo e sua magnitude depende do afastamento da estimativa da concentração, yˆ (^) j., da respectiva média, y .j.
Esse termo fornece uma medida da falta de ajuste do modelo às respostas observadas, sendo chamado por isso de Soma de Quadrados devido à Falta de Ajuste - SQ (^) Faj. Assim, com a decomposição da soma de quadrados obtém-se a Tabela de análise de variância, indicada na Tabela 3.1.
Tabela 3.1. Análise de variância para o ajuste, pelo método dos mínimos quadrados, de um modelo linear nos parâmetros (n = número de medições, b = número de concentrações e p = número de parâmetros do modelo).
Fonte De Variação
Graus De liberdade SQ QM F Regressão p-1 SQReg SQReg /(p-1) QM (^) Reg /QM (^) r Resíduo nb-p SQr SQr /(nb-p) Falta de Ajuste b-p SQFaj SQFaj /(b-p) QM (^) Faj/QM (^) EP Erro Puro nb - b SQEP SQEP /(nb-b) Total nb -1 SQTotal % variação explicada: SQ (^) Reg /SQTotal % máxima de variação explicável : (SQ (^) Total – SQEP )/SQTotal
O mínimo valor detectável, LD , (limite de detecção) referente à concentração , xD ou sinal , y (^) D, é o menor valor tal que:
O mínimo valor quantificável , LQ, (limite de quantificação) é o menor valor cujo DPRQ (desvio-padrão relativo, definido como σQ/VQ , sendo VQ referente à concentração , xD ou ao sinal , y (^) D ) é igual ao máximo tolerado. De acordo com a ISO e a IUPAC, os valores convencionalmente para α e β são de 5% e o valor é de 10% para DPRQ (Currie,1999). Assim, DPRQ=σQ / LQ = 0,1 (3.12) como kQ = 1/ DPRQ e pela expressão (3.12) kQ =10; logo, LQ = 10σQ (3.13) Se Lˆ é normalmente distribuída com variância conhecida σ 0 =σD, então: LC = z1-α σD (3.14) LD = LC+ z1-β σD (3.15) Onde z1-α e z1-β representam valores críticos da distribuição normal padrão e σD é o desvio-padrão da quantidade estimada (sinal ou concentração), sob a hipótese nula (ausência do analito). Como a variância é constante entre L = 0 e L = LD , então (3.15) se reduz a: LD = (z1-α + z1-β)σD (3.16) Considerando α = β = 5%, pode-se observar na Figura 3.
Figura 3.1. Relação entre o valor crítico e o mínimo valor detectável LD = 2z1-α σD (3.17) Ou seja: LD = 3,29σD (3.18)
2LC
0 LC LD Sinal
fdp
Se a função de calibração F(x) for monótona, com as incertezas de seus parâmetros desprezíveis, o mínimo valor detectável referente à concentração, xD , pode ser calculado a partir de F -1^ (y (^) D), onde y (^) D é mínimo valor detectável referente ao sinal , com y (^) D = B+SnD (3.19) e SnD o sinal de detecção. Para F(x) linear (3.2), F(x) = B+Ax, x (^) D é obtido como:
A x SnD D =^ (3.20)
A x yD B D
Pressupondo normalidade e homogeneidade de variância, segue que:
A x 2 SnC D =^ (3.22)
com Sn (^) C o sinal crítico. Se α = 5% e β= 5%, tem-se que
A x 3 ,^29 D D = σ (3.23) Nas mesmas condições anteriormente mencionadas, o mínimo valor quantificável referente à concentração , xQ , pode ser obtido por:
A x 10 D Q = σ (3.24)
Avaliação da curva de calibração
A curva de calibração representa a relação entre a concentração do analito ou valor apropriado e o sinal. Como visto em 3.2, ela está sendo definida neste trabalho na faixa em que essa relação é linear. Os cálculos da regressão podem ser complementados pela inspeção visual e testes de ajustamentos, os quais serão apresentados nas etapas que fazem parte do diagrama da Figura 3.2. Quando várias séries são utilizadas para a obtenção da curva de calibração, deve-se conduzir a análise da resposta como função das concentrações e fazer uma análise de regressão para cada série individualmente. (Hubert et al. , 1999).
Figura 3.2. Determinação da função resposta (Adaptado de Hubert et al., 1999).
Etapas
Outro tipo de modelo de regressão
Transformação matemática
Remoção dos dados ou mudança do método analítico
Outro tipo de modelo de regressão
Análise do gráfico:Ajuste linear?
Resposta yijk
Gráfico das séries como função dasconcentrações
Modelo de regressão e determinação dos resíduos das séries.
Diagrama de resíduos:Dados aberrantes?
Diagrama de resíduos:Ajuste linear?
Composição da resposta a partir das séries
da
Heterocedasticidade?
Ajuste Linear?
Ponderação ou transformação matemática
Adequação da faixa de trabalho
Modelo linear resultante
LD e LQ
Curva de calibração
Transformação matemática
Outro tipo de modelo de regressão
Sim
Não
Sim Ou
Não
Não
Ou
Sim
Não
Sim
Ou
Não
Sim
Teste dados discrepantes
Limites de detecção e quantificação
Etapa A 1 - Gráfico da resposta como função das concentrações
Faz-se um gráfico de resposta por concentração para visualizar desvios de linearidade, mostrando a necessidade de transformações matemáticas de modo a se obter funções monótonas e lineares, ou até mesmo, de realizar outro tipo de regressão (polinomial, quadrática, etc.). Outra maneira, mais formal, de avaliar a linearidade da curva de calibração é através do teste de ajustamento que consiste em decompor a variância total do modelo de regressão em três componentes, como discutido no Capítulo 5 deste trabalho.
3.4. Etapa A 2 - Modelo de regressão e determinação dos resíduos
Se o ajuste linear não for satisfatório, utiliza-se o modelo de regressão usual para obtenção dos valores previstos, e, conseqüentemente, dos resíduos, pela diferença entre os valores previstos e observados. Dando prosseguimento à análise da resposta como função da concentração, testam-se a normalidade dos resíduos, a existência de dados discrepantes e a homogeneidade de variância.
3.4.2. Teste de normalidade dos resíduos
Como as análises nas etapas seguintes envolvem testes de hipóteses e construção de intervalos de confiança, desvios da normalidade afetam o nível de significância e, conseqüentemente, o poder do teste. Após o ajuste do modelo, obtem-se um conjunto de resíduos, cujo comportamento em relação à normalidade deseja-se verificar. Uma investigação grosseira é a construção de intervalos de [-s, s] e [-2s, 2s] que devem conter respectivamente cerca de 68% e 95% dos resíduos. Uma avaliação da normalidade pode ser feita através do histograma dos resíduos. Se a pressuposição de normalidade é satisfeita, o gráfico deverá se parecer com o gráfico de uma amostra de distribuição normal centrada na origem. Entretanto, em pequenas amostras, flutuações consideráveis ocorrem com
com Zk sendo a função de distribuição acumulada da distribuição normal padrão. Os valores críticos para o teste do Anderson-Darling são dependentes da distribuição que está sendo testada: normal, lognormal, exponencial, Weibull, logística. A hipótese nula é rejeitada se A2α for maior do que o valor crítico. A Tabela 3.2 fornece os valores críticos A2α para distribuição normal, ao nível de significância de α.
Tabela 3.2. Os valores críticos A2* α para distribuição normal.
α% 25 20 15 10 5 2,5 1 0, A2*α 0,472 0,509 0,561 0,631 0,752 0,873 1,035 1,
Dados discrepantes (outliers)
É freqüente, em análise química, aparecerem dados de medição cujo comportamento é bastante diferente dos demais; a estes dados de comportamento diferente dá-se o nome de dados discrepantes ( outliers ). A existência desses dados pode provocar sérios problemas no resultado da análise, no ajuste do modelo e na estimação dos parâmetros. Por isso, é importante a avaliação desse tipo de dado, envolvendo três etapas bem definidas:
i) identificação de possíveis dados discrepantes ; ii) avaliação dos efeitos sobre os estimadores e previsões; iii) análise criteriosa para eliminação ou não dos mesmos. Existem vários procedimentos para detectar dados discrepantes , que se baseiam no exame dos resíduos padronizados:
r jk jk QM d = e (3.30)
Onde: ejk é o k-ésimo resíduo da j-ésima concentração QMr é o quadrado médio do resíduo
Se os resíduos seguem aproximadamente uma distribuição normal, então, ao serem padronizados, devem se aproximar de uma distribuição normal com média zero e variância um, djk ~N(0,1). Dessa forma, aproximadamente 68% dos resíduos padronizados pertencem ao intervalo de ±1, 95% pertencem ao intervalo de ±2 e 99,73% ao intervalo de ±3. Assim, resíduos maiores em módulo que 3 ou 4 desvios-padrão são considerados dados discrepantes em potencial. O teste utilizado nesse trabalho, baseado nos resíduos padronizados, é o teste de Grubbs. Este teste é um teste unilateral, no qual os dados são dispostos em ordem crescente, de modo a visualizar a discrepância de alguns dados quando comparadas com os demais. As estatísticas de teste são:
S G y ymin 1
G ymax y 2
Onde: y (^) min e y (^) max suspeitos de serem dados discrepantes, y é a média das observações amostrais; S é o desvio-padrão amostral; As estatísticas G 1 ou G 2 são comparadas com os valores críticos tabelados segundo o nível de significância e o tamanho da amostra.
Heterogeneidade da variância
A avaliação da heterogeneidade da variância pode ser feita pela análise do gráfico dos resíduos ou com um teste de hipótese formal. Existem vários testes para este propósito. O mais utilizado é o teste de Bartlett. O procedimento envolve uma amostra de distribuição χ^2 , com b-1 graus de liberdade, quando as amostras aleatórias são oriundas de populações normais e independentes.
As hipóteses são:
Cada qual com o mesmo número de graus de liberdade (ν= n-1);
∑=
= (^) b j 1
(^2) j
(^2) max Calculado S
3.4.2. Transformações que podem estabilizar a variância
Se existir uma relação entre a média e a variância, esta informação pode ser utilizada para se fazer uma transformação que estabilize a variância. Se E(y)=μ é a média de y e supondo que a relação entre o desvio-padrão e a média de y seja da forma: σy ∝ μa Com a>0, a transformação dos dados originais de y que torna sua variância constante é: y* = y b^ (3.34) Pode ser mostrado que: σy∝μ b+a -1^ (3.35) Claramente, se b= 1 - a, a variância dos dados transformados y é constante. As principais transformações que estabilizam a variância são apresentadas na Tabela 3.3 a seguir.
Tabela 3.3. Transformações que estabilizam a variância.
Relação entre σy e μ α λ =1-α Transformação σy constante 0 1 Não existe transformação σy∝μ1/2^ 1/2^ 1/2^ Raiz quadrada σy∝μ 1 0 Log σy∝μ3/2^ 3/2^ -1/2^ Raiz quadrada σy∝μ^2 2 -1 Raiz quadrada
Etapa A 3 - Composição da resposta a partir das séries
As séries analisadas separadamente devem ser compostas em uma única série para os procedimentos das etapas seguintes.
Etapa A 4 - Heterogeneidade da variância
A avaliação da heterogeneidade da variância (heterocedasticidade), pode ser feita pela análise (inspeção visual) dos gráficos dos resíduos, ou com um teste de hipótese formal como já descrito na etapa A 2 e detalhado no Exemplo Numérico 6.2.
Etapa A 5 - Avaliação da linearidade da curva composta para estabelecimento da faixa de trabalho
Uma vez composta a série, a linearidade é avaliada, como proposto nos procedimentos da etapa A 1. Nesta etapa é estabelecida a faixa de trabalho, com a região inferior desta delimitada pelo mínimo valor detectável ou mínimo valor quantificável (etapa A 6 ) e a superior pela descontinuidade da curva analítica, que geralmente depende do sistema de resposta do instrumento.
Na prática, quando se usa o método analítico o interesse é de obter a incerteza de xi , que corresponde aos valores dos limites do intervalo de confiança de y (^) i , com um dado nível de confiabilidade, o qual pode ser obtido pela expressão:
∈ −∧ ± α ∧−
∧
A
t S A
x yi B ( /^2 ;nb^2 ) Y i (3.42)
No entanto, a incerteza da curva de calibração é um problema de análise bivariada, pois não depende apenas das distribuições marginais do intercepto e do coeficiente angular. É possível observar na Figura 3.3, que ao se considerar o intervalo de confiança para os parâmetros da curva de calibração , o ponto q pertence ao intervalo de confiança conjunto (representado pela elipse), mas não ao intervalo de confiança para B. Já o ponto p, não pertence ao intervalo conjunto, mas aos dois intervalos marginais.
Figura 3.3. Incerteza dos parâmetros da curva de calibração (Adaptado de ASQ, 2001) Para esta questão, não trivial, determina-se um intervalo conjunto para uma família de estimativas, uma família de confiança dos coeficientes com a verossimilhança que indique que todos os parâmetros estimados estejam corretos em repetidas amostragens. Isto envolve alguns ajustes nos intervalos de confiança convencionais. Consideram-se os seguintes eventos: E 1 = {a probabilidade do primeiro intervalo de confiança de não conter B}; E 2 = {a probabilidade do segundo intervalo de confiança não conter A}.
Assim: P( E 1 )= α e P (E 2 )=α (3.43)
Sabe-se que: P( E 1 ∪ E 2 )=P(E 1 )+P(E 2 )−P(E 1 ∩E 2 ) (3.44)
Em termos de probabilidades complementares: P (E 1 ∪ E 2 )= 1 −[P(E 1 )+P(E 2 )−P(E 1 ∩E 2 )] (3.45)