Página principal del Dr. J.M. Fernández ÁlvarezPágina principal de la Universidad de Navarra


LA ESTADÍSTICA EN QUÍMICA ANALÍTICA




        Cuando se realiza una medida científica es necesario considerar que se puede cometer un error, y es importante desarrollar la habilidad de evaluar los datos y aprender a sacar conclusiones justificadas, mientras que se rechazan interpretaciones que no están garantizadas debido a las limitaciones de las mediciones.

        Desafortunadamente, no existen métodos sencillos y aplicables en general, mediante los cuales la calidad de un resultado experimental pueda ser evaluada con absoluta seguridad; de hecho, el trabajo necesario para verificar la seguridad de los datos es frecuentemente comparable al esfuerzo que se hizo en obtenerlos.

        Existe una relación directa entre la exactitud de un resultado analítico y el tiempo requerido para su obtención. Aumentar la seguridad unas diez veces puede implicar horas, días o quizá semanas de trabajo adicional. Una de las primeras cuestiones que debe considerarse al principio de un análisis es el grado de confianza que se requiere; esta consideración determinará en gran medida la cantidad de tiempo y esfuerzo que se necesitará para llevar a cabo el análisis. Nunca se debe perder el tiempo en una búsqueda indiscriminada de mayor exactitud cuando no es necesario.
 

DEFINICIÓN DE TÉRMINOS.

Por lo general el químico, para llevar a cabo el análisis, utiliza varias muestras (5,6,7, etc.) y normalmente los resultados obtenidos no son idénticos, por lo que es necesario elegir el mejor de todos ellos. Intuitivamente, el esfuerzo añadido que supone la repetición puede justificarse de dos formas:

    1. el valor central de la serie debería ser más fiable que cualquiera de los resultados individuales.
    2. las variaciones entre los resultados deberían proporcionar una estimación del margen de confianza para el mejor valor que se seleccione.
La media o la mediana pueden servir como valor central de una serie de medidas. MEDIA O MEDIA ARITMÉTICA ()

      Es el valor numérico que se obtiene dividiendo la suma de una serie de medidas repetidas entre el número de los resultados individuales en la serie.

MEDIANA

      Es el resultado alrededor del cual se distribuyen los demás por igual, es decir, es el valor central de una serie de datos ordenados de mayor a menor. Si el número de términos es par, la mediana se calcula haciendo el promedio de los dos resultados centrales de la serie.

PRECISIÓN

      Este término se utiliza para describir la reproducibilidad de los resultados. Puede definirse como la concordancia entre los valores numéricos de 2 ó más mediciones que se han obtenido de forma idéntica. Existen varios métodos para evaluar la precisión de los datos:


EXACTITUD

      Indica la proximidad de una medida a su valor aceptado y se expresa en términos de error. Cabe destacar la diferencia fundamental que existe entre exactitud y precisión. Exactitud supone una comparación con un valor verdadero, o aceptado como tal, mientras que la precisión indica la concordancia entre una serie de medidas realizadas de la misma forma. Se evalúa como:

a) ERROR ABSOLUTO, E: es la diferencia entre el valor observado, xi, y el valor real o aceptado, : E = xi

El signo asociado con el error (- ó +) es tan importante como el mismo valor numérico, porque el químico necesita conocer si el efecto del error ha provocado un aumento o disminución del resultado.

b) ERROR RELATIVO: es el cociente entre el error absoluto y el valor real o aceptado, expresado como tanto por ciento.

 

CLASIFICACIÓN DE LOS ERRORES

        Atendiendo a su origen, los errores se dividen en dos amplias categorías: errores determinados y errores indeterminados.

ERRORES DETERMINADOS: son los que tienen causas concretas y valores definidos, pudiendo ser calculados y tenidos en cuenta. Un error determinado es, a menudo, unidireccional en el sentido que causa que todos los resultados de una serie de mediciones repetidas sean o bien altos o bien bajos, pero no altos y bajos a la vez (por eso se denominan también errores SISTEMÁTICOS).

ERRORES INDETERMINADOS: están relacionados con las imperfecciones que cometemos en las medidas que efectuamos. Los errores indeterminados se manifiestan siempre que un sistema de medida se utiliza con su máxima sensibilidad. Bajo estas circunstancias, los resultados no son constantes y fluctúan al azar alrededor de un valor medio. Los errores indeterminados no pueden medirse; podrán reducirse a un cierto límite aceptable, pero nunca eliminarse.

Dada la probabilidad de que un error indeterminado se manifieste con resultados altos o bajos, la media aritmética de los resultados es mejor que cualquier valor individual (compensación de errores). TIPOS DE ERRORES DETERMINADOS

Es imposible enumerar todos los tipos de errores determinados; sin embargo, podemos reconocer como fuentes de este tipo de errores las siguientes:

ERRORES PERSONALES: que resultan de las limitaciones físicas o psicológicas del analista. Muchas medidas requieren un juicio personal; por ejemplo, la estimación de la posición de una aguja indicadora entre dos divisiones de la escala, el nivel de un líquido con respecto a las marcas de graduación, o el color de una disolución en el punto final de una valoración. Los juicios de este tipo están frecuentemente sujetos a incertidumbres unidireccionales sistemáticas.

        Una fuente casi universal de error personal es el prejuicio o predisposición. La mayoría de los experimentadores, por muy objetivos que pretendan ser, tienen una propensión a estimar las lecturas en un sentido que tiende a mejorar la precisión de una serie de resultados, o a dar mayor crédito a los datos que se encuentran más cercanos a un valor preconcebido como verdadero para la medida.

        Finalmente, existe el error personal de cometer una gran equivocación. Por ejemplo, errores de cálculo, transposición de números al apuntar datos, lectura de una escala al revés, inversión de un signo, etc. Generalmente, este tipo de errores son consecuencia del descuido y se pueden evitar mediante la autodisciplina.

ERRORES INSTRUMENTALES: que se atribuyen a imperfecciones en los aparatos de medida. Por ejemplo, los equipos volumétricos (matraces, pipetas, etc.) contienenvolúmenes diferentes de los que indica su graduación si se utilizan a una temperatura muy distinta de aquella a la que han sido graduados; el ajuste de un pH-metro depende de la temperatura, etc.

ERRORES DE MÉTODO: que son causados por la conducta física o química no ideal del sistema de análisis. Así, en un análisis gravimétrico, el químico analítico se enfrenta con el problema de separar el elemento que ha de determinar como un sólido de la mayor pureza posible. Si deja de lavarlo suficientemente, el precipitado estará contaminado con sustancias extrañas y su peso será anormalmente elevado. Por otra parte, un lavado excesivo puede acarrear una pérdida de una cierta cantidad de sustancia de interés, debida a la solubilidad del precipitado, dando lugar a un error por defecto. En cualquier caso, la exactitud del procedimiento está limitada por el error del método inherente al análisis. Los errores inherentes al método son frecuentemente difíciles de detectar y son por ello el tipo más grave de error determinado.

        Dejando aparte los errores personales debidos a falta de cuidado es posible distinguir entre dos tipos de errores determinados en atención al efecto que producen en los resultados de un análisis: errores constantes y errores proporcionales.

ERRORES CONSTANTES: su magnitud absoluta es independiente de las dimensiones de la cantidad medida. Lógicamente, si la magnitud absoluta permanece constante, el error relativo disminuye al aumentar el tamaño de la muestra.

        Por ejemplo, la cantidad de reactivo que se necesita para provocar el cambio de color en un análisis volumétrico es siempre el mismo cualquiera que sea el volumen total de reactivo necesario. Es evidente que el error relativo será tanto mayor cuanto menor sea el volumen total. Consecuentemente, una forma de minimizar el efecto del error constante consiste en utilizar una muestra tan grande como lo permita el método empleado.

ERRORES PROPORCIONALES: su magnitud depende, en valor absoluto, del tamaño de muestra tomada para el análisis y aumentan o disminuyen en relación con éste. Por tanto, el error relativo permanece constante y es independiente de la cantidad de muestra que pongamos.

        Por ejemplo, se puede determinar Cu(II) mediante su reaccción con KI midiéndose la cantidad de yodo producida en la reaccción. Si también hay Fe(III), este liberará yodo del KI. Si no se tiene cuidado en eliminar la interferncia, se obtendrán resultados por exceso enel porcentaje de cobre, ya que el yodo liberado corresponderá a la suma del cobre y del hierro de la muestra. La magnitud de este error dependerá del contenido de -fe en la muestra y producirá el mismo error relativo, independientemente del tamaño de muestra tomado para el análisis. Si el tamaño de la muestra es doble, también lo será la cantidad de yodo liberado. Mientras el error absoluto se duplica, el error relativo permanece constante. Numéricamente, si el valor verdadero, , es 5, y el medido xi es 7, los errores cometidos son:

.

Si se duplica el tamaño de la muestra, será 10 y xi será 14, por lo que los errores son:

MÉTODOS PARA ESTABLECER LA EXACTITUD DE LOS ANÁLISIS Y DISMINUIR LOS ERRORES.

        Los errores determinados suelen ser grandes. Sin embargo, resulta difícil descubrirlos pues no existe ningún procedimiento sencillo que nos informe de la presencia o ausencia de este tipo de errores.

        Los errores instrumentales normalmente se detectan y corrigen mediante la calibración. Por ello, hay que volver a calibrar periódicamente los instrumentos, pues su comportamiento cambia con el tiempo debido al uso, corrosión o malos tratos.

        Los errores personales pueden ser minimizados trabajando con cuidado y autodisciplina. Por eso es muy necesario y conveniente comprobar el número de lecturas, las anotaciones en el cuaderno y los cálculos matemáticos.

        Los errores de método son especialmente difíciles de detectar. La identificación y compensación de tales errores puede conseguirse mediante uno o más de los procedimientos siguientes:

ANÁLISIS DE MUESTRA PATRÓN: se realiza el análisis de una muestra sintética cuya composición se conoce y es muy parecida a la del material para el que se ensaya el análisis. Es fundamental conocer con exactitud la concentración del analito, por lo que es necesario tomar especiales precauciones en la preparación de estos patrones, o -lo que es mejor- recurrir a muestras certificadas de venta en laboratorios especializados (National Bureau of Standards).

ANÁLISIS INDEPENDIENTE: cuando no se dispone de muestras de composición conocida, hay que realizar un análisis paralelo de la muestra con un método distinto y de fiabilidad garantizada.

DETERMINACIONES EN BLANCO: se pueden evaluar los errores constantes que afectan a las medidas físicas mediante una determinación en blanco, en la que se realizan todas las etapas del análisis pero sin muestra. El resultado obtenido se utiliza para corregir la medida correspondiente a la muestra. Es muy útil para descubrir errores debidos a interferencias provenientes de los reactivos o del material utilizado en el análisis.

VARIACIÓN DEL TAMAÑO DE LA MUESTRA: ya se ha comentado que un error constante disminuye al aumentar la magnitud que se mide.

EMPLEO DE NORMAS: son procedimientos que han pasado a constituirse como normas después de estar mucho tiempo como tentativas y cuya fiabilidad ha quedado más que probada.

        Los errores indeterminados se manifiestan por la fluctuación aleatoria de os resultados que se obtienen al repetir varias veces el análisis. Como su nombre indica, las causas específicas de este tipo de error se desconocen dado que no tienen un único origen, sino que proceden de la acumulación de incertidumbres individuales demasiado pequeñas para detectarse.

        Un tratamiento estadístico riguroso aplicado a un número infinito de posibles variables imaginarias causantes del error indeterminado conducen a la obtención de una curva gaussiana en forma de campana, llamada curva normal de error, cuyas características son:

 

  1. una frecuencia máxima para la posibilidad del error indeterminado cero.
  2. una simetría en la distribución alrededor de este máximo, lo que indica que los errores positivos y negativos se dan con igual frecuencia.
  3. una disminución exponencial de la frecuencia a medida que aumenta la magnitud del error. Así, se produce mucho más a menudo un error indeterminado pequeño que uno grande.
      Si se toman un conjunto de muestras estadísticas al azar de una población o universo de datos, la media de cada uno de los conjuntos mostrará menor dispersión a medida que n (número de datos individuales de cada muestra estadística) aumenta.

        La desviación estándar de la media del conjunto se conoce como Error Estándar o Error Típico de la Media (sm). Se puede demostrar que el error típico es inversamente proporcional a la raíz cuadrada del número de datos n utilizado para calcular la media: . Para el caso de una sola muestra estadística: .

APLICACIONES DE LA ESTADÍSTICA A PEQUEÑAS SERIES DE DATOS

Los científicos experimentales emplean los cálculos estadísticos para afinar sus estimaciones respecto a los efectos del error indeterminado. algunas aplicaciones de estos cálculos son:

  1. La definición de un intervalo alrededor de la media experimental de una serie, dentro del cual cabe esperar que se encuentre la media verdadera, con un determinado grado de probabilidad.
  2. La determinación del número de medidas que es necesario realizar para que la media verdadera se encuentre, con una determinada probabilidad, dentro de un intervalo prefijado alrededor de la media experimental.
  3. La determinación, con un cierto grado de probabilidad, de que un valor discordante en una serie de medidas repetidas forme parte de una distribución normal y deba ser retenido (o quizá rechazado) en el cálculo de la media para la serie.
  4. El ajuste de una línea recta para una serie de puntos experimentales.


INTERVALOS DE CONFIANZA

        El verdadero valor de la media, m, en una determinación es una constante que nunca se conoce. Sin embargo, se pueden establecer los límites alrededor de la media determinada experimentalmente, , dentro de los cuales cabe encontrar la media verdadera, con un cierto grado de probabilidad. Estos límites de denominan Límites de Confianza; el intervalo definido por tales límites se conoce como Intervalo de Confianza.

Para una serie de datos dada, el tamaño del intervalo depende, en parte, del nivel de exactitud deseada. Evidentemente, para que una suposición sea absolutamente correcta se tendría que elegir un intervalo alrededor de la media lo suficientemente grande para que incluyera todos los valores posibles que xi pueda tomar. Por supuesto que dicho intervalo no tiene un valor previsible. Por otra parte, el intervalo no necesita ser tan grande si se está dispuesto a aceptar la probabilidad de que sea correcto 99 veces de cada 100; puede ser incluso menor si se acepta una probabilidad del 95%. En resumen, cuanto menos favorable es la probabilidad de hacer una predicción correcta, el intervalo determinado por los límites de confianza se hace más pequeño.         La magnitud del intervalo de confianza se deduce de la desviación típica s para el método de medida, y depende, asimismo, de la certeza con que ésta se conoce (s se aproxima más o menos a s). Para considerar la posible variabilidad de s, se hace uso del parámetro estadístico t (t de Student) que se define como: . El límite de confianza puede deducirse a partir de la siguiente relación: ; si se trata de un dato aislado: m = xi ± s·t

        El parámetro t tiene un valor matemático que es función del número de medidas efectuadas y de la predicción (o grado de probabilidad) que nosotros deseemos para la exactitud. Los estadísticos han compuesto tablas con los valores numéricos de t para varios niveles de confianza:

Grados de libertad
Intervalo de confianza
80%
90%
95%
99%
99,9%
1
3,08
6,31
12,7
63,7
637
2
1,89
2,92
4,30
9,92
31,6
3
1,64
2,35
3,18
5,84
12,9
4
1,53
2,13
2,78
4,60
8,60
5
1,48
2,02
2,57
4,03
6,86
6
1,44
1,94
2,45
3,71
5,96
7
1,42
1,90
2,36
3,50
5,40
8
1,40
1,86
2,31
3,36
5,04
9
1,38
1,83
2,26
3,25
4,78
10
1,37
1,81
2,23
3,17
4,59
11
1,36
1,80
2,20
3,11
4,44
12
1,36
1,78
2,18
3,06
4,32
13
1,35
1,77
2,16
3,01
4,22
14
1,34
1,76
2,14
2,98
4,14
¥
1,29
1,64
1,96
2,58
3,29

RECHAZO DE UN RESULTADO DUDOSO

        Cuando una serie de datos contiene un resultado discordante que difiere excesivamente del promedio, deberá decidirse sobre la conveniencia de aceptarlo o prescindir de él. De los numerosos criterios estadísticos para ayudar a decidir la oportunidad de retener o rechazar una medida, el criterio Q es el preferido. Para aplicar el criterio Q, se divide la diferencia entre el resultado dudoso (xq) y el más próximo a él (xn), por el intervalo (w) de la serie completa. La relación resultante, , se compara luego con unos valores de rechazo que son críticos para un grado de confianza determinado. Si Qexp<Qcrit, no se rechaza el resultado sospechoso. Si Qexp>Qcrit, existen fundamentos estadísticos para el rechazo.

Ejemplo: El análisis de una muestra de calcita dio los siguientes resultados de %CaO: 55,95; 56,00; 56,04; 56,08; 56,23; decida si el último de ellos pertenece o no a la serie.

56,23 - 56,08 =0,15%; w = 56,23 - 55,95 = 0,28%;
Qexp = 0,15 / 0,28 = 0,54

Según la tabla adjunta, para n = 5 al 90% de confianza, Qcrit = 0,64. Como 0,54 < 0,64, el dato se retiene.

VALORES CRÍTICOS PARA EL COCIENTE DE RECHAZO Q
Número de observaciones
90%

confianza

96%

confianza

99%

confianza

3
0,94
0,98
0,99
0,76
0,85
0,93
5
0,64
0,73
0,82
6
0,56
0,64
0,74
7
0,51
0,59
0,68
8
0,47
0,54
0,63
9
0,44
0,51
0,60
10
0,41
0,48
0,57

       Otro criterio estadístico que se suele emplear es el basado en la desviación estándar (s, s). Para ello, se calcula el valor medio y la desviación estándar para todos los términos de la serie, excepto el dudoso. Se busca en la tabla de Fischer el valor de t en función del número de determinaciones efectuadas (sin contar al dudoso) y para el intervalo de confianza que queremos y se calcula el siguiente término: . Si el resultado obtenido no está dentro de estos límites, debe ser rechazado.

Ejemplo: De la serie de datos 0,45; 0,51; 0,52; 0,68; ¿debe rechazarse el dudoso?

Calculamos: ; s = 0,038;
para n = 3 y 95% de confianza, t = 4,30

(límite superior)

El 0,68 sale por encima del límite, luego deberá ser RECHAZADO.
 

        Finalmente, mencionaremos el criteriobasado en la desviación estándar respecto de la media (d). Consiste en calcular la media aritmética de los dados fiables, y medir la desviación de todos los valores fiables respecto de esa media: , de modo que los límites admisibles quedarán dentro del intervalo definido por:. Si se desea, el intervalo se puede hacer más restrictivo con un múltiplo inferior de d, o más amplio con un múltiplo superior de d. Los valores más frecuentes son 4 ó 2.

        Para detectar la posible presencia de un error sistemático en una metodología analítica, se calcula -con los resultados obtenidos en una serie de análisis repetidos (réplicas)- el siguiente parámetro: , en donde x es el valor de una muestra exactamente conocida (NBS, por ej.), y es el valor promedio obtenido por nuestro método. Si texp>ttabla para ese n y nivel de confianza dado, se concluye que hay un error sistemático. Si, por el contrario, texp<ttabla, el método no viene afectado por un error sistemático, o al menos no se detecta.

OBTENCIÓN DE RECTAS DE CALIBRACIÓN: MÍNIMOS CUADRADOS.

        La mayoría de los métodos analíticos requieren una etapa de calibración en la que los patrones, que contienen cantidades conocidas (x) del analito se tratan de la misma manera que las muestras. La cantidad experimental medida (y) se representa frente a x para obtener una curva de calibración. Tales representaciones, normalmente, se ajustan a una línea recta.

        Sin embargo, rara vez los datos se sitúan exactamente sobre esta línea, debido a la existencia del error indeterminado en el proceso de medida. Es necesario, por tanto, trazar la "mejor" línea recta que pase por los puntos experimentales. Existen métodos estadísticos para la elaboración objetiva de tal línea y para la consideración de las incertidumbres asociadas con su uso. Los estadísticos se refieren a estas técnicas como análisis de regresión. Uno de los procedimientos de regresión más sencillos es el llamado Método de los Mínimos Cuadrados, que se basa en 2 hipótesis:

a) Existe una relación lineal entre la cantidad de analito, x, y la magnitud de la propiedad física medida, y: y = a + b·x donde a es la ordenada en el origen y b es la pendiente de la recta.

b) Cualquier desviación de los puntos individuales respecto a una línea recta es consecuencia, enteramente, del error indeterminado en la medida de y; es decir, que no existe un error significativo en la composición de los patrones.

        La línea deducida mediante una evaluación de mínimos cuadrados es aquella que minimiza los cuadrados de los desplazamientos verticales[yi -(a+b·xi)], o "residuales", de esta línea.

        Por conveniencia se definen los siguientes términos:

        Aquí, xi e yi son pares individuales de valores para x e y que se usan para definir puntos a lo largo de la línea de mínimos cuadrados. La cantidad n es el número de pares de datos usados en la preparación de la curva de calibrado, mientras que son los valores promedio para las variables, esto es:

        A partir de estas magnitudes se pueden evaluar:

  1. La pendiente de la línea, b: 
  2. La ordenada en el origen, a: 
  3. El coeficiente de correlación lineal, r: 
  4. La desviación estándar de la regresión, sr
  5. La desviación estándar de la pendiente, sb:
  6. La desviación estándar de los resultados obtenidos a partir de la curva de calibrado:
, donde:

es el valor obtenido, mediante el calibrado, para la muestra;

m es el número de réplicas (análisis) efectuadas,

n es el número de puntos utilizados para trazar la recta,

es la media de yi para los n puntos de la recta.

Por su parte, sr representa la desviación estándar para y cuando las desviaciones se miden no respecto de la media, , como usualmente, sino con respecto a la línea recta calculada:

Ejemplo: Los datos obtenidos para la determinación de isooctano en una mezcla de hidrocarburos por cromatografía son los siguientes:

%Isooctano 0,352 0,803 1,08 1,38 1,75
Área de pico 1,09 1,78 2,60 3,03 4,01
        a) Calcule la recta de calibrado; b) Al utilizar esa curva de calibrado para un análisis de isooctano en una muestra desconocida, se obtuvo un área de pico de 2,65. Calcule el % de isooctano , así como la desviación del resultado si b.1) el área es el resultado de una sola medida; b.2) el área es el resultado promediado de cuatro medidas.
b = 2,09; a = 0,26 Þ y = 0,26 + 2,09 · x; sr = 0,14; sb = 0,13

Para un 90% de nivel de confianza, se pueden calcular los límites de confianza de la pendiente b:

Para la muestra desconocida (y = 2,65):

b.1) 


b.2) 

Vemos que los resultados son más precisos cuantas más réplicas se hagan del análisis.