Características como la exactitud, resolución, sensibilidad, ancho de banda, y otras como la reacción ante los cambios de temperatura ambiente constituyen el conjunto conocido como características estáticas y dinámicas de los instrumentos; y se consideran como los elementos básicos de una medida. Estos elementos se incorporan con el fin de caracterizar los instrumentos electrónicos y, en consecuencia, seleccionar el más adecuado a nuestra aplicación.
Características estáticas
Relación entre la entrada aplicada al sensor y su salida en régimen estático.Permiten btener una relación directa punto a punto de la señal de salida en función de la entrada y viceversa.
Salida a Fondo de Escala
Diferencia entre las salidas correspondientes a los extremos del campo de medida.
Valor Nominal del Fondo de Escala FSD (Full Scale Deflection):
Es el valor máximo de dicho intervalo. Indica el límite práctico de utilización del sensor sin que se alteren las características establecidas por el fabricante. Indice de rotura o de sobrecarga Valor por encima del cual se causan daños permanentes al sensor.
Sobrecarga (Overload)
Valor por encima del cual se pueden causar daños permanentes al sensor. En la zona de sobrecarga el sensor no sufre daños permanentes pero pierde la calibración.
Indice de rotura o de sobrecarga
Valor por encima del cual se causan daños permanentes al sensor.
Expresa el grado de coincidencia entre la curva de calibración y una línea recta determinada.
Linealidad independiente: La recta se define por el método de mínimos cuadrados. De esta forma,
el máximo error positivo y el mínimo error negativo son iguales. Es la que da mejor calidad.
Linealidad ajustada al cero: La recta se define por el método de los mínimos cuadrados con la
restricción adicional de pasar por cero.
Linealidad terminal: La recta se define por la salida sin entrada y la salida teórica máxima,
correspondiente a la mayor entrada admitida.
Máxima desviación de la curva de calibración con respecto a la recta.El valor de la no linealidad se suele expresar en % respecto al alcance
Campo de valores de la variable de entrada que no hace variar la salida. Provoca una región de la curva de calibración con sensibilidad nula.
Diferencia entre los valores de la salida correspondientes al mismo valor de la entrada según se alcance en un sentido o en otro.
Histeresis en sensores todo o nada:
La histéresis se utiliza en los sensores todo o nada para eliminar las oscilaciones que aparecen a la salida del sensor cuando el nivel de la variable de entrada coincide con el que hace cambiar de estado la salida.
Variación de algún aspecto de la curva de calibración con respecto a algún parámetro ambiental (temperatura, humedad, etc.) o con respecto al tiempo.
La deriva o error de desviación (Offset) suele ser lineal con la medida y por ello se calcula como el valor de salida con entrada nula. Se expresa en % respecto al alcance.
Nivel de entrada a partir del cual la sensibilidad disminuye de forma significativa.
Es el conjunto de los valores correspondientes a la variable que es objeto de la medida, y que están comprendidos dentro de los límites superior e inferior de la capacidad de medida del instrumento; se expresa mediante los valores extremos. Por ejemplo, un equipo para la medida de temperatura puede tener un rango de 0 a 100 ºC. Los instrumentos suelen incorporar distintos rangos. La selección del rango determina el valor de otras características estáticas.

Cuando un instrumento muestra una determinada lectura de salida, existe un límite inferior dado por el mínimo cambio en la entrada o medida que produce un cambio observable en la salida o lectura del instrumento. Por tanto, la resolución es la menor porción de señal que puede ser observada.
En equipos analógicos suele expresarse como un valor absoluto (algunas veces como porcentaje del fondo de escala), y viene dada también por la "fineza" con que la escala indicadora de salida se subdivide. Por ejemplo, en el indicador de velocidad de un coche, podemos encontrar subdivisiones de 20 km/h. Entre cada subdivisión encontramos también marcas de 5 km/h. Estos espacios menores determinan la resolución del instrumento, ya que entre cada dos marcas separadas 20 km/h no podemos medir la velocidad apreciando variaciones menores que ± 5 km/h.
La mayoría de los instrumentos electrónicos de medida actuales incorpora un convertidor analógico/digital (CAD) que determina su resolución. Existen varias formas de caracterizarla: bits, dígitos y cuentas. La denominación "1/2 dígito" significa que el dígito más significativo del indicador numérico del instrumento (formado por circuitos convertidores del código BCD al de 7 segmentos) sólo puede ser 0 ó 1 para rangos unipolares, y 2 para rangos bipolares.
Representa el cambio producido en la variable de salida o resultado de lectura del instrumento para un determinado cambio en la entrada. Es decir, es la razón entre el
incremento de la lectura y el incremento de la variable que lo ocasiona, después de haberse alcanzado el estado de reposo.
Para instrumentos analógicos, la sensibilidad se define como el cociente entre la deflexión observada en la escala y el valor medido que ocasiona la deflexión . De esto se deduce que la sensibilidad viene dada por la pendiente de la característica de transferencia de un instrumento, representada como la recta de ajuste de mínimos cuadrados
En primer lugar vamos a analizar la diferencia entre los términos precisión y exactitud . En general estas dos palabras son sinónimos, pero en el campo de las mediciones indican dos conceptos completamente diferentes.
Se dice que el valor de un parámetro es muy preciso cuando está muy bien definido.
Por otra parte, se dice que dicho valor es muy exacto cuando se aproxima mucho al verdadero valor.
Diversos factores contribuyen a la variabilidad de un método de
medición, entre ellos:
1. El operador que realiza la medición.
2. Los equipos
3. La calibración de los equipos
4. El ambiente (T°, humedad, etc)
5. El intervalo temporal entre mediciones
Es el mismo concepto que la fidelidad, salvo que nos referimos a repetibilidad cuando las medidas se realizan en un corto espacio de tiempo.
Es el grado de concordancia entre los resultados de mediciones sucesivas del mismo mesurando, realizadas bajo diferentes condiciones de medida. Las medidas pueden realizarse a largo plazo, por personas distintas, con aparatos distintos o en distintos
laboratorios.
Se lo define como la diferencia entre el valor medido y el valor verdadero. El error tiene en general variadas causas. Las que se pueden de alguna manera prever, calcular, eliminar mediante calibraciones y compensaciones, se denominan determinísticos o Sistemáticos. Los que no se puede prever, pues dependen de causas desconocidas, o estocásticas se denominan aleatorios. En lineas generales es la discrepancia entre el valor correcto y el obtenido es el error. Puede ser definido como :
a. Error absoluto, como la resta entre el valor obtenido y el valor verdadero
b. Error relativo, como la relación que hay entre el error absoluto y el valor verdadero expresado en tanto por ciento
c. Error referido a fondo escala. Es la forma habitual de expresar el error en los instrumentos y consiste en dividir el error absoluto entre el fondo escala del instrumento.
Operación mediante la cual se ajusta la salida de un determinado instrumento de tal modo que coincida con los valores correspondientes de diversos patrones de la magnitud a medir.
Calibración a punto:
La salida se ajusta para que sea lo más exacta posible en un punto concreto. Normalmente ese punto es el valor cero de la variable de entrada, porque suele ser uno de los puntos para los que más fácilmente se conoce el valor verdadero. Puede ser manual o automática.
Calibración del cero y de la Sensibilidad:
Cuando la respuesta es lineal es necesario ajustar dos puntos o un punto y la pendiente (sensibilidad). Si se ajusta un punto y la pendiente, primero se debe ajustar el punto (normalmente el cero), y luego la pendiente. Para este último ajuste es necesario medir en otro punto y ajustar la ganancia de forma que en ese segundo punto sea la deseada.
Características dinámicas
Establecen la relación entre la entrada y la salida de un sensor cuando el tiempo transcurrido desde la última variación de la entrada es inferior al necesario para que la salida alcance el régimen permanente. Difieren de las estáticas debido a la existencia de elementos que almacenan energía (masas en dispositivos mecánicos, inductancias o condensadores en dispositivos eléctricos).
Diferencia entre el valor obtenido y el valor exacto de la variable medida, cuando el error estático es nulo. Describe la diferencia entre las respuestas del sensor a una magnitud de entrada constante y otra variable en el tiempo.
Indica la rapidez con la que el sistema de medida responde a los cambios de la variable de entrada. Cuando la respuesta no es instantánea se dice que hay un retardo
Para describir matemáticamente el comportamiento dinámico del sensor, se supone que su salida y su entrada se relacionan mediante una ecuación diferencial lineal de coeficientes constantes (sistema lineal invariante en el tiempo). En estas condiciones, la relación entre la salida y la entrada del sensor se puede expresar en forma del cociente de la transformada de Laplace de ambas señales (función de transferencia).
De acuerdo con su comportamiento dinámico los sensores se pueden clasificar en:
• Sistemas de orden cero
• Sistemas de primer orden
• Sistemas de segundo orden
Normalmente no es necesario emplear modelos superiores al de orden dos.
Su salida está relacionada con la entrada mediante una ecuación del tipo y(t) = k x(t). Su comportamiento está caracterizado por la sensibilidad (k) y tanto su error dinámico como su retardo son nulos.
Están formados por un elemento que almacena energía y otro que la
disipa. La respuesta de un sistema de primer orden ante una entrada en
escalón corresponde a la función temporal:
Se suelen caracterizar mediante cuatro parámetros:
• Tiempo de subida
• Tiempo de establecimiento
• Tiempo de respuesta
• Constante de tiempo
Tiempo de retardo (Delay time):
Tiempo que transcurre desde que se aplica la señal en escalón a la entrada y la salida alcanza el 10% del valor final
Tiempo de subida (Rise time):
Tiempo que transcurre entre el instante en que la señal de salida alcanza el 10% de su valor final y el instante en que alcanza el 90% como resultado de un cambio en escalón de la magnitud de entrada.
Tiempo de respuesta (Response time):
Tiempo transcurrido desde que se aplica un cambio en escalón de la magnitud a medir hasta que la salida alcanza un porcentaje determinado de su valor final. Cuando el porcentaje es el 90%, coincide con el tiempo de retardo mas el de subida.
tr = td + ts
En los sensores todo-nada se suele especificar como el valor medio del tiempo que tarda la salida en pasar de todo a nada y viceversa.
Constante de tiempo (Time constant):
Tiempo transcurrido desde que se aplica un cambio en escalón de la magnitud a medir hasta que la salida alcanza el 63,2% de su valor final. Representa un caso particular del tiempo de respuesta.
Tiempo de establecimiento (Settling time):
Tiempo que transcurre desde que se aplica un cambio en escalón de la magnitud de entrada hasta que el sistema proporciona una salida dentro del margen de tolerancia definido por su precisión. A veces se considera que su valor es igual a cinco veces la constante de tiempo.
Formados por dos elementos que almacenan energía y al menos uno que la disipa. En un sistema de segundo orden, la respuesta ante una entrada en escalón presenta tres casos
diferentes:
a. Sistema sobreamortiguado: Sistema de respuesta lenta cuya salida alcanza el valor final sin superarlo en ningún momento.
b. Sistema Subamortiguado: Sistema de respuesta rápida cuya salida oscila alrededor del valor final hasta que lo alcanza.
c. Sistema con amortiguamiento crítico: Sistema sobreamortiguado que posee la respuesta más rápida posible.
Sobreoscilación: Cociente entre el valor máximo que se alcanza y el valor final en %:
Tiempo de establecimiento (ts): Tiempo a partir del cual la señal queda siempre dentro de la banda del margen de confianza definida por la precisión del sistema.
No inmediatez en la respuesta del sistema, lo que ocasiona una diferencia entre el valor esperado en cada momento y el que realmente se produce (no hay cambios en la señal de entrada).
MEDICIÓN:
• La medición generalmente requiere el uso de un instrumento como
medio físico para determinar la magnitud de una variable.
• Los instrumentos constituyen una extensión de las facultades humanas.
• El instrumento electrónico, como su nombre lo indica, se basa en principios eléctricos o electrónicos para efectuar una medición.
• Un instrumento puede ser un aparato relativamente sencillo y de construcción simple (medidor básico de corriente).
• El desarrollo de la tecnología demanda la elaboración de mejores instrumentos y más exactos.
• Nuevos diseños.
• Nuevas aplicaciones.
• Entender sus principios de operación para optimizar su uso
• Si el proceso está en condiciones de régimen permanente existe el llamado error estático.
• En condiciones dinámicas, el error varía considerablemente debido a que los instrumentos tienen características comunes a los sistemas físicos.
Absorben energía del proceso
Esta transferencia requiere cierto tiempo para ser transmitida.
Retardos en la lectura
este es el llamado error dinámico
Los errores se pueden clasificar en tres categorías:
a) Errores graves
b) Errores sistemáticos
c) Errores aleatorios
ERRORES GRAVES
• Son en gran parte de origen humano, como mala lectura de los instrumentos, ajuste incorrecto y aplicación inapropiada.
• Mal registro y cálculo de los resultados de las mediciones.
• Se cometen inevitablemente algunos errores, sin embargo se debe intentar anticiparlos y corregirlos.
• Algunos se detectan con facilidad, pero otros son muy evasivos.
• Principiantes (uso inadecuado de los instrumentos).
Se dividen en dos categorías
a) Errores Instrumentales
b) Errores Ambientales
ERRORES INSTRUMENTALES
• Referentes a los defectos de los instrumentos.
• Por ejemplo aquellos que realizan medición según su estructura mecánica.
• No ajustar el dispositivo a cero antes de tomar la lectura.
• El usuario debe tomar precauciones antes de usar el instrumento.
• Las fallas de los instrumentos se pueden verificar con la estabilidad y la reproducibilidad.
• Comparar con otro de las mismas características.
Estos errores se pueden evitar:
a) Seleccionando el instrumento adecuado para la medición particular.
b) Aplicando los factores de corrección.
c) Calibran el instrumento con un patrón
ERRORES AMBIENTALES
• Se deben a las condiciones externas que afectan la operación del dispositivo.
ERRORES ALEATORIOS
• Se deben a causas desconocidas y ocurren incluso cuando todos los errores sistemáticos se han considerado.