lunes, 10 de noviembre de 2008

Asignacion 1

MEDICIONES INDUSTRIALES

GENERALIDADES DEL SISTEMA DE MEDIDA

1. Descripción de un sistema de medida y control.

El Sistema de Medida y Control es aquel que realiza funciones de medición de magnitudes
físicas, químicas, biológicas, procesando estas informaciones para regular el funcionamiento
del sistema físico que pretende controlar, según los datos obtenidos en el proceso de
adquisición de datos y medición.
Algunos ejemplos de medida a efectuar por un sistema de control pueden ser: medida dela temperatura interna de un horno, medida de la posición o del esfuerzo en un brazo robot, etc.

2. Identificación del sistema de medida y sus bloques constitutivos.
Las etapas fundamentales de un Sistema de Medida y Control son:

1.)Sensor
2.) Acondicionador
,3.) Transmisión de datos,
4.) Presentaciones
5.) Objetivos
6.) Alarmas,
7.) Supervisor
8.) Controlador
9.) Transmisión de orden
10.) Acondicionador
11.) Acondicionamiento
12.) Sistema de planta o proceso
13.) Perturbaciones

Cada uno de los puntos anteriores supone un sistema completo que puede llegar a alcanzar
una enorme complejidad.

2.1. Definición de cada bloque constitutivo: Transductor, sensor, actuador, acondicionador (amplificación, filtraje, adaptación de impedancias, modulación, aislamiento), conversión entre dominios, procesamiento (linealización, estandarización, etc.).

Transductor: Es aquel dispositivo que transforma una magnitud física (mecánica, térmica,
magnética, eléctrica, óptica, etc.) en otra magnitud, normalmente eléctrica. Es necesario
diferenciar el elemento sensor del transductor, ya que este último es un dispositivo más complejo
que puede incluir un amplificador, un conversor A/D, etc.

Sensor: Es el elemento primario que realiza la transducción, y por tanto, la parte principal de todo transductor.
La señal de salida de los transductores suele ser eléctrica, ya que esto supone una serie
de ventajas:
Debido a la estructura electrónica de la materia, cualquier variación de un parámetro
no eléctrico de un material vendrá acompañada de la variación de un parámetro
eléctrico. Escogiendo un material adecuado a cada caso, es posible realizar transductores
con salida eléctrica para medir cualquier magnitud física.
Dado que no es conveniente absorber energía del sistema a medir, es muy ventajoso
la utilización de transductores de salida eléctrica, que puede ser amplificada posteriormente.
Las señales eléctricas pueden ser filtradas, moduladas, etc. gracias al gran número
de circuitos integrados que facilitan estos recursos.
Existen multitud de recursos para registrar y presentar información de forma electrónica
(LEDs, displays, bancos de memoria, PCs,...).
La transmisión de señales eléctricas es más versátil que la de otro tipo de señales,
como las neumáticas o hidráulicas, que requieren equipos más costosos y difíciles de
mantener. No obstante, se utilizarán estos sistemas en lugares donde el riesgo de
incendio o explosión lo requieran.

Acondicionadores de señales o adaptadores: Son los elementos del sistema de medida y control que reciben la señal de salida de los transductores y la preparan de forma que sea una señal apta para usos posteriores (principalmente su procesado en un PLC o PC Industrial).
Los acondicionadores no sólo amplifican la señal, sino que también pueden filtrarla,
adaptar impedancias, realizar una modulación o demodulación, etc.

Actuadores o accionadores: son aquellos elementos que realizan una conversión de energía con objeto de actuar sobre el sistema a controlar para modificar, inicializar y corregir
sus parámetros internos.
La actuación es la etapa final del proceso de control. Las órdenes son enviadas por el
controlador y se aplican al sistema físico a través de los actuadores. Esta actuación modificará
el estado del sistema, que volverá a ser medido por los transductores para realizar un nuevo bucle
de control.

Conversión entre dominios: La mayoría de sensores generan una señal de salida analógica. Si el controlador es un sistema digital, por ejemplo un PC, un autómata programable o un microcontrolador, habrá que digitalizar las señales para que éste pueda interpretarlas.
La conversión analógico-digital se realiza en dos etapas: primero se cuantifica la señal
(representar la magnitud de la señal mediante un número finito de valores) y, posteriormente,
se codifica (representar el valor mediante un código determinado: binario, Gray,...).

2.2. Conceptos generales sobre la medida: Margen de medida.

Es el límite, por arriba o por debajo, dentro de los cuales se consideran anormales los valores de alguna variable que estén ubicados en este rango; y se consideran normales si se encuentran dentro del rango de medida deseado.

3. El sensor:

Un sensor es un dispositivo que detecta, o sensa manifestaciones de cualidades o fenómenos físicos, como la energía, velocidad, aceleración, tamaño, cantidad, etc. Podemos decir también que es un dispositivo que aprovecha una de sus propiedades con el fin de adaptar la señal que mide para que la pueda interpretar otro elemento. Como por ejemplo el termómetro de mercurio que aprovecha la propiedad que posee el mercurio de dilatarse o contraerse por la acción de la temperatura. Muchos de los sensores son eléctricos o electrónicos, aunque existen otros tipos. Un sensor es un tipo de transductor que transforma la magnitud que se quiere medir, en otra, que facilita su medida. Pueden ser de indicación directa (e.g. un termómetro de mercurio) o pueden estar conectados a un indicador (posiblemente a través de un convertidor analógico a digital, un computador y un display) de modo que los valores sensados puedan ser leídos por un humano.
Por lo general la señal de salida de estos sensores no es apta para su procesamiento, por lo que se usa un circuito de acondicionamiento, como por ejemplo un puente de Wheatstone, y amplificadores que adaptan la señal a los niveles apropiados para el resto de la circuitería.

3.1. Clasificación.

· Sensores Resistivos: entre los cuales se encuentran los potenciómetros, detectores de temperatura resistivas (RTD), termistores, magnetorresistencias, fotorresistencias (LDR), higrómetros resistivos, resistencias semiconductoras para detección de gases.
· Sensores de Resonancia y Electromagnéticos: el primero se clasifica en sensores capacitivos e inductivos, y el segundo en sensores electromagnéticos.
· Sensores Generadores: se clasifican en sensores termoeléctricos, piezoeléctricos, piroeléctricos, fotovoltaicos y electroquímicos.
· Sensores Digitales: codificadores de posición, sensores autorresonantes.
· Sensores Fotoeléctricos, también conocidos por sensores ópticos que manipulan la luz de forma a detectar la presencia del accionador.
· Otros métodos de detección son los sensores basados en uniones semiconductoras, en transistores MOSFET, en dispositivos de acoplamiento de caga (CCD), sensores basados en ultrasonidos, en fibras ópticas y los biosensores.
3.2. Interferencias.
Es cualquier proceso que altera, modifica o destruye una señal durante su trayecto en el canal existente entre el emisor y el receptor.

4. Características estáticas de los sistemas de medida.

Resolución: Es el incremento mínimo de la entrada para el que se obtiene un cambio en la salida.

Margen de medida: Es el limite, por arriba o por debajo, dentro de los cuales se consideran anormales los valores de alguna variable que esten ubicados en este rango; y se consideran normales si se encuentran dentro del rango de medida deseado.

Margen dinámico: El rango dinámico o margen dinámico se puede definir de dos maneras:- El margen que hay entre el nivel de referencia y el ruido de fondo de un determinado sistema, medido en decibelios. En este caso rango dinámico y relación señal/ruido son términos intercambiables.
- El margen que hay desde el nivel de pico y el nivel de ruido de fondo. También indicado en dB. En este caso, rango dinámico y relación señal/ruido no son equiparables.

Las dos maneras son válidas, por ello, es común que para indicar que margen dinámico están utilizando, los fabricantes incluyen frases como:60 dB (ref. salida máxima).60 dB (ref. nivel de pico).

* Exactitud: Es la capacidad que tiene un instrumento de dar indicaciones que se aproximen al verdadero valor de la magnitud medida.

Precisión: Es la capacidad de un instrumento de dar el mismo valor de la magnitud medida, al medir varias veces en unas mismas condiciones determinadas. de otra forma, expresa el grado de concordancia entre el valor indicado por el sistema de medida y el valor real de la magnitud. Se representa por la desviación, expresada en porcentaje del valor máximo. La mejor manera de conocer la precisión consiste en determinar la curva de error, en toda la banda de medida.

Histéresis: Es la tendencia de un material a conservar una de sus propiedades, en ausencia del estímulo que la ha generado. Es la diferencia entre los valores indicados por el sistema para un mismo valor de magnitudes de medida, cuando se ha alcanzado entre valor por valores crecientes o por valores decrecientes.

Sensibilidad: Es el cambio incremental más pequeño que puede detectar el instrumento. Esto no quiere decir que se deba mostrar el cambio minimo detectable al usuario. Representa la relación de la señal de salida y la señal de entrada. Para la misma señal de entrada, la salida es tanto mayor cuanto mayor sea la sensibilidad.

Linealidad: Significa que la función que relaciona la variable de salida con la de entrada es una función lineal (geométricamente representada por una línea inclinada). Las desviaciones de la linealidad se expresan en porcentaje.

5. Características dinámicas.
Estás características son importantes cuando la variable a medir cambia con el tiempo. Estas son:

El error dinámico: Es el error existente entre el valor indicado por el sensor y el valor exacto de la variable a medir, a lo largo del tiempo, cuando el error estático es nulo.

La velocidad de respuesta: Tiene que ver con la rapidez con la que un sensor responde ante un cambio brusco de la magnitud a medir.

Impedancia de entrada Z(s): Al cociente entre las transformadas de Laplace de una magnitud esfuerzo y su variable flujo asociada. La admitancia de entrada, Y(s), es el recíproco de la impedancia Z(s). Por tanto, al medir una magnitud esfuerzo es necesario que la impedancia de entrada sea alta. Así, sea x1 una variable esfuerzo, se tiene que:
Z (s ) = x 1(s )/x 2(s)
y la potencia extraída del sistema será:
P = x1 x2
Por tanto, para que dicha potencia sea mínima y con ello el error de carga, x2 debe ser mínima o, lo que es lo mismo, la impedancia de entrada debe ser alta. Por el contrario, al medir una variable flujo se requiere una impedancia de entrada pequeña, es decir, una admitancia de entrada elevada.
Las características dinámicas de los sensores suelen representarse mediante funcionesde transferencia. El orden de dichas funciones de transferencia puede utilizarse paradescribir la respuesta dinámica de un determinado sensor.

6. Características de entrada.
La impedancia y defecto de carga


Error de carga o defecto de carga: Tiene que ver con las perturbaciones sobre la variable a medir durante el proceso de medida. Esto es, todo sensor perturba, en mayor o menor medida, la variable a medir y, por tanto, la magnitud medida estará en parte alterada debido a la presencia de éste.

Impedancia de entrada: Es el cociente entre las transformadas de Laplace de una magnitud esfuerzo y su variable flujo asociada. La admitancia de entrada, Y(s), es el recíproco de la impedancia Z(s). Por tanto, al medir una magnitud esfuerzo es necesario que la impedancia de entrada sea alta.

TEORIA DE ERRORES EN LAS MEDICIONES

7. Incertidumbre de las Medidas
En teoría de la información, la incertidumbre es el grado cómo la información se puede considerar verdadera, completa y digna de fe. La incertidumbre se origina a partir de elementos de datos falsos o de un equívoco, a partir de datos incompletos o de un contexto ambiguo. El principio de incertidumbre nos dice que hay un límite en la precisión con el cual podemos determinar al mismo tiempo la posición y el momento de una partícula.

8. Error Sistemático
Se dice que un error es sistemático cuando en el curso de varias medidas de una magnitud de un determinado valor, hechas en las mismas condiciones, o bien permanece constante en valor absoluto y signo, o bien varía de acuerdo con una ley definida cuando cambian las condiciones de medida. Los errores sistemáticos son debidos al método de medida, al operario y toda una serie de circunstancias (climatológicas, mecánicas, eléctricas, etc.) que nunca son ideales, es decir, constantes y conocidas todas. Sin embargo, dada la naturaleza de este tipo de errores, siempre pueden detectarse mediante la medida de una determinada magnitud con dos aparatos distintos, ante distintas condiciones, etc. Los errores sistemáticos se pueden de alguna manera prever, calcular, eliminar mediante calibraciones y compensaciones.

9. Error Aleatorio

Son los errores que permanecen una vez se eliminan las causas de los errores sistemáticos. Presentan las siguientes características:
1. Los errores aleatorios positivos y negativos de igual valor absoluto tienen lamisma probabilidad de producirse.
2. Los errores aleatorios son tanto menos probables cuanto mayor sea su valor.
3. Al aumentar el número de medidas, la media aritmética de los errores aleatorios de una muestra (conjunto de medidas) tiende a cero.
4. Para un método de medida determinado, los errores aleatorios no exceden de cierto valor.
Por tanto, este tipo de errores son inevitables y la única forma de eliminarlos o disminuir su influencia es realizando varias medidas y tomar la media de todas ellas.

10. Errores Estáticos y Errores Dinámicos

Error estático: Es la diferencia entre las señales de entrada y salida durante el período estacionario o permanente, se lo estudia en el campo complejo ya que se dispone de las transferencias, para ello se utiliza el teorema del valor final. Sea e(t) la función error, se define el error estacionario como:
ess= al limite de e(t), cuanto t, tiende a infinito =al limite de s.E(s), cuando s tiende a 0.

Error dinámico: Es la diferencia entre las señales de entrada y salida durante el período transitorio, es decir el tiempo que tarda la señal de respuesta en establecerse.

11. Forma de expresar los errores
11.1. Error Absoluto: Es la diferencia en positivo entre el número dado o valor exacto y el número aproximado.
11.2. Error Relativo: Es la relación que existe entre el error absoluto y la magnitud medida, es adimensional, y suele expresarse en porcentaje.

12. Cifras significativas

Cuando realizamos una medición con una regla graduada en milímetros, está claro que, si
somos cuidadosos, podremos asegurar nuestro resultado hasta la cifra de los milímetros o, en
el mejor de los casos, con una fracción del milímetro, pero no más. De este modo nuestro
resultado podría ser L = (95.2 ± 0.5) mm, o bien L = (95 ± 1) mm. En el primer caso decimos
que nuestra medición tiene tres cifras significativas y en el segundo caso sólo dos. El
número de cifras significativas es igual al número de dígitos contenidos en el resultado de la
medición que están a la izquierda del primer dígito afectado por el error, incluyendo este dígito.
El primer dígito, o sea el que está más a la izquierda, es el más significativo (9 en nuestro
caso) y el último (más a la derecha) el menos significativo, ya que es en el que tenemos “menos
seguridad”. Nótese que carece de sentido incluir en nuestro resultado de L más cifras que
aquellas en donde tenemos incertidumbres (donde “cae” el error).
No es correcto expresar el resultado como L = (95.321 ±1) mm, ya que si tenemos incertidumbre
del orden de 1 mm, mal podemos asegurar el valor de las décimas, centésimas y
milésimas del milímetro. Si el valor de L proviene de un promedio y el error es del orden del
milímetro, se debe redondear el dígito donde primero cae el error.
Es usual expresar las incertidumbres con una sola cifra significativa, y solo en casos
excepcionales y cuando existe fundamento para ello, se pueden usar más. También es usual
considerar que la incertidumbre en un resultado de medición afecta a la última cifra si es que
no se la indica explícitamente. Por ejemplo, si sólo disponemos de la información que una
longitud es L = 95 mm, podemos suponer que la incertidumbre es del orden del milímetro y,
como dijimos antes, el resultado de L tiene dos cifras significativas.
Una posible fuente de ambigüedad se presenta con el número de cifras significativas
cuando se hace un cambio de unidades. Si en el último ejemplo deseamos expresar L en mm,
el resultado sería L = (95000±1000) mm. ¿Cuántas cifras significativas tenemos en este resultado?
Claramente dos, igual que antes, ya que la última cifra significativa sigue siendo 5. Sin
embargo, si no indicamos explícitamente la incertidumbre de L, es difícil saber cuántas cifras
significativas tenemos. Nótese que 95 mm ¹ 95000 mm, ya que el primer resultado tiene sólo
dos cifras significativas mientras el segundo tiene 5 (a propósito compare los costos de los
instrumentos para realizar estas dos clases de determinaciones). Para evitar estas ambigüedades
se emplea la notación científica. Podemos escribir la siguiente igualdad: 9.5 x101 mm =
9.5 x 104 mm. Notemos que los números en ambos miembros de la igualdad tienen igual número
de cifras significativas, siendo la única diferencia las unidades usadas.


13. Redondeo de Números

Consiste en hacer un cálculo aproximado para acercarse lo más posible a la respuesta correcta de una suma, resta, multiplicación o división. Resulta más fácil y rápido estimar que obtener la respuesta exacta. Si la cifra a descartar es mayor que cinco se utiliza este método, pero si es menor que cinco se usa el truncamiento.

14. Errores de cero, ganancia y de no linealidad

Error de cero: Son aquellos que se presentan cuando el ajuste del cero de los instrumentos no está bien definido, es decir, cuando el instrumento de medida se encuentra descalibrado. Por ejemplo, el que tiene una balanza cuyo cero no está bien ajustado por defecto de los brazos. Estos errores de deben detectar e intentar eliminar, ya que no admiten tratamiento estadístico.

Ganancia: Es proporcional al valor de la entrada, se expresa como la diferencia entre la pendiente de la característica real y la ideal, se expresa en tanto por ciento por una entrada del fondo de escala.

No linealidad: Es todo aquello que viola las reglas de la linealidad. Se define como la máxima diferencia entre la característica de transferencia real con respecto a una línea recta (generalmente se supone como la característica ideal).

15. Estimación del Error de una Medida Directa

Media:
o promedio, de una cantidad finita de números, es igual a la suma de todos ellos dividida entre el número de sumandos. Es uno de los principales estadísticos muestrales. Expresada de forma más intuitiva, podemos decir que la media (aritmética) es la cantidad total de la variable distribuida a partes iguales entre cada observación.

Desviación estándar: También conocida como desviación típica, es una medida de dispersión usada en estadística que nos dice cuánto tienden a alejarse los valores puntuales del promedio en una distribución. De hecho, específicamente, la desviación estándar es "el promedio de la distancia de cada punto respecto del promedio". Se suele representar por una S o con la letra sigma .La desviación estándar de un conjunto de datos es una medida de cuánto se desvían los datos de su media. Esta medida es más estable que el recorrido y toma en consideración el valor de cada dato.

Distribución normal: También llamada distribución de Gauss o distribución gaussiana, es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades. Esto se debe a dos razones fundamentalmente:

- Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación como modelo a gran número de variables estadísticas.- Es, además, límite de otras distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las probabilidades gracias a sus propiedades matemáticas.

Error de lectura: Cuando se habla de lectura de un instrumento de medida indicador, se quiere significar la referencia de la posición relativa del índice y de la graduación, en esta apreciaciones se comete un error de lectura debido a las siguientes causas:

Error de paralaje: este tipo de error resulta cuando la visual del oiperador no se encuentra perpendicular a la aguja del istrumento, sino más bien se encuentra ubicado en un cierto ángulo del mismo.

Error debido al límite del poder separador del ojo humano : Se sabe que en condiciones normales de visibilidad la distancia angular mínima necesaria para observar dos puntos A y B separados según la figura, es de 2 minutos. En general, las escalas son, leídas desde una distancia media de aproximadamente 250 mm y esto muchas veces conlleva a errores de lectura por mucha distancia entre el instrumento y el observador.

Error de estimación : se comete al leer valor de la desviación encontrándose la aguja entre dos divisiones sucesivas de la escala; en este caso existe cierta incertidumbre en la apreciación de la posición exacta de la aguja sobre la escala, incertidumbre que no se hace leer indistintamente mayor o menor que el verdadero y en una cantidad representada por la menor fracción que puede apreciarse de la división considerada sobre la escala.De aquí sometida esta desviación a la lectura por distintos observadores, los valores registrados por cada uno de ellos no coinciden generalmente. La apreciación de la fracción de división difiere de uno a otro, aun cuando el poder separador visual fuera igual para todos ellos.

Error de los parámetros: Es aquel que se obtiene al aplicar métodos matemáticos inexactos. De por si, la toma de medidas trae consigo distintos tipos de errores, pero al aplicarle estos métodos dicho error se extiende y los resultados tienden a dar inexactos.

Propagación del error: dice que cuanto menor sea el número de pasos intermedios que efectuemos para alcanzar la solución, menor será el error cometido.

Ajuste de los minimos cuadrados: Es una técnica de optimización matemática que, dada una serie de mediciones, intenta encontrar una función que se aproxime a los datos (un "mejor ajuste"). Intenta minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se sabe que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración). Pero requiere un gran número de iteraciones para converger.
Un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria.