Documento de Ares Formació sobre magnitudes, tipos y medida, unidades, factores de conversión, representaciones gráficas, instrumentos de medida, sensibilidad, precisión y errores en la medida. El Pdf detalla la importancia de la metrología para la precisión científica en el ámbito universitario de la Física, analizando las fuentes y clasificación de los errores de medida.
Ver más17 páginas


Visualiza gratis el PDF completo
Regístrate para acceder al documento completo y transformarlo con la IA.
Unidades. Factores de conversión. Representaciones gráficas. Instrumentos de medida: sensibilidad y precisión. Errores en la medida.
La observación de un fenómeno es en general incompleta a menos que de lugar a una información cuantitativa. Para obtener dicha información se requiere la medición de una propiedad física, y así la medición constituye una buena parte de la rutina diaria del físico experimental.
Lord Kelvin señaló que nuestro conocimiento es satisfactorio solamente cuando lo podemos expresar mediante números. Aunque esta afirmación es quizás exagerada, expresa una filosofía que un físico debe tener en mente todo el tiempo en sus investigaciones. Pero la expresión de una propiedad física en términos de números requiere no solamente que utilicemos las matemáticas para mostrar las relaciones entre las diferentes cantidades, sino también tener el conocimiento para operar con estas relaciones. Esta es la razón por la cual la matemática es el lenguaje de la física y sin matemáticas es imposible comprender el fenómeno físico, tanto desde un punto de vista experimental como teórico.
La matemática es la herramienta del físico; debe ser manipulada con destreza y sentido común de modo que su uso ayude a comprender en lugar de oscurecer su trabajo. En este capítulo definiremos las unidades necesarias para expresar los resultados de una medición.
"La metrología es la ciencia de la medida y engloba todo tipo de mediciones realizadas con niveles de incertidumbre conocidos, en cualquier campo de la actividad humana"
La medición es una técnica por medio de la cual asignamos un número a una a una propiedad física, como resultado de una comparación de dicha propiedad con otra similar tomada como patrón, la cual se ha adoptado como unidad.
La mayor parte de las mediciones realizadas en el laboratorio se reducen esencialmente a la medición de una longitud. Utilizando esta medición (y ciertas convenciones expresadas por fórmulas), obtenemos la cantidad deseada.
Cuando se mide algo, se debe tener gran cuidado de modo de producir una perturbación mínima del sistema que está bajo observación. Por ejemplo, cuando medimos la temperatura de un cuerpo, lo ponemos en contacto con un termómetro. Pero cuando los ponemos juntos, algo de energía o calor se intercambia entre el[ cuerpo y el termómetro, dando por resultado un pequeño cambio en la temperatura del cuerpo, afectando así la misma cantidad que deseábamos medir.
Además todas las medidas son afectadas en algún grado por el error experimental debido a las imperfecciones inevitables del instrumento de medida, o las limitaciones impuestas por nuestros sentidos (visión y audición) que deben registrar la información.
Por lo tanto, cuando se diseña una técnica de medición, se procura que la perturbación de la cantidad a medirse sea más pequeña que su error experimental. En general esto es siempre posible cuando medimos cantidades en el campo macroscópico (es decir, en cuerpos compuestos de un gran número de moléculas), ya que entonces lo que tenemos que hacer es usar un instrumento de medición que produzca, una perturbación más pequeña, en varios órdenes de magnitud, que la cantidad a medirse. Así cualquiera que sea la perturbación producida, ésta es despreciable comparada con el error experimental.
En otros casos la perturbación puede ser calculada y el valor medido corregido. La situación, sin embargo, es muy diferente cuando estamos midiendo propiedades atómicas individuales, tales como el movimiento de un electrón. Ahora no tenemos la opción de usar un instrumento de medida que produzca una perturbación más pequeña que la cantidad a medirse ya que no poseemos un dispositivo tan pequeño. La perturbación introducida es del -mismo orden de mágnitud que la cantidad a medirse y puede aun no ser posible estimarse su valor o darse cuenta de él. Por lo tanto debe hacerse una distinción entre las mediciones de cantidades macroscópicas y de cantidades microscópicas.
Es necesario formular una estructura teórica especial cuando tratamos con cantidades atómicas. Dicha técnica se denomina mecánica cuántica.
Otro requisito importante es que las definiciones de las cantidades físicas deben de ser operacionales, en el sentido que deben indicar explícitamente o implícitamente como medir la cantidad definida. Por ejemplo, decir que la velocidad es una expresión de la rapidez de un cuerpo no es una definición operacional de velocidad, pero decir que velocidad es la distancia desplazada dividida entre el tiempo, sí que es una definición operacional de velocidad.
Antes de efectuar una medición, debemos seleccionar una unidad para cada cantidad, a medirse. Para propósitos de medición, hay magnitudes fundamentales y magnitudes derivadas, y también hay unidades. En Física se reconocen cuatro cantidades fundamentales independientes: longitud, masa, tiempo y carga.
La longitud es un concepto primario y es una noción que todos adquirimos naturalmente; es inútil intentar dar una definición de ella. De igual manera lo es el tiempo. La masa y la carga, sin embargo, no son de un carácter tan intuitivo.
La masa es un coeficiente, característico de cada partícula que determina su comportamiento cuando interactúa con otras partículas, así como la intensidad de sus interacciones gravitacionales.
Similarmente la carga es otro coeficiente, característico de cada partícula, que determina la intensidad de su interacción electromagnética con otras partículas.
Pueden existir otros coeficientes que caractericen otras interacciones entre partículas, pero hasta el momento no han sido identificados, y en el presente no parece requerirse de cantidades fundamentales adicionales.
Con unas pocas excepciones, todas las cantidades usadas hasta ahora en física pueden relacionarse a estas cuatro cantidades por sus definiciones, expresadas como relaciones matemáticas involucrando longitud, masa, tiempo y carga. Las unidades de todas estas cantidades derivadas son a su vez expresadas en función de las unidades de las cuatro cantidades fundamentales mediante estas relaciones de definición.
Luego es necesario solamente estar de acuerdo en las unidades para las cuatro cantidades fundamentales a fin de tener un sistema consistente de unidades. Los científicos se han puesto de acuerdo para usar el sistema de unidades MKSC, y éste será el más utilizado. Las iniciales representan el metro, el kilogramo, el segundo y el coulomb. Sus definiciones son:
"El metro es la longitud del trayecto recorrido por la luz en el vacío durante un intervalo de tiempo de 299792458 1 segundos."
Piano del ecuador terrestre Equinoccio de otoño Tierra Posición aparente del sol Equinoccio de primavera Ecliptica'
Puede también definirse como 1/86.400 del día solar medio, el cual es el intervalo de tiempo entre dos pasajes sucesivos de un punto situado sobre la tierra frente al sol, promediados en un año. Pero esta definición tiene la inconveniencia que, debido a la acción de las mareas el período de la rotación de la tierra está decreciendo gradualmente, y por ende esta unidad cambiaría gradualmente. Por esta razón se escogió arbitrariamente un año particular, el de 1900. La unidad de tiempo podría también relacionarse a una propiedad atómica, como se ha hecho con la unidad de longitud, resultando los llamados relojes atómicos. Por ejemplo, la molécula de amoniaco (NH3) tiene una estructura piramidal, con los tres átomos H en la base y el átomo N en el vértice. El segundo puede definirse entonces como el tiempo necesario para que el átomo N realice 2, 387 × 1010 de tales alrededor del centro de simetría.
"Nota: Estrictamente hablando, en adición al metro, al kilogramo y al segundo, la cuarta unidad adoptada en la Onceava Conferencia fue el ampere (en lugar del coulomb) como unidad de corriente eléctrica. El coulomb está definido como la cantidad de carga eléctrica que pasa a través de una sección de un conductor