miércoles, 1 de junio de 2016

CUANTOS

En física, el término cuanto o cuantio (del latín quantum, plural quanta, que significa cantidad) denota en la física cuántica tanto el valor mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima variación posible de este parámetro al pasar de un estado discreto a otro.1 Se habla de que una determinada magnitud esta cuantizada según el valor de cuanto. Es decir, el cuanto es una proporción determinada por la magnitud dada.
Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están cuantizadas se encuentra en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos definitorio de las características esenciales de la teoría.
En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un proceso para que ejecute sus instrucciones. El cuanto es determinado por elplanificador de procesos utilizando algún algoritmo de planificación.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.
MAX PLANCKPara fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos. Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien. La Física clásica había llegado a un límite que no podría superar.
Un científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.
Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los
EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potencia
emitida y µ  es la longitud de onda
cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así. Esta fórmula se resistía a ser deducida de los principios clásicos. Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba. Era el siguiente:
Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).
(Nota: la letra v es griega y se la pronuncia nu)
El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.
Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.
En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.
En física, el término cuanto o quantum (del latín Quantum, plural Quanta, que representa una cantidad de algo) denotaba en la física cuántica primitiva tanto el valor mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima variación posible de este parámetro al pasar de un estado discreto a otro. Se hablaba de que una determinada magnitud estaba cuantizada según el valor de cuanto. O sea que cuanto es una proporción hecha por la magnitud dada.

Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están cuantizadas lo encontramos en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos definitorio de las caracterísitcas esenciales de la teoría.

En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un proceso para que ejecute sus instrucciones. El cuanto es determinado por el planificador de procesos utilizando algún algoritmo de planificación.


Historia [editar]El ejemplo clásico de un cuanto procede de la descripción de la naturaleza de la luz, como la energía de la luz está cuantizada, la mínima cantidad posible de energía que puede transportar la luz sería la que proporciona un fotón (nunca se podrá transportar medio fotón). Esta fue una conclusión fundamental obtenida por Max Planck y Albert Einstein en sus descripciones de la ley de emisión de un cuerpo negro y del efecto fotoeléctrico. Otra magnitud cuantizada en física es la carga eléctrica, cuya unidad mínima es la carga del electrón, aunque por ser tan pequeña normalmente se use como una magnitud continua. La teoría de la física que describe los sistemas cuantizados se denomina mecánica cuántica. Otras magnitudes menos intuitivas también aparecen cuantizadas como el momento angular de un electrón o el spín de una partícula subatómica.

RELATIVIDAD

La teoría de la relatividad incluye tanto a la teoría de la relatividad especial como la de relatividad general, formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica newtoniana y elelectromagnetismo.
La teoría de la relatividad especial, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzasgravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento.
La teoría de la relatividad general, publicada en 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana, aunque coincide numéricamente con ella para campos gravitatorios débiles y "pequeñas" velocidades. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios.
El 7 de marzo de 2010 fueron mostrados públicamente los manuscritos originales de Einstein (de 1905) por parte de la Academia Israelí de Ciencias. El manuscrito contiene 46 páginas de textos y fórmulas matemáticas redactadas a mano, y fue donado por Einstein a laUniversidad Hebrea de Jerusalén en 1925 con motivo de su inauguración.
Dibujo artístico sobre la teoría de la relatividad

La mecánica clásica constituye una excelente aproximación a la realidad, dentro de ciertos límites.Sin embargo en la escala microscópica, los fenómenos físicos sólo pueden estudiarse por medio de la mecánica cuántica. Y cuando se tratan velocidades muy altas, cercanas a la luminosa, se debe recurrir a la teoría de la relatividad.
La primera revolución científica del siglo XX se produjo cuando Albert Einstein (Figura 1) formuló, en 1905, la teoría de la relatividad especial. A continuación describiremos los rasgos esenciales de esta teoría.


Figura 1. Albert Einstein (1879-1955), quien formuló la teoría de la relatividad.
PRECECIBILIDAD

CUANTOS

En física, el término cuanto o cuantio (del latín quantum, plural quanta, que significa cantidad) denota en la física cuántica tanto el valor mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima variación posible de este parámetro al pasar de un estado discreto a otro.1 Se habla de que una determinada magnitud esta cuantizada según el valor de cuanto. Es decir, el cuanto es una proporción determinada por la magnitud dada.
Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están cuantizadas se encuentra en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos definitorio de las características esenciales de la teoría.
En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un proceso para que ejecute sus instrucciones. El cuanto es determinado por elplanificador de procesos utilizando algún algoritmo de planificación.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.
MAX PLANCKPara fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos. Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien. La Física clásica había llegado a un límite que no podría superar.
Un científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.
Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los
EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potencia
emitida y µ  es la longitud de onda
cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así. Esta fórmula se resistía a ser deducida de los principios clásicos. Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba. Era el siguiente:
Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).
(Nota: la letra v es griega y se la pronuncia nu)
El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.
Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.
En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.
En física, el término cuanto o quantum (del latín Quantum, plural Quanta, que representa una cantidad de algo) denotaba en la física cuántica primitiva tanto el valor mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima variación posible de este parámetro al pasar de un estado discreto a otro. Se hablaba de que una determinada magnitud estaba cuantizada según el valor de cuanto. O sea que cuanto es una proporción hecha por la magnitud dada.

Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están cuantizadas lo encontramos en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos definitorio de las caracterísitcas esenciales de la teoría.

En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un proceso para que ejecute sus instrucciones. El cuanto es determinado por el planificador de procesos utilizando algún algoritmo de planificación.


Historia [editar]El ejemplo clásico de un cuanto procede de la descripción de la naturaleza de la luz, como la energía de la luz está cuantizada, la mínima cantidad posible de energía que puede transportar la luz sería la que proporciona un fotón (nunca se podrá transportar medio fotón). Esta fue una conclusión fundamental obtenida por Max Planck y Albert Einstein en sus descripciones de la ley de emisión de un cuerpo negro y del efecto fotoeléctrico. Otra magnitud cuantizada en física es la carga eléctrica, cuya unidad mínima es la carga del electrón, aunque por ser tan pequeña normalmente se use como una magnitud continua. La teoría de la física que describe los sistemas cuantizados se denomina mecánica cuántica. Otras magnitudes menos intuitivas también aparecen cuantizadas como el momento angular de un electrón o el spín de una partícula subatómica.

RELATIVIDAD

La teoría de la relatividad incluye tanto a la teoría de la relatividad especial como la de relatividad general, formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica newtoniana y elelectromagnetismo.
La teoría de la relatividad especial, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzasgravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento.
La teoría de la relatividad general, publicada en 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana, aunque coincide numéricamente con ella para campos gravitatorios débiles y "pequeñas" velocidades. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios.
El 7 de marzo de 2010 fueron mostrados públicamente los manuscritos originales de Einstein (de 1905) por parte de la Academia Israelí de Ciencias. El manuscrito contiene 46 páginas de textos y fórmulas matemáticas redactadas a mano, y fue donado por Einstein a laUniversidad Hebrea de Jerusalén en 1925 con motivo de su inauguración.
Dibujo artístico sobre la teoría de la relatividad

La mecánica clásica constituye una excelente aproximación a la realidad, dentro de ciertos límites.Sin embargo en la escala microscópica, los fenómenos físicos sólo pueden estudiarse por medio de la mecánica cuántica. Y cuando se tratan velocidades muy altas, cercanas a la luminosa, se debe recurrir a la teoría de la relatividad.
La primera revolución científica del siglo XX se produjo cuando Albert Einstein (Figura 1) formuló, en 1905, la teoría de la relatividad especial. A continuación describiremos los rasgos esenciales de esta teoría.


Figura 1. Albert Einstein (1879-1955), quien formuló la teoría de la relatividad.
PRECECIBILIDAD

martes, 17 de mayo de 2016


Rayo de luz solar dispersado por partículas de polvo en el cañón del Antílope, en Estados Unidos.
Se llama luz (del latín luxlucis) a la parte de la radiación electromagnética que puede ser percibida por el ojo humano. En física, el término luz se usa en un sentido más amplio e incluye todo el campo de la radiación conocido como espectro electromagnético, mientras que la expresión luz visible señala específicamente la radiación en elespectro visible. La luz, como todas las radiaciones electromagnéticas, está formada por partículas elementales desprovistas de masa denominadas fotones, cuyas propiedades de acuerdo con la dualidad onda partícula explican las características de su comportamiento físico.
La óptica es la rama de la física que estudia el comportamiento de la luz, sus características y sus manifestaciones.

Velocidad finita[editar]

Se ha demostrado teórica y experimentalmente que la luz tiene una velocidad finita. La primera medición con éxito fue hecha por el astrónomo danés Ole Roemer en 1676 y desde entonces numerosos experimentos han mejorado la precisión con la que se conoce el dato. Actualmente el valor exacto aceptado para la velocidad de la luz en el vacío es de 299 792 458 m/s.1
La velocidad de la luz al propagarse a través de la materia es menor que a través del vacío y depende de las propiedades dieléctricas del medio y de la energía de la luz. La relación entre la velocidad de la luz en el vacío y en un medio se denomina índice de refracción del medio: n = \frac{c}{v}

La línea amarilla muestra el tiempo que tarda la luz en recorrer el espacio entre la Tierra y la Luna, alrededor de 1,26 segundos.

Refracción


En esta ilustración se muestra la descomposición de la luz al atravesar un prisma.


La refracción es el variación brusca de dirección que sufre la luz al cambiar de medio. Este fenómeno se debe al hecho de que la luz se propaga a diferentes velocidades según el medio por el que viaja. El cambio de dirección es mayor cuanto mayor es el cambio de velocidad, ya que la luz recorre mayor distancia en su desplazamiento por el medio en que va más rápido. La ley de Snell relaciona el cambio de ángulo con el cambio de velocidad por medio de los índices de refracción de los medios.
Como la refracción depende de la energía de la luz, cuando se hace pasar luz blanca o policromática a través de un medio con caras no paralelas, como un prisma, se produce la separación de la luz en sus diferentes componentes (colores) según su energía, en un fenómeno denominado dispersión refractiva. Si el medio tiene las caras paralelas, la luz se vuelve a recomponer al salir de él.
Ejemplos muy comunes de la refracción es la ruptura aparente que se ve en un lápiz al introducirlo en agua o el arcoíris.

Propagación y difracciónA


Sombra de una canica.
Una de las propiedades de la luz más evidentes a simple vista es que se propaga en línea recta. Lo podemos ver, por ejemplo, en la propagación de un rayo de luz a través de ambientes polvorientos o de atmósferas saturadas. La óptica geométrica parte de esta premisa para predecir la posición de la luz, en un determinado momento, a lo largo de su transmisión.

Luz en la persiana.
De la propagación de la luz y su encuentro con objetos surgen las sombras. Si interponemos un cuerpo opaco en el camino de la luz y a continuación una pantalla, obtendremos sobre ella la sombra del cuerpo. Si el origen de la luz o foco se encuentra lejos del cuerpo, de tal forma que, relativamente, sea más pequeño que el cuerpo, se producirá una sombra definida. Si se acerca el foco al cuerpo surgirá una sombra en la que se distinguen una región más clara denominada penumbra y otra más oscura denominada umbra.
Sin embargo, la luz no siempre se propaga en línea recta. Cuando la luz atraviesa un obstáculo puntiagudo o una abertura estrecha, el rayo se curva ligeramente. Este fenómeno, denominado difracción, es el responsable de que al mirar a través de un agujero muy pequeño todo se vea distorsionado o de que los telescopios y microscopios tengan un número de aumentos máximo limitado.

Interferencia

La forma más sencilla de estudiar el fenómeno de la interferencia es con el denominado experimento de Young que consiste en hacer incidir luz monocromática (de un solo color) en una pantalla que tiene una rendija muy estrecha. La luz difractada que sale de dicha rendija se vuelve a hacer incidir en otra pantalla con una doble rendija. La luz procedente de las dos rendijas se combina en una tercera pantalla produciendo bandas alternativas claras y oscuras.
El fenómeno de las interferencias se puede ver también de forma natural en las manchas de aceite sobre los charcos de agua o en la cara con información de los discos compactos; ambos tienen una superficie que, cuando se ilumina con luz blanca, la difracta, produciéndose una cancelación por interferencias, en función del ángulo de incidencia de la luz, de cada uno de los colores que contiene, permitiendo verlos separados, como en un arco iris.

Reflexión y dispersión


Pez ballesta reflejado.
Al incidir la luz en un cuerpo, la materia de la que está constituido retiene unos instantes su energía y a continuación la reemite en todas las direcciones. Este fenómeno es denominadoreflexión. Sin embargo, en superficies ópticamente lisas, debido a interferencias destructivas, la mayor parte de la radiación se pierde, excepto la que se propaga con el mismo ángulo que incidió. Ejemplos simples de este efecto son los espejos, los metales pulidos o el agua de un río (que tiene el fondo oscuro).
La luz también se refleja por medio del fenómeno denominado reflexión interna total, que se produce cuando un rayo de luz, intenta salir de un medio en que su velocidad es más lenta a otro más rápido, con un determinado ángulo. Se produce una refracción de tal modo que no es capaz de atravesar la superficie entre ambos medios reflejándose completamente. Esta reflexión es la responsable de los destellos en un diamante tallado.
En el vacío, la velocidad es la misma para todas las longitudes de onda del espectro visible, pero cuando atraviesa sustancias materiales la velocidad se reduce y varía para cada una de las distintas longitudes de onda del espectro, este efecto se denomina dispersión. Gracias a este fenómeno podemos ver los colores del arcoíris. El color azul del cielo se debe a la luz del sol dispersada por la atmósfera. El color blanco de las nubes o el de la leche también se debe a la dispersión de la luz por las gotitas de agua o por las partículas de grasa en suspensión que contienen respectivamente.

Polarización


Polarizador.
El fenómeno de la polarización se observa en unos cristales determinados que individualmente son transparentes. Sin embargo, si se colocan dos en serie, paralelos entre sí y con uno girado un determinado ángulo con respecto al otro, la luz no puede atravesarlos. Si se va rotando uno de los cristales, la luz empieza a atravesarlos alcanzándose la máxima intensidad cuando se ha rotado el cristal 90° sexagesimales respecto al ángulo de total oscuridad.
También se puede obtener luz polarizada a través de la reflexión de la luz. La luz reflejada está parcial o totalmente polarizada dependiendo del ángulo de incidencia. El ángulo que provoca una polarización total se llama ángulo de Brewster.
Muchas gafas de sol y filtros para cámaras incluyen cristales polarizadores para eliminar reflejos molestos.

Efectos químicos

Algunas sustancias al absorber luz, sufren cambios químicos; utilizan la energía que la luz les transfiere para alcanzar los niveles energéticos necesarios para reaccionar, para obtener una conformación estructural más adecuada para llevar a cabo una reacción o para romper algún enlace de su estructura (fotólisis).
La fotosíntesis en las plantas, que generan azúcares a partir de dióxido de carbono, agua y luz; la síntesis de vitamina D en la piel; la ruptura de dihalógenos con luz en las reacciones radicalarias o el proceso de visión en el ojo, producido por la isomerización del retinol con la luz, son ejemplos de reacciones fotoquímicas. El área de la química encargada del estudio de estos fenómenos es la fotoquímica.

Aproximación histórica

A principios del siglo XVIII era creencia generalizada que la luz estaba compuesta de pequeñas partículas. Fenómenos como la reflexión, la refracción y las sombras de los cuerpos, se podían esperar de torrentes de partículas. Isaac Newton demostró que la refracción estaba provocada por el cambio de velocidad de la luz al cambiar de medio y trató de explicarlo diciendo que las partículas aumentaban su velocidad al aumentar la densidad del medio. La comunidad científica, consciente del prestigio de Newton, aceptó su teoría corpuscular.
En la cuneta quedaba la teoría de Christian Huygens que en 1678 propuso que la luz era un fenómeno ondulatorio que se transmitía a través de un medio llamado éter. Esta teoría quedó olvidada hasta la primera mitad del siglo XIX, cuando Thomas Young solo era capaz de explicar el fenómeno de las interferencias suponiendo que la luz fuese en realidad una onda. Otros estudios de la misma época explicaron fenómenos como la difracción y la polarización teniendo en cuenta la teoría ondulatoria.
El golpe final a la teoría corpuscular pareció llegar en 1848, cuando se consiguió medir la velocidad de la luz en diferentes medios y se encontró que variaba de forma totalmente opuesta a como lo había supuesto Newton. Debido a esto, casi todos los científicos aceptaron que la luz tenía una naturaleza ondulatoria. Sin embargo todavía quedaban algunos puntos por explicar como la propagación de la luz a través del vacío, ya que todas las ondas conocidas se desplazaban usando un medio físico, y la luz viajaba incluso más rápido que en el aire o el agua. Se suponía que este medio era el éter del que hablaba Huygens, pero nadie lo conseguía encontrar.
En 1845Michael Faraday descubrió que el ángulo de polarización de la luz se podía modificar aplicándole un campo magnético (efecto Faraday), proponiendo dos años más tarde que la luz era una vibración electromagnética de alta frecuencia. James Clerk Maxwell, inspirado por el trabajo de Faraday, estudió matemáticamente estas ondas electromagnéticas y se dio cuenta de que siempre se propagaban a una velocidad constante, que coincidía con la velocidad de la luz, y de que no necesitaban medio de propagación ya que se autopropagaban. La confirmación experimental de las teorías de Maxwell eliminó las últimas dudas que se tenían sobre la naturaleza ondulatoria de la luz.
No obstante, a finales del siglo XIX, se fueron encontrando nuevos efectos que no se podían explicar suponiendo que la luz fuese una onda, como, por ejemplo, el efecto fotoeléctrico, esto es, la emisión de electrones de las superficies de sólidos y líquidos cuando son iluminados. Los trabajos sobre el proceso de absorción y emisión de energía por parte de la materia solo se podían explicar si uno asumía que la luz se componía de partículas. Entonces la ciencia llegó a un punto muy complicado e incomodo: se conocían muchos efectos de la luz, sin embargo, unos solo se podían explicar si se consideraba que la luz era una onda, y otros solo se podían explicar si la luz era una partícula.
El intento de explicar esta dualidad onda-partícula, impulsó el desarrollo de la física durante el siglo XX. Otras ciencias, como la biología o la química, se vieron revolucionadas ante las nuevas teorías sobre la luz y su relación con la materia.

Naturaleza de la luz

La luz presenta una naturaleza compleja: depende de cómo la observemos se manifestará como una onda o como una partícula. Estos dos estados no se excluyen, sino que son complementarios (véase Dualidad onda corpúsculo). Sin embargo, para obtener un estudio claro y conciso de su naturaleza, podemos clasificar los distintos fenómenos en los que participa según su interpretación teórica:

Teoría ondulatoria

Esta teoría, desarrollada por Christiaan Huygens, considera que la luz es una onda electromagnética, consistente en un campo eléctrico que varía en el tiempo generando a su vez un campo magnético y viceversa, ya que los campos eléctricos variables generan campos magnéticos (ley de Ampère) y los campos magnéticos variables generan campos eléctricos (ley de Faraday). De esta forma, la onda se autopropaga indefinidamente a través del espacio, con campos magnéticos y eléctricos generándose continuamente. Estas ondas electromagnéticas son sinusoidales, con los campos eléctrico y magnético perpendiculares entre sí y respecto a la dirección de propagación.

Vista lateral (izquierda) de una onda electromagnética a lo largo de un instante y vista frontal (derecha) de la misma en un momento determinado. De color rojo se representa el campo magnético y de azul el eléctrico.
Para poder describir una onda electromagnética podemos utilizar los parámetros habituales de cualquier onda:
  • Amplitud (A): Es la longitud máxima respecto a la posición de equilibrio que alcanza la onda en su desplazamiento.
  • Periodo (T): Es el tiempo necesario para el paso de dos máximos o mínimos sucesivos por un punto fijo en el espacio.
  • Frecuencia (ν): Número de oscilaciones del campo por unidad de tiempo. Es una cantidad inversa al periodo.
  • Longitud de onda (λ): Es la distancia lineal entre dos puntos equivalentes de ondas sucesivas.
  • Velocidad de propagación (V): Es la distancia que recorre la onda en una unidad de tiempo. En el caso de la velocidad de propagación de la luz en el vacío, se representa con la letra c.
La velocidad, la frecuencia, el periodo y la longitud de onda están relacionadas por las siguientes ecuaciones:
c = \lambda \cdot \nu = \frac{\lambda}{T}

Fenómenos ondulatorios[editar]

Algunos de los fenómenos más importantes de la luz se pueden comprender fácilmente si se considera que tiene un comportamiento ondulatorio.
El principio de superposición de ondas nos permite explicar el fenómeno de la interferencia: si juntamos en el mismo lugar dos ondas con la misma longitud de onda y amplitud, si están en fase (las crestas de las ondas coinciden) formarán una interferencia constructiva y la intensidad de la onda resultante será máxima e igual a dos veces la amplitud de las ondas que la conforman. Si están desfasadas, habrá un punto donde el desfase sea máximo (la cresta de la onda coincida exactamente con un valle) formándose una interferencia destructiva, anulándose la onda. El experimento de Young, con sus rendijas, nos permite obtener dos focos de luz de la misma longitud de onda y amplitud, creando un patrón de interferencias sobre una pantalla.
Las ondas cambian su dirección de propagación al cruzar un obstáculo puntiagudo o al pasar por una abertura estrecha. Como recoge el principio de Fresnel - Huygens, cada punto de un frente de ondas es un emisor de un nuevo frente de ondas que se propagan en todas las direcciones. La suma de todos los nuevos frentes de ondas hace que la perturbación se siga propagando en la dirección original. Sin embargo, si por medio de una rendija o de un obstáculo puntiagudo, se separa uno o unos pocos de los nuevos emisores de ondas, predominará la nueva dirección de propagación frente a la original.

Onda propagándose a través de una rendija.
La difracción de la luz se explica fácilmente si se tiene en cuenta este efecto exclusivo de las ondas. La refracción, también se puede explicar utilizando este principio, teniendo en cuenta que los nuevos frentes de onda generados en el nuevo medio, no se transmitirán con la misma velocidad que en el anterior medio, generando una distorsión en la dirección de propagación:

Refracción de la luz según el principio de Huygens.
Otro fenómeno de la luz fácilmente identificable con su naturaleza ondulatoria es la polarización. La luz no polarizada está compuesta por ondas que vibran en todos los ángulos, al llegar a un medio polarizador, solo las ondas que vibran en un ángulo determinado consiguen atravesar el medio, al poner otro polarizador a continuación, si el ángulo que deja pasar el medio coincide con el ángulo de vibración de la onda, la luz pasará íntegra, si no solo una parte pasará hasta llegar a un ángulo de 90º entre los dos polarizadores, donde no pasará nada de luz.

Dos polarizadores en serie.
Este efecto, además, permite demostrar el carácter transversal de la luz (sus ondas vibran en dirección perpendicular a la dirección de propagación).
El efecto Faraday y el cálculo de la velocidad de la luzc, a partir de constantes eléctricas (permitividad\varepsilon_0) y magnéticas (permeabilidad\mu_0) por parte de la teoría de Maxwell:
c= \frac {1} {\sqrt{\varepsilon_0\mu_0}}
confirman que las ondas de las que está compuesta la luz son de naturaleza electromagnética. Esta teoría fue capaz, también, de eliminar la principal objeción a la teoría ondulatoria de la luz, que era encontrar la manera de que las ondas se trasladasen sin un medio material.

Teoría corpuscular

Descripción

La teoría corpuscular estudia la luz como si se tratase de un torrente de partículas sin carga y sin masa llamadas fotones, capaces de transportar todas las formas de radiación electromagnética. Esta interpretación resurgió debido a que, la luz, en sus interacciones con la materia, intercambia energía solo en cantidades discretas (múltiplos de un valor mínimo) de energía denominadas cuantos. Este hecho es difícil de combinar con la idea de que la energía de la luz se emita en forma de ondas, pero es fácilmente visualizado en términos de corpúsculos de luz o fotones.

Fenómenos corpusculares

Existen tres efectos que demuestran el carácter corpuscular de la luz. Según el orden histórico, el primer efecto que no se pudo explicar por la concepción ondulatoria de la luz fue la radiación del cuerpo negro.
Un cuerpo negro es un radiador teóricamente perfecto que absorbe toda la luz que incide en él y por eso, cuando se calienta se convierte en un emisor ideal de radiación térmica, que permite estudiar con claridad el proceso de intercambio de energía entre radiación y materia. La distribución de frecuencias observadas de la radiación emitida por la caja a una temperatura de la cavidad dada, no se correspondía con las predicciones teóricas de la física clásica. Para poder explicarlo, Max Planck, al comienzo del siglo XX, postuló que para ser descrita correctamente, se tenía que asumir que la luz de frecuencia ν es absorbida por múltiplos enteros de un cuanto de energía igual a , donde h es una constante física universal llamada Constante de Planck.
\displaystyle E = h \nu
En 1905Albert Einstein utilizó la teoría cuántica recién desarrollada por Planck para explicar otro fenómeno no comprendido por la física clásica: el efecto fotoeléctrico. Este efecto consiste en que cuando un rayo monocromático de radiación electromagnética ilumina la superficie de un sólido (y, a veces, la de un líquido), se desprenden electrones en un fenómeno conocido como fotoemisión o efecto fotoeléctrico externo. Estos electrones poseen una energía cinética que puede ser medida electrónicamente con un colector con carga negativa conectado a la superficie emisora. No se podía entender que la emisión de los llamados "fotoelectrones" fuese inmediata e independiente de la intensidad del rayo. Eran incluso capaces de salir despedidos con intensidades extremadamente bajas, lo que excluía la posibilidad de que la superficie acumulase de alguna forma la energía suficiente para disparar los electrones. Además, el número de electrones era proporcional a la intensidad del rayo incidente. Einstein demostró que el efecto fotoeléctrico podía ser explicado asumiendo que la luz incidente estaba formada de fotones de energía , parte de esta energía 0 se utilizaba para romper las fuerzas que unían el electrón con la materia, el resto de la energía aparecía como la energía cinética de los electrones emitidos:
\frac{1}{2} m v_\mathrm{max}^2 = h (\nu - \nu_0)
donde m es la masa del electrón, vmáx la velocidad máxima observada, ν es la frecuencia de la luz iluminante y ν0 es la frecuencia umbral característica del sólido emisor.
La demostración final fue aportada por Arthur Compton que observó como al hacer incidir rayos X sobre elementos ligeros, estos se dispersaban con menor energía y además se desprendían electrones (fenómeno posteriormente denominado en su honor como efecto Compton). Compton, ayudándose de las teorías anteriores, le dio una explicación satisfactoria al problema tratando la luz como partículas que chocan elásticamente con los electrones como dos bolas de billar. El fotón, corpúsculo de luz, golpea al electrón: el electrón sale disparado con una parte de la energía del fotón y el fotón refleja su menor energía en su frecuencia. Las direcciones relativas en las que salen despedidos ambos están de acuerdo con los cálculos que utilizan la conservación de la energía y el momento.
Otro fenómeno que demuestra la teoría corpuscular es la presión luminosa.

Teorías cuánticas


Diagrama de Feynman donde se muestra el intercambio de un fotón virtual (simbolizado por una línea ondulada y \gamma \,) entre un positrón y unelectrón.
La necesidad de reconciliar las ecuaciones de Maxwell del campo electromagnético, que describen el carácter ondulatorio electromagnético de la luz, con la naturaleza corpuscular de los fotones, ha hecho que aparezcan varías teorías que están aún lejos de dar un tratamiento unificado satisfactorio. Estas teorías incorporan por un lado, lateoría de la electrodinámica cuántica, desarrollada a partir de los artículos de DiracJordanHeisenberg y Pauli, y por otro lado la mecánica cuántica de de Broglie,Heisenberg y Schrödinger.
Paul Dirac dio el primer paso con su ecuación de ondas que aportó una síntesis de las teorías ondulatoria y corpuscular, ya que siendo una ecuación de ondas electromagnéticas su solución requería ondas cuantizadas, es decir, partículas. Su ecuación consistía en reescribir las ecuaciones de Maxwell de tal forma que se pareciesen a las ecuaciones hamiltonianas de la mecánica clásica. A continuación, utilizando el mismo formalismo que, a través de la introducción del cuanto de acción hν, transforma las ecuaciones de mecánica clásica en ecuaciones de mecánica ondulatoria, Dirac obtuvo una nueva ecuación del campo electromagnético. Las soluciones a esta ecuación requerían ondas cuantizadas, sujetas al principio de incertidumbre de Heisenberg, cuya superposición representaban el campo electromagnético. Gracias a esta ecuación podemos conocer una descripción de la probabilidad de que ocurra una interacción u observación dada, en una región determinada.
Existen aún muchas dificultades teóricas sin resolverse, sin embargo, la incorporación de nuevas teorías procedentes de la experimentación con partículas elementales, así como de teorías sobre el comportamiento de los núcleos atómicos, nos han permitido obtener una formulación adicional de gran ayuda.

Efectos relativísticos

Sin embargo, existían aún algunas situaciones en las que la luz no se comportaba según lo esperado por las teorías anteriores.

Luz en movimiento

La primera de estas situaciones inexplicables se producía cuando la luz se emitía, se transmitía o se recibía por cuerpos o medios en movimiento. Era de esperar, según la física clásica, que la velocidad en estos casos fuese el resultado de sumar a la velocidad de la luz, la velocidad del cuerpo o del medio. Sin embargo, se encontraron varios casos en los que no era así:
En 1818, Augustin Fresnel propuso un experimento para medir la velocidad a la que la luz atravesaba un líquido en movimiento. Para ello, se haría atravesar a la luz una columna de un líquido que fluyese a una velocidad v relativa al observador. Conociendo la velocidad v' a la que se trasmite la luz a través de ese medio, a través del índice de refracción (n), se calculó que la velocidad total de la luz en ese fluido sería:
\displaystyle v_t = v' + v
Sin embargo, cuando en 1851, el físico francés Hippolyte Fizeau llevó a cabo el experimento, comprobó que la velocidad a la que la luz atravesaba el líquido en movimiento no era la calculada sino:
v_t = v' + v \left(1 - \frac{1}{n^2}\right)
es decir, que la velocidad del fluido contaba menos en la velocidad final si la velocidad con la que atravesaba la luz ese fluido era mayor.
En 1725James Bradley descubrió que la posición observada de las estrellas en el firmamento variaba anualmente con respecto a la posición real en un intervalo de 41 segundos dearco. La teoría que propuso para explicarlo fue que esta variación se debía a la combinación de la velocidad de la tierra al rotar alrededor del sol con la velocidad finita de la luz. Gracias a esta teoría fue capaz de calcular la velocidad de la luz de una forma aceptable. Basándose en este efecto, el astrónomo inglés George Airy comparó el ángulo de aberración en un telescopio antes y después de llenarlo de agua, y descubrió que, en contra de sus expectativas, no había diferencia en sus mediciones (la luz no variaba de velocidad a pesar de que el fluido se movía a la velocidad de la tierra).
Teniendo en cuenta este experimento, dos astrónomos, el alemán Albert Michelson y el estadounidense Edward Morley propusieron un experimento (véase Experimento de Michelson y Morley) para medir la velocidad a la que fluía el éter con respecto a la tierra. Suponían que el éter se movía en una dirección concreta con una velocidad determinada, por eso, debido a la translación de la Tierra alrededor del Sol habría épocas del año en el que tendríamos una componente de esa velocidad a favor y otras épocas en contra, por lo que supusieron que cuando lo tuviésemos a favor, la velocidad de la luz sería superior y cuando lo tuviésemos en contra sería inferior. Para ello midieron la velocidad de la luz en diferentes estaciones del año y observaron que no había ninguna diferencia. Y lo más curioso: que ni siquiera había diferencias debidas a la propia velocidad de translación de la Tierra (30 km/s).
En 1905Albert Einstein dio una explicación satisfactoria con su teoría de la relatividad especial, en la que, en su segundo postulado propone que la velocidad de la luz es isótropa, es decir, independiente del movimiento relativo del observador o de la fuente.

Distorsiones espectrales


Desplazamiento nebular.
Al comparar el espectro de la luz procedente de algunos cuerpos celestes, con los espectros medidos en el laboratorio de los mismos elementos que los que contienen esos cuerpos, se observa que no son iguales, ya que las líneas espectrales procedentes del espacio están desplazadas hacia posiciones de mayor longitud de onda, es decir, hacia el lado rojo del espectro en lugares de menor energía.
Se han encontrado dos tipos diferentes de desplazamientos de líneas espectrales:
Desplazamiento nebular
Uno, el más común, llamado desplazamiento nebular es un desplazamiento sistemático de los espectros procedentes de las estrellas y galaxias. Edwin Hubble tras estudiar el corrimiento de los espectros de las nebulosas, lo interpretó como el resultado del efecto Doppler debido a la expansión continua del universo. Gracias a esto propuso una fórmula capaz de calcular la distancia que nos separa de un cuerpo determinado analizando el corrimiento de su espectro:
\frac{\Delta \lambda}{\lambda}=1,7 \cdot 10^{-9} d



Reflexión


Reflejo del Monte Hood en el lago Trillium.

Reflejo de unas rocas en el mar.

Láser reflectado usando un semidisco de lucita, Foto tomada en el laboratorio de óptica de la facultad de ciencias de la unam.
La reflexión es el cambio de dirección de una onda, que, al entrar en contacto con la superficie de separación entre dos medios cambiantes, regresa al punto donde se originó. Ejemplos comunes son la reflexión de la luz, el sonido y las ondas en el agua.

La luz es una manifestación de energía. Gracias a ella las imágenes pueden ser reflejadas en un espejo, en la superficie del agua o un suelo muy brillante. Esto se debe a un fenómeno llamado reflexión de la luz. La reflexión ocurre cuando los rayos de luz que inciden en una superficie chocan en ella, se desvían y regresan al medio que salieron formando un ángulo igual al de la luz incidente, muy distinta a la refracción.
Es el cambio de dirección, en el mismo medio, que experimenta un rayo luminoso al incidir oblicuamente sobre una superficie. Para este caso las leyes de la reflexión son las siguientes:
1a. ley: El rayo incidente, el rayo reflejado y la normal, se encuentran en un mismo plano.
2a. ley: El ángulo de incidencia es igual al ángulo de reflexión.

θi = θr

Reflexión especular[editar]


Reflejo sobre una burbuja de jabón.

Reflejo en un espejo.
La reflexión especular se produce cuando un rayo de luz incide sobre una superficie pulida (espejo) y cambia su dirección sin cambiar el medio por donde se propaga.

Reflexión difusa[editar]

Cuando un rayo de luz incide sobre una superficie "no pulida", los rayos no se reflejan en ninguna dirección, es decir se difunden. Esto se puede producir por ejemplo en la madera.

Reflexión interna total


Reflexión interna total de la luz.
Cuando en la refracción el ángulo de incidencia es mayor que el ángulo crítico ocurre lo que se conoce como reflexión interna total. Cálculo del ángulo crítico:
{\sin \alpha_{\mathrm{c}} = n_{2,1}}\,\!
en fórmula:
\alpha_{\mathrm{c}}\,\!: ángulo crítico;
n_{2,1}\,\!: índice de refracción.

Retrorreflexión


Principio de funcionamiento de un reflector de esquina.
La retrorreflexión es la capacidad que tienen algunas superficies que por su estructura pueden reflejar la luz de vuelta hacia la fuente, sin que importe el ángulo de incidencia original. Este comportamiento se puede observar en un espejo, pero únicamente cuando éste se encuentra perpendicular a la fuente; es decir, cuando el ángulo de incidencia es igual a 90°. Se puede construir un retrorreflector simple colocando tres espejos ordinarios de forma que todos sean perpendiculares entre sí (un reflector esquinero). La imagen que se produce es igual a la imagen producida por un espejo pero invertida. Tal como se observa en la figura, la combinación de las diferentes superficies hace que el haz de luz sea reflejado de vuelta a la fuente.
Si a una superficie se le aplica una pequeña capa de esferas reflectivas es posible obtener una superficie con una capacidad limitada de retrorreflexión. El mismo efecto se puede obtener si se dota a la superficies con una estructura similar a pequeñas pirámides (reflexión esquinera). En ambos casos, la estructura interna de la superficie refleja la luz que incide sobre ella y la envía directamente hacia la fuente. Este tipo de superficies se utilizan para crear las señales de tránsito y las placas de los automóviles; en este caso particular no se desea una retrorreflexión perfecta, pues se quiere que la luz retorne tanto hacia las luces del vehículo que emite el haz de luz como a los ojos de la persona que lo va conduciendo.

Reflexión acoplada compleja

La luz se refleja exactamente en la dirección de la fuente de donde proviene debido a un proceso óptico no lineal. En este tipo de reflexión, no solo se invierte la dirección de la luz; también se invierte el frente de la onda. Un reflector acoplado se puede utilizar para eliminar aberraciones en un haz de luz, reflejándola y haciéndola pasar de nuevo por el dispositivo óptico que causa la aberración.

Reflexión de neutrones

Materiales que reflejan neutrones, como por ejemplo el berilio, son utilizados en reactores nucleares y en armas atómicas. En las ciencias físicas y químicas, la reflexión de neutrones es utilizada para determinar la estructura y composición interna de un material. 

Reflexión del sonido

Cuando una onda sonora golpea una superficie plana es reflejada de manera coherente asumiendo que el tamaño de la superficie reflectiva es lo suficientemente larga con relación a la longitud de la onda que incide. Tómese en cuenta que las ondas del sonido audible tienen un amplio rango de frecuencias (de 20 Hz hasta 20000 Hz), al igual que la longitud de onda (que pude variar de 20 mm hasta 17 m). Como resultado, se obtiene que la naturaleza en general, así como el comportamiento del fenómeno de reflexión varía de acuerdo con la estructura y la textura de las superficies de reflexión; por ejemplo, una superficie porosa tiende a absorber grandes cantidades de energía, mientras que una superficie áspera (donde áspero es relativo a la longitud de onda) reflejará las ondas en todas direcciones dispersando la energía de la onda, en lugar de reflejar el sonido en forma coherente. Esto nos lleva al campo de la Acústica arquitectónica, porque la naturaleza de estas reflexiones son críticas para la sensación del espacio en un auditorio.

Reflexión sísmica


Si-o-se Pol
Las ondas sísmicas producidas por terremotos o por otras fuentes tales como explosiones, pueden ser reflejadas por capas dentro de la Tierra. El estudio de las ondas sísmicas reflejadas en las profundidades ha dado a los sismólogos la oportunidad de determinar las capas que conforman la estructura de la Tierra. El estudio de las ondas sísmicas reflejadas de poca profundidad se utiliza en sismología por reflexión, que estudia la corteza de la Tierra en general, y en particular para encontrar posibles yacimientos de petróleo o gas natural.

Interpretación cuántica

Todas las interacciones entre fotones y materia se describen como una serie de absorciones y emisiones de fotones. Cuando un fotón que llega golpea una molécula en la superficie de la materia, es absorbido y casi de inmediato vuelto a emitir. El "nuevo" fotón puede emitirse en cualquier dirección; esto causaría una reflexión difusa[cita requerida].
La reflexión especular (siguiendo la ley de la reflexión equi-angular de Herón) es un efecto de la mecánica cuántica, explicado como la suma de los caminos más probables tomados por los fotones. La interacción con materia liviana es un tópico de la electrodinámica cuántica, descrita por Richard Feynman en su libro QED:La extraña teoría de la luz y la materia. La energía de un fotón que llega a una molécula puede que concuerde con la energía requerida para cambiar el estado de la molécula, causando una transición en el estado cinético, rotacionalelectrónica o vibracional de la energía. Cuando esto ocurre, puede que el fotón absorbido no se reemita o puede que se reemita con pérdida de energía. Estos efectos son conocidos como Raman, Brillouin.




Espejo


Vasija reflejada en un espejo.

Espejo egipcio. Louvre.

Reflexión de los rayos de luz en un espejo plano.

Esquema de inversión de la imagen.

Esquema de un reflector.
Un espejo (del lat. specullum)1 es una superficie pulida en la que, después de incidir, la luz se refleja siguiendo las leyes de la reflexión.
El más sencillo es el espejo plano. En este último, un haz de rayos de luz paralelos puede cambiar de dirección completamente en conjunto y continuar siendo un haz de rayos paralelos, pudiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real. La imagen resulta derecha pero invertida en el eje normal al espejo.
También existen espejos curvos que pueden ser cóncavos o convexos. En un espejo cóncavo cuya superficie forma un paraboloide de revolución, todos los rayos que inciden paralelos al eje del espejo, se reflejan pasando por el foco, y los que inciden pasando por el foco, se reflejan paralelos al eje.
Los espejos son objetos que reflejan casi toda la luz que choca contra su superficie debido a este fenómeno podemos observar nuestra imagen en ellos. Los espejos en realidad son cristales que contienen detrás una capa de aluminio (o de otro material, pero es más fácil de aluminio) y entonces como no puedes ver a través la imagen se ve reflejada como en la primera foto

Historia

Los espejos como utensilios de tocador y objeto manual fueron muy usados en las civilizaciones egipciagriegaetrusca y romana. Fue usado en la cultura hebrea, era parte de la fuente de metal que estaba a la entrada del Tabernáculo de la Reunión. Al lavarse los sacerdotes, podían ver sus imperfecciones (Éxodo 38:7-9; 30:18; escrito aproximadamente en el 1447 a. C).
Se elaboraban siempre con metal bruñido, generalmente cobreplata o bronce, a este proceso se le conoce como plateo. Tenían forma de placa redonda u oval, decorada ordinariamente con grabados o relieves mitológicos en el reverso (los romanos carecen de grabados, pero no de relieves) y con mango tallado para asirlos cómodamente; de ellos, se conservan todavía muchos ejemplares en algunos museos arqueológicos. Durante la alta Edad Media, apenas se hizo uso del espejo, hasta que en el siglo XIII se inventó la fabricación de los de vidrio y de cristal de roca sobre lámina metálica (o con amalgama de plomo o estaño que son los espejos azogados), sin dejar por esto de construirse los de sólo metal hasta el siglo XVIII.
El espejo, como mueble de habitación, empieza con el siglo XVI, pues aunque durante los dos siglos anteriores se citan algunos ejemplares históricos apenas era conocido y su uso era poco corriente. En dicho siglo, se presenta con marco elegante y pie artístico y ocupa lugar distinguido en el salón como objeto movible y de dimensiones reducidas. Hacia fines del siglo XVII las fábricas venecianas logran construir espejos de gran tamaño y desde entonces sirven como objetos singularmente decorativos en los salones, en los que ocupan un lugar destacado.
Los espejos modernos consisten en una delgada capa de plata o aluminio depositado sobre una plancha de vidrio, la cual protege el metal y hace al espejo más duradero, verplateado.

Fórmulas física


«La inversa de la
 distancia focal es igual a la suma de la inversa de la distancia del objeto al espejo con la inversa de la distancia de la imagen al espejo» y  m = \frac{h'}{h} =  - \frac{s'}{s}
, en la que m es la magnificación o agrandamiento lateral.Para una imagen formada por un espejo parabólico (o esférico de pequeña abertura, donde sea válida la aproximación paraxial), se cumple que: 
\frac{1}{f} = \frac{1}{s} + \frac{1}{{s'}}
 , en la que fes la distancia del foco al espejo, s la distancia del objeto al espejo, y s' la distancia de la imagen formada al espejo, se lee:

Folclore

El espejo ocupa un lugar importante en la mitología y las supersticiones de muchos pueblos. La imagen que en él se refleja se identifica a menudo con el alma o espíritu de la persona: de ahí por ejemplo que los vampiros, cuerpos sin alma, no se reflejen en él. Cuando un moribundo está a punto de dejar este mundo, es común que se cubran los espejos, por temor a que el alma del agonizante quede encerrada en ellos.
El espejo se concibe, así, como ventana al mundo de los espíritus. La leyenda urbana de Verónica aprovecha ejemplarmente esta visión. Viceversa, el mundo de los espíritus tiende a imaginarse como una contrapartida especular del de los vivos. Lewis Carroll desarrolla magistralmente la idea del espejo como entrada a un mundo inverso en la segunda parte de las aventuras de Alicia.
El espejo es también objeto frecuente de consulta: se le juzga capaz de mostrar sucesos y objetos distantes en el tiempo o el espacio. En el cuento de Blancanieves, el espejo tiene la facultad de hablar y responde a las preguntas que le formula la madrastra. J. R. R. Tolkien retoma con su célebre «espejo de Galadriel» la tradición del espejo capaz de mostrar el futuro. En la novela Harry Potter y la piedra filosofal, de J. K. Rowling, aparece el espejo de Oesed (Deseo leído a la inversa), que no refleja la imagen de quien lo contempla, sino sus deseos más profundos.
También es notable el Espejo de la Sabiduría (en el que se refleja «todas las cosas del cielo y de la tierra excepto el rostro de quien se mira en él»), descrito por Oscar Wildeen el cuento «El pescador y su alma».




    Refracción



    Refracción de la luz en diversos contenedores.

    Refracción.
    La refracción es el cambio de dirección que experimenta una onda al pasar de un medio material a otro. Solo se produce si la onda incide oblicuamente sobre la superficie de separación de los dos medios y si estos tienen índices de refracción distintos. La refracción se origina en el cambio de velocidad de propagación de la onda señalada.
    Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz parece quebrado. También se produce refracción cuando la luz atraviesa capas de aire a distinta temperatura, de la que depende el índice de refracción. Los espejismos son producidos por un caso extremo de refracción, denominado reflexión total. Aunque el fenómeno de la refracción se observa frecuentemente en ondas electromagnéticas como la luz, el concepto es aplicable a cualquier tipo de onda.

    Explicación física


    Refracción -Explicación-
    Se produce cuando la luz pasa de un medio de propagación a otro con una densidad óptica diferente, sufriendo un cambio de rapidez y un cambio de dirección si no incide perpendicularmente en la superficie. Esta desviación en la dirección de propagación se explica por medio de la ley de Snell. Esta ley, así como la refracción en medios no homogéneos, son consecuencia del principio de Fermat, que indica que la luz se propaga entre dos puntos siguiendo la trayectoria de recorrido óptico de menor tiempo.

    Lápiz "quebrado" debido a la refracción.
    Por otro lado, la velocidad de la penetración de la luz en un medio distinto del vacío está en relación con la longitud de la onda y, cuando un haz de luz blanca pasa de un medio a otro, cada color sufre una ligera desviación. Este fenómeno es conocido como dispersión de la luz. Por ejemplo, al llegar a un medio más denso, las ondas más cortas pierden velocidad sobre las largas (p. ej., cuando la luz blanca atraviesa un prisma). Las longitudes de onda corta son hasta cuatro veces más dispersadas que las largas lo cual explica que el cielo se vea azulado, ya que para esa gama de colores el índice de refracción es mayor y se dispersa más.
    En la refracción se cumplen las leyes deducidas por Huygens que rigen todo el movimiento ondulatorio:
    • El rayo incidente, el reflejado y el refractado se encuentran en el mismo plano.
    • Los ángulos de incidencia y reflexión son iguales, entendiendo por tales los que forman respectivamente el rayo incidente y el reflejado con la perpendicular (llamada Normal) a la superficie de separación trazada en el punto de incidencia.
    La velocidad de la luz depende del medio por el que viaje, por lo que es más lenta cuanto más denso sea el material y viceversa. Por ello, cuando la luz pasa de un medio menos denso (aire) a otro más denso (cristal), el rayo de luz es refractado acercándose a la normal y por tanto, el ángulo de refracción será más pequeño que el ángulo de incidencia. Del mismo modo, si el rayo de luz pasa de un medio más denso a uno menos denso, será refractado alejándose de la normal y, por tanto, el ángulo de incidencia será menor que el de refracción. Así podemos decir que la refracción es el cambio de dirección de la propagación que experimenta la luz al pasar de un medio a otro.

    Índice de refracción

    Es la relación entre la velocidad de propagación de la onda en un medio de referencia (por ejemplo el vacío para las ondas electromagnéticas) y su velocidad en el medio del que se trate.

    Ángulo crítico: cualquier rayo que incida con un ángulo θ1 mayor al ángulo crítico θccorrespondiente a ese par de sustancias, se reflejará en la interfaz en lugar de refractarse.

    Refracción de ondas de radio

    El fenómeno de la refracción se observa en todo tipo de ondas. En el caso de las ondas de radio, la refracción es especialmente importante en la ionosfera, en la que se producen una serie continua de refracciones que permiten a las ondas de radio viajar de un punto del planeta a otro.

    Refracción de ondas sísmicas

    Otro ejemplo de refracción no ligado a ondas electromagnéticas es el de las ondas sísmicas. La velocidad de propagación de las ondas sísmicas depende de la densidad del medio de propagación y, por lo tanto, de la profundidad y de la composición de la región atravesada por las ondas. Se producen fenómenos de refracción en los siguientes casos:
    • Refracción entre la transición entre dos capas geológicas, especialmente entre el manto terrestre y el núcleo de la Tierra.
    • En el manto, por pequeñas desviaciones de la densidad entre capas ascendentes menos densas y descendentes, más densas.

    Ley de refracción (Ley de Snell)

    La relación entre el seno del ángulo de incidencia y el seno del ángulo de refracción es igual a la razón entre la velocidad de la onda en el primer medio y la velocidad de la onda en el segundo medio, o bien puede entenderse como el producto del índice de refracción del primer medio por el seno del ángulo de incidencia es igual al producto del índice de refracción del segundo medio por el seno del ángulo de refracción, esto es:
    n_1\sin\theta_1 = n_2\sin\theta_2\
    • n_{1}: índice de refracción del primer medio
    • \theta_{1}: ángulo de incidencia
    • n_{2}: índice de refracción del segundo medio
    • \theta_{2}: ángulo de refracción
    Refracción.svg
    Fénytörés.jpg






    Lente


    Una lente.

    Tipos principales de lentes.

    Las lentes pueden ser usadas para enfocar la luz.
    Estrictamente, una lente óptica es cualquier entidad capaz de desviar los rayos de luz. Las lentes son objetos transparentes (normalmente de vidrio), limitados por dos superficies, de las que al menos una es curva. Sin embargo, otros dispositivos como las lentes de Fresnel, que desvían la luz por medio del fenómeno de difracción, son de gran utilidad y uso por su bajo costo constructivo y el reducido espacio que ocupan.
    Las lentes más comunes están basadas en el distinto grado de refracción que experimentan los rayos de luz al incidir en puntos diferentes de su superficie, incluidas las utilizadas para corregir los problemas de visión en gafasanteojos o lentillas. También se usan lentes, o combinaciones de lentes y espejos, en telescopios ymicroscopios, con la función de servir como objetivos o como oculares. El primer telescopio astronómico fue construido por Galileo Galilei usando una lente convergente(lente positiva) como objetivo y otra divergente (lente negativa) como ocular. Existen también instrumentos capaces de hacer converger o divergir otros tipos de ondas electromagnéticas y a los que se les denomina también lentes. Por ejemplo, en los microscopios electrónicos las lentes son de carácter magnético.

    En astrofísica es posible observar fenómenos de lentes gravitatorias, cuando la luz procedente de objetos muy lejanos pasa cerca de objetos masivos, y se curva en su trayectoria.

    Etimología

    La palabra lente proviene del latín "lens, lentis" que significa "lenteja", por lo que a las lentes ópticas se las denomina así por su parecido con la forma de la legumbre.
    En el siglo XIII empezaron a fabricarse pequeños discos de vidrio que podían montarse sobre un marco. Fueron las primeras gafas de libros o gafas de lectura.
    La palabra lente suele ser de género ambiguo. Normalmente se usa en femenino para referirse al cristal óptico, en tanto que en masculino y plural suele reservarse para referirse a las gafas en algunos países.

    Tipos



    Las lentes, según la forma que adopten pueden ser convergentes o divergentes.
    Las lentes convergentes (o positivas) son más gruesas por su parte central y más estrechas en los bordes. Se denominan así debido a que unen (convergen), en un punto determinado que se denomina foco de imagen, todo haz de rayos paralelos al eje principal que pase por ellas. Pueden ser:
    • Biconvexas
    • Planoconvexas
    • Cóncavo-convexas
    Las lentes divergentes (o negativas) son más gruesas por los bordes y presentan una estrechez muy pronunciada en el centro. Se denominan así porque hacen divergir (separan) todo haz de rayos paralelos al eje principal que pase por ellas, sus prolongaciones convergen en el foco imagen que está a la izquierda, al contrario que las convergentes, cuyo foco imagen se encuentra a la derecha. Pueden ser:
    • Bicóncavas
    • Planocóncavas
    • Convexo-cóncavas

    Lentes artificiales

    Se suele denominar lentes artificiales a las construidas con materiales artificiales no homogéneos, de modo que su comportamiento exhibe índices de refracción menores que la unidad (conviene recordar que lavelocidad de fase sí puede ser mayor que la velocidad de la luz en el vacío), con lo que, por ejemplo, se tienen lentes biconvexas divergentes. Nuevamente este tipo de lentes es útil en microondas y sólo últimamente se han descrito materiales con esta propiedad a frecuencias ópticas.




    Corriente eléctrica


    La corriente eléctrica está definida por convenio en sentido contrario al desplazamiento de loselectrones.

    Diagrama del efecto Hall, mostrando el flujo deelectrones. (en vez de la corriente convencional).
    Leyenda:
    1. Electrones
    2. Sensor o sonda Hall
    3. Imanes
    4. Campo magnético
    5. Fuente de energía
    Descripción
    En la imagen A, una carga negativa aparece en el borde superior del sensor Hall (simbolizada con el color azul), y una positiva en el borde inferior (color rojo). En B y C, el campo eléctrico o el magnético están invertidos, causando que la polaridad se invierta. Invertir tanto la corriente como el campo magnético (imagen D) causa que la sonda asuma de nuevo una carga negativa en la esquina superior.
    La corriente eléctrica o intensidad eléctrica es el flujo de carga eléctrica por unidad de tiempo que recorre un material.1 Se debe al movimiento de las cargas (normalmente electrones) en el interior del material. En el Sistema Internacional de Unidades se expresa en C/s (culombios sobre segundo), unidad que se denomina amperio. Una corriente eléctrica, puesto que se trata de un movimiento de cargas, produce un campo magnético, un fenómeno que puede aprovecharse en el electroimán.
    El instrumento usado para medir la intensidad de la corriente eléctrica es el galvanómetro que, calibrado en amperios, se llama amperímetro, colocado en serie con el conductor por el que circula la corriente que se desea medir.

    Historia

    Históricamente, la corriente eléctrica se definió como un flujo de cargas positivas y se fijó el sentido convencional de circulación de la corriente, como un flujo de cargas desde el polo positivo al negativo. Sin embargo posteriormente se observó, gracias al efecto Hall, que en los metales los portadores de carga son negativos, electrones, los cuales fluyen en sentido contrario al convencional. En conclusión, el sentido convencional y el real son ciertos en tanto que los electrones como protones fluyen desde el polo negativo hasta llegar al positivo (sentido real), cosa que no contradice que dicho movimiento se inicia al lado del polo positivo donde el primer electrón se ve atraído por dicho polo creando un hueco para ser cubierto por otro electrón del siguiente átomo y así sucesivamente hasta llegar al polo negativo (sentido convencional). Es decir la corriente eléctrica es el paso de electrones desde el polo negativo al positivo comenzando dicha progresión en el polo positivo.2
    En el siglo XVIII cuando se hicieron los primeros experimentos con electricidad, sólo se disponía de carga eléctrica generada por frotamiento (electricidad estática) o por inducción. Se logró (por primera vez, en 1800) tener un movimiento constante de carga cuando el físico italiano Alessandro Volta inventó la primera pila eléctrica.

    Conducción eléctrica

    Un material conductor posee gran cantidad de electrones libres, por lo que es posible el paso de la electricidad a través del mismo. Los electrones libres, aunque existen en el material, no se puede decir que pertenezcan a algún átomo determinado.
    Una corriente de electricidad existe en un lugar cuando una carga neta se transporta desde ese lugar a otro en dicha región. Supongamos que la carga se mueve a través de un alambre. Si la carga q se transporta a través de una sección transversal dada del alambre, en un tiempo t, entonces la intensidad de corriente I, a través del alambre es:
    I = \frac{q}{t} \,\!
    Aquí q está dada en culombiost en segundos, e I en amperios. Por lo cual, la equivalencia es:
    1 A = 1 \frac{C}{s} \,\!
    Una característica de los electrones libres es que, incluso sin aplicarles un campo eléctrico desde afuera, se mueven a través del objeto de forma aleatoria debido a la energía calórica. En el caso de que no hayan aplicado ningún campo eléctrico, cumplen con la regla de que la media de estos movimientos aleatorios dentro del objeto es igual a cero. Esto es: dado un plano irreal trazado a través del objeto, si sumamos las cargas (electrones) que atraviesan dicho plano en un sentido, y sustraemos las cargas que lo recorren en sentido inverso, estas cantidades se anulan.
    Cuando se aplica una fuente de tensión externa (como, por ejemplo, una batería) a los extremos de un material conductor, se está aplicando un campo eléctrico sobre los electrones libres. Este campo provoca el movimiento de los mismos en dirección al terminal positivo del material (los electrones son atraídos [tomados] por el terminal positivo y rechazados [inyectados] por el negativo). Es decir, los electrones libres son los portadores de la corriente eléctrica en los materiales conductores.
    Si la intensidad es constante en el tiempo, se dice que la corriente es continua; en caso contrario, se llama variable. Si no se produce almacenamiento ni disminución de carga en ningún punto del conductor, la corriente es estacionaria.
    Para obtener una corriente de 1 amperio, es necesario que 1 culombio de carga eléctrica por segundo esté atravesando un plano imaginario trazado en el material conductor.
    El valor I de la intensidad instantánea será:
    I = \frac{dq}{dt}
    Si la intensidad permanece constante, en cuyo caso se denota Im, utilizando incrementos finitos de tiempo se puede definir como:
    I_m = \frac{\Delta q}{\Delta t}
    Si la intensidad es variable la fórmula anterior da el valor medio de la intensidad en el intervalo de tiempo considerado.
    Según la ley de Ohm, la intensidad de la corriente es igual a la tensión (o voltaje) dividido por la resistencia que oponen los cuerpos:
     I = \frac{V}{R}
    Haciendo referencia a la potencia, la intensidad equivale a la raíz cuadrada de la potencia dividida por la resistencia. En un circuito que contenga varios generadores y receptores, la intensidad es igual a:
    I= \frac{\Sigma\ \mathcal{E} - \Sigma\ \mathcal{E}'}{\Sigma\ R + \Sigma\ r + \Sigma\ r'}
    donde \Sigma\epsilon es el sumatorio de las fuerzas electromotrices del circuito, \Sigma\epsilon ' es la suma de todas la fuerzas contraelectromotrices, \Sigma R es la resistencia equivalente del circuito, \Sigma r es la suma de las resistencias internas de los generadores y \Sigma r' es el sumatorio de las resistencias internas de los receptores.
    Intensidad de corriente en un elemento de volumen:  dI = n\cdot q\cdot dS\cdot v , , donde encontramos n como el número de cargas portadoras por unidad de volumen dV; q refiriéndose a la carga del portador; v la velocidad del portador y finalmente dS como el área de la sección del elemento de volumen de conductor.[cita requerida]

    Definición por medio del magnetismo[editar]

    La corriente eléctrica es el flujo de portadores de carga eléctrica, normalmente a través de un cable metálico o cualquier otro conductor eléctrico, debido a la diferencia de potencial creada por un generador de corriente. La ecuación que la describe en electromagnetismo es:
    I = \int_S \vec J \cdot d\vec S=\int_S \vec J \cdot \vec n dS
    Donde \vec J es la densidad de corriente de conducciónd\vec S es el vector perpendicular al diferencial de superficie, \vec n es el vector unitario normal a la superficie, y dS es el diferencial de superficie.
    La carga eléctrica puede desplazarse cuando esté en un objeto y éste es movido, como el electróforo. Un objeto se carga o se descarga eléctricamente cuando hay movimiento de carga en su interior.

    Corriente continua



    Rectificador de corriente alterna en continua, con puente de Gratz. Se emplea cuando la tensión de salida tiene un valor distinto de la tensión de entrada.
    Se denomina corriente continua o corriente directa(CC en español, en inglés DC, de Direct Current) al flujo de cargas eléctricas que no cambia de sentido con el tiempo. La corriente eléctrica a través de un material se establece entre dos puntos de distinto potencial. Cuando hay corriente continua, los terminales de mayor y menor potencial no se intercambian entre sí. Es errónea la identificación de la corriente continua con la corriente constante (ninguna lo es, ni siquiera la suministrada por una batería). Es continua toda corriente cuyo sentido de circulación es siempre el mismo, independientemente de su valor absoluto.
    Su descubrimiento se remonta a la invención de la primera pila voltaica por parte del conde y científico italiano Alessandro Volta. No fue hasta los trabajos de Edison sobre la generación de electricidad, en las postrimerías del siglo XIX, cuando la corriente continua comenzó a emplearse para la transmisión de la energía eléctrica. Ya en el siglo XX este uso decayó en favor de la corriente alterna, que presenta menores pérdidas en la transmisión a largas distancias, si bien se conserva en la conexión de redes eléctricas de diferentes frecuencias y en la transmisión a través de cables submarinos.
    Desde 2008 se está extendiendo el uso de generadores de corriente continua a partir de células fotoeléctricas que permiten aprovechar la energía solar.
    Cuando es necesario disponer de corriente continua para el funcionamiento de aparatos electrónicos, se puede transformar la corriente alterna de la red de suministro eléctrico mediante un proceso, denominado rectificación, que se realiza con unos dispositivos llamados rectificadores, basados en el empleo de diodos semiconductores o tiristores (antiguamente, también de tubos de vacío).3

    Corriente alterna


    Onda senoidal.

    Voltaje de las fases de un sistema trifásico. Entre cada una de las fases hay un desfase de 120º.

    Esquema de conexión.

    Conexión en triángulo y enestrella.
    Se denomina corriente alterna (simbolizada CA en español y AC en inglés, de alternating current) a la corriente eléctrica en la que la magnitud y dirección varían cíclicamente. La forma de onda de la corriente alterna más comúnmente utilizada es la de una onda sinoidal.4 En el uso coloquial, "corriente alterna" se refiere a la forma en la cual la electricidad llega a los hogares y a las empresas.
    El sistema usado hoy en día fue ideado fundamentalmente por Nikola Tesla, y la distribución de la corriente alterna fue comercializada por George Westinghouse. Otros que contribuyeron al desarrollo y mejora de este sistema fueron Lucien GaulardJohn Gibbs y Oliver Shallenger entre los años 1881 y 1889. La corriente alterna superó las limitaciones que aparecían al emplear la corriente continua (CC), la cual constituye un sistema ineficiente para la distribución de energía a gran escala debido a problemas en la transmisión de potencia.
    La razón del amplio uso de la corriente alterna, que minimiza los problemas de trasmisión de potencia, viene determinada por su facilidad de transformación, cualidad de la que carece la corriente continua. La energía eléctrica trasmitida viene dada por el producto de la tensión, la intensidad y el tiempo. Dado que la sección de los conductores de las líneas de transporte de energía eléctrica depende de la intensidad, se puede, mediante un transformador, modificar el voltaje hasta altos valores (alta tensión), disminuyendo en igual proporción la intensidad de corriente. Esto permite que los conductores sean de menor sección y, por tanto, de menor costo; además, minimiza las pérdidas por efecto Joule, que dependen del cuadrado de la intensidad. Una vez en el punto de consumo o en sus cercanías, el voltaje puede ser de nuevo reducido para permitir su uso industrial o doméstico de forma cómoda y segura.
    Las frecuencias empleadas en las redes de distribución son 50 y 60 Hz. El valor depende del país.

    Corriente trifásica

    Se denomina corriente trifásica al conjunto de tres corrientes alternas de igual frecuenciaamplitud y valor eficaz que presentan una diferencia de fase entre ellas de 120°, y están dadas en un orden determinado. Cada una de las corrientes que forman el sistema se designa con el nombre de fase.
    La generación trifásica de energía eléctrica es más común que la monofásica y proporciona un uso más eficiente de los conductores. La utilización de electricidad en forma trifásica es mayoritaria para transportar y distribuir energía eléctrica y para su utilización industrial, incluyendo el accionamiento de motores. Las corrientes trifásicas se generan mediante alternadores dotados de tres bobinas o grupos de bobinas, arrolladas en un sistema de tres electroimanes equidistantes angularmente entre sí.
    Los conductores de los tres electroimanes pueden conectarse en estrella o en triángulo. En la disposición en estrella cada bobina se conecta a una fase en un extremo y a un conductor común en el otro, denominado neutro. Si el sistema está equilibrado, la suma de las corrientes de línea es nula, con lo que el transporte puede ser efectuado usando solamente tres cables. En la disposición en triángulo o delta cada bobina se conecta entre dos hilos de fase, de forma que un extremo de cada bobina está conectado con otro extremo de otra bobina.
    El sistema trifásico presenta una serie de ventajas tales como la economía de sus líneas de transporte de energía (hilos más finos que en una línea monofásica equivalente) y de los transformadores utilizados, así como su elevado rendimiento de los receptores, especialmente motores, a los que la línea trifásica alimenta con potencia constante y no pulsada, como en el caso de la línea monofásica.
    Tesla fue el inventor que descubrió el principio del campo magnético rotatorio en 1882, el cual es la base de la maquinaria de corriente alterna. Él inventó el sistema de motores y generadores de corriente alterna polifásica que da energía al planeta.5

    Corriente monofásica

    Se denomina corriente monofásica a la que se obtiene de tomar una fase de la corriente trifásica y un cable neutro. En España y demás países que utilizan valores similares para la generación y trasmisión de energía eléctrica, este tipo de corriente facilita una tensión de 230 voltios, lo que la hace apropiada para que puedan funcionar adecuadamente la mayoría de electrodomésticos y luminarias que hay en las viviendas.
    Desde el centro de transformación más cercano hasta las viviendas se disponen cuatro hilos: un neutro (N) y tres fases (R, S y T). Si la tensión entre dos fases cualesquiera (tensión de línea) es de 400 voltios, entre una fase y el neutro es de 230 voltios. En cada vivienda entra el neutro y una de las fases, conectándose varias viviendas a cada una de las fases y al neutro; esto se llama corriente monofásica. Si en una vivienda hay instalados aparatos de potencia eléctrica alta (aire acondicionado, motores, etc., o si es un taller o una empresa industrial) habitualmente se les suministra directamente corriente trifásica que ofrece una tensión de 400 voltios.



    Corriente directa (CD) 

    Hay dos tipos de corrientes eléctricas que pueden atravesar alambres: corriente directa (CD) y corriente alterna (CA).
    La corriente directa (CD) siempre fluye en la misma dirección en un circuito eléctrico. Los electrones fluyen continuamente en el circuito del terminal negativo de la batería al terminal positivo. Incluso cuando ninguna corriente está atravesando el conductor, los electrones en el alambre se están moviendo a velocidades de hasta 600 millas (1 000 kilómetros) por segundo, pero en direcciones al azar porque el alambre tiene una temperatura finita. Puesto que un electrón se está moviendo hacia atrás en el conductor al mismo tiempo que otro se está moviendo hacia adelante, ninguna carga neta se transporta a lo largo del circuito. Si se conecta una batería a los extremos del alambre, los electrones son forzados a lo largo del conductor en la misma dirección . La velocidad de los electrones a lo largo del conductor es menor a una pulgada (pocos milímetros) por segundo. De manera que un electrón en específico tarda un largo tiempo en ir alrededor del circuito. Hay tantos electrones que todos están continuamente chocando entre sí, como fichas de dominó, y hay un cambio neto de cargas eléctricas alrededor del circuito que pueden llegar a alcanzar la velocidad de la luz.
    Los tomacorrientes en nuestros hogares proporcionan corriente alterna (CA). Los electrones en el alambre cambian de dirección 60 veces por segundo. A los dispositivos eléctricos que usamos no les importa en qué dirección se están moviendo los electrones, puesto que la misma cantidad de corriente atraviesa un circuito sin importar la dirección de la corriente.
    Las redes de distribución de energía eléctrica que llevan electricidad a nuestros hogares se diseñaron para manejar corriente alterna. Las tormentas de clima espacial pueden causar flujos de electricidad continua en la red eléctrica. Puesto que la red fue diseñada para que usara electricidad CA, y no electricidad CD, las corrientes directas inducidas por los estados del tiempo espacial pueden dañar o destruir ciertos equipos como lostransformadores de voltaje.





    Resultado de imagen para diferencia entre corriente directa

    Resultado de imagen para diferencia entre corriente directa









    Mallas y nodos

    1. 1. C E T I S 1 0 9{ INTEGRANTES: Lorenzo Pacheco Marco Antonio Martínez Bautista Hermilo Mendoza Torres Christian Antonio Monasterio Vázquez Roberto Joaquín Quintanilla Terán Juan de Dios Silva Flores Miguel Ángel
    2. 2.  Existen muchos circuitos eléctricos que no tienen componentes ni en serie, ni en paralelo, ni mixto. El físico alemán Gustavo Roberto Kirchhoff (1824-1887) propuso unas reglas para el estudio de estas leyes. Aquí sólo se consideran redes con resistencias óhmicas y fuerzas electromotrices (voltajes o tensiones).
    3. 3. Rama: Es la parte de la red donde circula una corriente de la mismaintensidad.Fijados dos nodos, es un camino a lo largo del circuito que una dichosnodos y que no pase dos veces por el mismo sitio. Hay que darle unsentido
    4. 4. Nodo: Es un punto de la red donde concurren tres o más conductores oramas.La unión de dos o más terminales- Nodo principal: La unión de tres o más terminales.. es común que se use la sigla LCK para referirse a esta ley. La ley decorrientes de Kirchhoff nos dice que:
    5. 5. En cualquier nodo, y la suma de todos los nodos y la suma de lascorrientes que entran en ese nodo es igual a la suma de lascorrientes que salen. De igual forma, La suma algebraica de todaslas corrientes que pasan por el nodo es igual a cero
    6. 6. Si se consideran como positivas las corrientes que llegan a un nodoy como negativas las corrientes que salen, la ley de los nodostambién puede expresarse en la forma siguiente:En un nodo la suma algebraica de las intensidades de la corrientees igual a cero. ∑I = 0 en un nodo cualquiera.
    7. 7. La primera regla de Kirchhoffequivale a afirmar que la cargaeléctrica ni se crea ni sedestruye (principio deconservación de la cargaeléctrica). Esto significa que lacarga eléctrica no se puedeacumular en un nodo de la red,esto es la cantidad de cargaque entra a un nodo cualquieraen un cierto instante, es igual ala cantidad de carga que salede ese nodo.
    8. 8. El sentido de la corriente en cada uno delos conductores o ramas se fijaarbitrariamente teniendo en cuenta la leyde los nodos.
    9. 9. Ley de las mallas:Al recorrer una mallala suma algebraica de las fuerzas electromotrices (e ) y las diferencias de potencial (I .R) en las resistencias es cero. ∑V = 0 en cualquier malla de la red.
    10. 10. Esta ley es llamada también Segunda leyde Kirchhoff, ley de lazos de Kirchhoff oley de mallas de Kirchhoff y es común quese use la sigla LVK para referirse a esta ley.
    11. 11. Para aplicar correctamente la ley de Tensiones de Kirchhoff , serecomienda asumir primero un sentido de recorrer la malla. Unavez hecho esto se asigna signos positivos a todas las tensiones deaquellas ramas donde se entre por el terminal positivo en elrecorrido de la malla y se asignasignos negativos cuando entrepor el terminal negativo de la rama.
    12. 12. Este circuito tiene dos mallasindependientes, por las quesuponemosque circulan lascorrientesI1eI2en el sentido de las agujas delreloj, tal como se indica en la figura.Por el elementoR2circularán tantoI 1 como I 2en sentidos contrarios, por tanto lacorriente real que circula por él es lasuperposición de ambas: I 1-I 2.
    13. 13. La primera ecuación la obtendremos aplicando la ley deKirchhoff de las tensiones a la primera malla:
    14. 14. MALLAS Y NODOS MALLAS RAMA NODOS parte de la redla suma algebraica donde circula de las fuerzas y la suma de las corrientes que una corriente deelectromotrices (e ) la mismay las diferencias de entran en ese nodo es igual a intensidad. potencial (I .R) en las resistencias es la suma de las cero. corrientes que salen. LEYES DE KIRCHOFF
    Resultado de imagen para mallas y nodos


    Resultado de imagen para mallas y nodos

    Corriente alterna


    Figura 1Forma sinusoidal.
    Se denomina corriente alterna (abreviada CA en español y AC en inglés, de alternating current) a la corriente eléctrica en la que la magnitud y el sentido varían cíclicamente.
    La forma de oscilación de la corriente alterna más comúnmente utilizada es la oscilación senoidal con la que se consigue una transmisión más eficiente de la energía, a tal punto que al hablar de corriente alterna se sobrentiende que se refiere a la corriente alterna senoidal.
    Sin embargo, en ciertas aplicaciones se utilizan otras formas de oscilación periódicas, tales como la triangular o la cuadrada.
    Utilizada genéricamente, la CA se refiere a la forma en la cual la electricidad llega a los hogares y a las industrias. Sin embargo, las señales de audio y de radiotransmitidas por los cables eléctricos, son también ejemplos de corriente alterna. En estos usos, el fin más importante suele ser la transmisión y recuperación de la información codificada (o modulada) sobre la señal de la CA.

    Historia

    En el año 1882 el físico, matemático, inventor e ingeniero Nikola Tesla, diseñó y construyó el primer motor de inducción de CA. Posteriormente el físico William Stanley, reutilizó, en 1885, el principio de inducción para transferir la CA entre dos circuitos eléctricamente aislados. La idea central fue la de enrollar un par de bobinas en una base de hierro común, denominada bobina de inducción. De este modo se obtuvo lo que sería el precursor del actual transformador. El sistema usado hoy en día fue ideado fundamentalmente por Nikola Tesla; la distribución de la corriente alterna fue comercializada por George Westinghouse. Otros que contribuyeron en el desarrollo y mejora de este sistema fueron Lucien GaulardJohn Gibbs y Oliver Shallenger entre los años 1881 y 1889. La corriente alterna superó las limitaciones que aparecían al emplear la corriente continua (CC), que es un sistema ineficiente para la distribución de energía a gran escala debido a problemas en la transmisión de potencia, comercializado en su día con gran agresividad por Thomas Edison.
    La primera transmisión interurbana de la corriente alterna ocurrió en 1891, cerca de TellurideColorado, a la que siguió algunos meses más tarde otra de Lauffen a Frankfurt en Alemania. A pesar de las notorias ventajas de la CA frente a la CC, Thomas Edison siguió abogando fuertemente por el uso de la corriente continua, de la que poseía numerosas patentes (véase la guerra de las corrientes). De hecho, atacó duramente a Nikola Tesla y a George Westinghouse, promotores de la corriente alterna, y a pesar de ello ésta acabó por imponerse. Así, utilizando corriente alterna, Charles Proteus Steinmetz, de General Electric, pudo solucionar muchos de los problemas asociados a la producción y transmisión eléctrica, lo que provocó al final la derrota de Edison en la batalla de las corrientes, siendo su vencedor Nikola Tesla y su financiador George Westinghouse.

    Corriente alterna frente a corriente continua

    La razón del amplio uso de la corriente alterna viene determinada por su facilidad de transformación, cualidad de la que carece la corriente continua. En el caso de la corriente continua, la elevación de la tensión se logra conectando dínamos en serie, lo que no es muy práctico; al contrario, en corriente alterna se cuenta con un dispositivo: el transformador, que permite elevar la tensión de una forma eficiente.
    La energía eléctrica viene dada por el producto de la tensión, la intensidad y el tiempo. Dado que la sección de los conductores de las líneas de transporte de energía eléctrica depende de la intensidad, mediante un transformador se puede elevar la tensión hasta altos valores (alta tensión), disminuyendo en igual proporción la intensidad de corriente. Con esto la misma energía puede ser distribuida a largas distancias con bajas intensidades de corriente y, por tanto, con bajas pérdidas por causa del efecto Joule y otros efectos asociados al paso de corriente, tales como la histéresis o las corrientes de Foucault. Una vez en el punto de consumo o en sus cercanías, el voltaje puede ser de nuevo reducido para su uso industrial o doméstico y comercial de forma cómoda y segura.

    Las matemáticas y la CA sinusoidal

    Algunos tipos de oscilaciones periódicas tienen el inconveniente de no tener definida su expresión matemática, por lo que no se puede operar analíticamente con ellas. Por el contrario, la oscilación sinusoidal no tiene esta indeterminación matemática y presenta las siguientes ventajas:
    • La función seno está perfectamente definida mediante su expresión analítica y gráfica. Mediante la teoría de los números complejos se analizan con suma facilidad los circuitos de alterna.
    • Las oscilaciones periódicas no sinusoidales se pueden descomponer en suma de una serie de oscilaciones sinusoidales de diferentes frecuencias que reciben el nombre de armónicos. Esto es una aplicación directa de las series de Fourier.
    • Se pueden generar con facilidad y en magnitudes de valores elevados para facilitar el transporte de la energía eléctrica.
    • Su transformación en otras oscilaciones de distinta magnitud se consigue con facilidad mediante la utilización de transformadores.

    Oscilación senoidal


    Figura 2: Parámetros característicos de una oscilación sinusoidal.
    Una señal senoidal o sinusoidal, a(t)tensiónv(t), o corrientei(t), se puede expresar matemáticamente según sus parámetros característicos (figura 2), como una función del tiempo por medio de la siguiente ecuación:
    
a(t)=A_0 \cdot \sin(\omega t + \beta)
    donde
    A_0 es la amplitud en voltios o amperios (también llamado valor máximo o de pico),
    \omega la pulsación en radianes/segundo,
    t el tiempo en segundos, y
    \beta el ángulo de fase inicial en radianes.
    Dado que la velocidad angular es más interesante para matemáticos que para ingenieros, la fórmula anterior se suele expresar como:
    
a(t)=A_0 \cdot \sin(2 \pi f t + \beta)
    donde f es la frecuencia en hercios (Hz) y equivale a la inversa del período f=\frac{1}{T}. Los valores más empleados en la distribución son 50 Hz y 60 Hz.

    Valores significativos

    A continuación se indican otros valores significativos de una señal sinusoidal:
    • Valor instantáneo (a(t)): Es el que toma la ordenada en un instante, t, determinado.
    • Valor pico a pico (App): Diferencia entre su pico o máximo positivo y su pico negativo. Dado que el valor máximo de sen(x) es +1 y el valor mínimo es -1, una señal sinusoidal que oscila entre +A0 y -A0. El valor de pico a pico, escrito como AP-P, es por lo tanto (+A0)-(-A0) = 2×A0.
    • Valor medio (Amed): Valor del área que forma con el eje de abscisas partido por su período. El valor medio se puede interpretar como el componente de continua de la oscilación sinusoidal. El área se considera positiva si está por encima del eje de abscisas y negativa si está por debajo. Como en una señal sinusoidal el semiciclo positivo es idéntico al negativo, su valor medio es nulo. Por eso el valor medio de una Oscilación sinusoidal se refiere a un semiciclo. Mediante el cálculo integral se puede demostrar que su expresión es la siguiente;
    
A_{med}= {2 A_0 \over {\pi}}
    • Pico o cresta: Valor máximo, de signo positivo (+), que toma la oscilación sinusoidal del espectro electromagnético, cada medio ciclo, a partir del punto “0”. Ese valor aumenta o disminuye a medida que la amplitud “A” de la propia oscilación crece o decrece positivamente por encima del valor "0".
    • Valor eficaz (A): El valor eficaz se define como el valor de una corriente (o tensión) continua que produce los mismos efectos calóricos que su equivalente de alterna. Es decir que para determinada corriente alterna, su valor eficaz (Ief) será la corriente continua que produzca la misma disipación de potencia (P) en una resistencia(R). Matemáticamente, el valor eficaz de una magnitud variable con el tiempo, se define como la raíz cuadrada de la media de los cuadrados de los valores instantáneos alcanzados durante un período:
    
A= \sqrt {{1 \over {T}} {\int_{0}^{T} a^2(t) dt}}
    En la literatura inglesa este valor se conoce como R.M.S. (root mean square, valor cuadrático medio), y de hecho en matemáticas a veces es llamado valor cuadrático medio de una función. En el campo industrial, el valor eficaz es de gran importancia, ya que casi todas las operaciones con magnitudes energéticas se hacen con dicho valor. De ahí que por rapidez y claridad se represente con la letra mayúscula de la magnitud que se trate (I, V, P, etc.). Matemáticamente se demuestra que para una corriente alterna sinusoidal el valor eficaz viene dado por la expresión:
    
A ={A_0 \over {\sqrt 2}}
    El valor A, tensión o intensidad, es útil para calcular la potencia consumida por una carga. Así, si una tensión de alterna, desarrolla una cierta potencia P en una carga resistiva dada, una tensión de continua de Vrms desarrollará la misma potencia P en la misma carga, por lo tanto Vrms x I = VCA x I (véase Potencia en corriente alterna)

    Representación fasorial

    Una función sinusoidal puede ser representada por un número complejo cuyo argumento crece linealmente con el tiempo(figura 3), al que se denomina fasor o representación de Fresnel, que tendrá las siguientes características:
    • Girará con una velocidad angular ω.
    • Su módulo será el valor máximo o el eficaz, según convenga.
    La razón de utilizar la representación fasorial está en la simplificación que ello supone. Matemáticamente, un fasor puede ser definido fácilmente por un número complejo, por lo que puede emplearse la teoría de cálculo de estos números para el análisis de sistemas de corriente alterna.
    Consideremos, a modo de ejemplo, una tensión de CA cuyo valor instantáneo sea el siguiente:

    Tomando como módulo del fasor su valor eficaz, la representación gráfica de la anterior tensión será la que se puede observar en la figura 4, y se anotará:
    
v(t) =4 \sin \left(1000t + {\pi \over {4}}\right)
    
\vec{V} = 2 \sqrt 2 e^{\pi\mathrm{j} \over {4}} = 2 \sqrt 2 _\ \underline{/45^\circ}
    denominadas formas polares, o bien:
    
\vec{V} = 2 + 2 \mathrm{j}
    denominada forma binómica.

    Corriente trifásica

    La generación trifásica de energía eléctrica es la forma más común y la que provee un uso más eficiente de los conductores. La utilización de electricidad en forma trifásica es común mayoritariamente para uso en industrias donde muchas de las máquinas funcionan con motores para esta tensión.


    La corriente trifásica está formada por un conjunto de tres formas de oscilación, desfasadas una respecto a la otra 120º (grados), según el diagrama que se muestra en la figura 5.
    Las corrientes trifásicas se generan mediante alternadores dotados de tres bobinas o grupos de bobinas, enrolladas sobre tres sistemas de piezas polares equidistantes entre sí. El retorno de cada uno de estos circuitos o fases se acopla en un punto, denominado neutro, donde la suma de las tres corrientes, si el sistema está equilibrado, es cero, con lo que el transporte puede ser efectuado usando solamente tres cables.
    Esta disposición sería la denominada conexión en estrella, existiendo también la conexión en triángulo o delta en las que las bobinas se acoplan según esta figura geométrica y los hilos de línea parten de los vértices.
    Existen por tanto cuatro posibles interconexiones entre generador y carga:
    1. Estrella - Estrella
    2. Estrella - Delta
    3. Delta - Estrella
    4. Delta - Delta
    En los circuitos tipo estrella, las corrientes de fase y las corrientes de línea son iguales y, cuando el sistema está equilibrado, las tensiones de línea son  \sqrt{3} veces mayor que las tensiones de fase y están adelantadas 30° a estas:
    V_{linea}=\left[\sqrt {3}V_{fase}\right]_{ \left( \phi + 30 \right)}
    En los circuitos tipo triángulo o delta, pasa lo contrario, las tensiones de fase y de línea, son iguales y, cuando el sistema está equilibrado, la corriente de fase es  \sqrt{3} veces más pequeña que la corriente de línea y está adelantada 30° a ésta:




    Circuito RL

    Un circuito RL es un circuito eléctrico que contiene una resistencia y una bobina en serie. Se dice que la bobina se opone transitoriamente al establecimiento de una corriente en el circuito.
    La ecuación diferencial que rige el circuito es la siguiente:

    Circuito RL en serie.
    U = L\frac{di}{dt}+R_t.i
    Donde:

    Régimen transitorio[editar]

    La solución general, asociada a la condición inicial i_{bobina}(t=0) = 0, es:
    i_{bobina} = \frac{U}{R_t}(1 - e^{-\frac{t}{\tau}})
    \tau = \frac{L}{R_t}
    Dónde:
    La constante de tiempo \tau caracteriza la « duración » del régimen transitorio. Así, la corriente permanente del circuito se establece a 99% después de una duración de 5 \tau.
    Cuando la corriente se convierte en permanente, la ecuación se simplifica en U = R_t.i, ya que L\frac{di}{dt} = 0 .

    Régimen sinusoidal permanente[editar]

    En régimen sinusoidal permanente, el circuito puede ser caracterizado por una impedancia compleja Z de valor Z = R_t+j\omega L.



    Circuito RC



    Circuito RC en configuración paso bajo.
    Un circuito RC es un circuito compuesto de resistencias y condensadores alimentados por una fuente eléctrica. Un circuito RC de primer orden está compuesto de un resistor y un condensador y es la forma más simple de un circuito RC. Los circuitos RC pueden usarse para filtrar una señal, al bloquear ciertas frecuencias y dejar pasar otras. Los filtros RC más comunes son el filtro paso altofiltro paso bajofiltro paso banda, y el filtro elimina banda. Entre las características de los circuitos RC está la propiedad de ser sistemas lineales e invariantes en el tiempo; reciben el nombre de filtros debido a que son capaces de filtrar señales eléctricas de acuerdo a su frecuencia.
    En la configuración de paso bajo la señal de salida del circuito se coge en bornes del condensador, estando este conectado en serie con la resistencia. En cambio en la configuración de paso alto la tensión de salida es la caída de tensión en la resistencia.

    Este mismo circuito tiene además una utilidad de regulación de tensión, y en tal caso se encuentran configuraciones en paralelo de ambos, la resistencia y el condensador, o alternativamente, como limitador de subidas y bajas bruscas de tensión con una configuración de ambos componentes en serie. Un ejemplo de esto es el circuito Snubber.


    Comportamiento en el dominio del tiempo

    Carga

    El sistema reaccionará de distinta manera de acuerdo a las excitaciones entrantes, como ejemplo, podemos representar la respuesta a la función escalón o la función de salto. La tensión originalmente desde el tiempo 0 subirá hasta que tenga la misma que la fuente, es decir, U_{\rm max}. La corriente entrará en el condensador hasta que entre las placas ya no puedan almacenar más carga por estar en equilibrio electrostático (es decir que tengan la misma tensión que la fuente). De esta forma una placa quedará con carga positiva y la otra con carga negativa, pues esta última tendrá un exceso de electrones.

    El tiempo de carga del circuito es proporcional a la magnitud de la resistencia eléctrica R y la capacidad C del condensador. El producto de la resistencia por la capacidad se llama constante de tiempo del circuito y tiene un papel muy importante en el comportamiento de este. \tau.
    
\tau = R \cdot C \,

    Teóricamente este proceso es infinitamente largo, hasta que U(t)=Umax. En la práctica se considera que el tiempo de carga tL se mide cuando el condensador se encuentra aproximadamente en la tensión a cargar (más del 99% de ésta), es decir, aproximadamente 5 veces su constante de tiempo.
    
t_{L} = 5 \cdot \tau \,

    La constante de tiempo τ marca el tiempo en el que la curva tangente en el inicio de la carga marca en intersección con la línea de máxima tensión la constante de tiempo τ. Este tiempo sería el tiempo en el que el condensador alcanzaría su tensión máxima si es que la corriente entrante fuera constante. En la realidad, la corriente con una fuente de tensión constante tendrá un carácter exponencial, igual que la tensión en el condensador.

    La máxima corriente I_{\rm max} fluye cuando el tiempo es inicial(es decir t=0). Esto es debido que el condensador está descargado, y la corriente que fluye se calcula fácilmente a través de la ley de Ohm, con:
    
I_{\rm max} = \frac{U_{\rm max}}{R} \,

    Respuesta natural[editar]


    Circuito RC (en serie).
    El circuito RC más simple que existe consiste en un condensador y una resistencia en serie. Cuando un circuito consiste solo de un condensador cargado y una resistencia, el condensador descargará su energía almacenada a través de la resistencia. La tensión o diferencia de potencial eléctrico a través del condensador, que depende del tiempo, puede hallarse utilizando la ley de Kirchhoff de la corriente, donde la corriente a través del condensador debe ser igual a la corriente a través de la resistencia. Esto resulta en laecuación diferencial lineal:
    
C\frac{dV}{dt} + \frac{V}{R}=0
.
    Resolviendo esta ecuación para V se obtiene la fórmula de decaimiento exponencial:
    
V(t)=V_0 e^{-\frac{t}{RC}} \ ,
    donde V0 es la tensión o diferencia de potencial eléctrico entre las placas del condensador en el tiempo t = 0.
    El tiempo requerido para que el voltaje caiga hasta \frac{V_0}{e} es denominado "constante de tiempo RC" y es dado por
     \tau = RC \

    Impedancia compleja[editar]

    La impedancia complejaZC (en ohmios) de un condensador con capacidad C (en faradios) es
    Z_C = \frac{1}{sC}
    La frecuencia compleja s es, en general, un número complejo,
    s \ = \ \sigma + j \omega
    donde
     j^2 = -1

    Circuito en serie[editar]

    Viendo el circuito como divisor de tensión, el voltaje a través del condensador es:
    
V_C(s) =  \frac{1/Cs}{R + 1/Cs}V_{in}(s) = \frac{1}{1 + RCs}V_{in}(s)
    y el voltaje a través de la resistencia es:
    
V_R(s) = \frac{R}{R + 1/ Cs}V_{in}(s) = \frac{ RCs}{1 + RCs}V_{in}(s)
.

    Funciones de transferencia[editar]

    La función de transferencia de desde el voltaje de entrada al voltaje a través del condensador es
    
H_C(s) = { V_C(s) \over V_{in}(s) }   = { 1 \over 1 + RCs  } 
.
    De forma similar, la función de transferencia desde el voltaje de entrada al voltaje de la resistencia es
    
H_R(s) = { V_R(s) \over V_{in}(s) }   = { RCs \over 1 + RCs  }
.

    Polos y ceros[editar]

    Ambas funciones de transferencia tienen un único polo localizado en
    
s = - {1 \over RC }
 .
    Además, la función de transferencia de la resistencia tiene un cero localizado en el origen.

    Ganancia y fase[editar]

    La magnitud de las ganancias a través de los dos componentes son:
    
G_C = | H_C(j \omega) | = \left|\frac{V_C(j \omega)}{V_{in}(j \omega)}\right| = \frac{1}{\sqrt{1 + \left(\omega RC\right)^2}}
    y
    
G_R = | H_R(j \omega) | = \left|\frac{V_R(j \omega)}{V_{in}(j \omega)}\right| = \frac{\omega RC}{\sqrt{1 + \left(\omega RC\right)^2}}
,
    y los ángulos de fase son:
    
\phi_C =  \angle H_C(j \omega) =  \tan^{-1}\left(-\omega RC\right)
    y
    
\phi_R = \angle H_R(j \omega) =  \tan^{-1}\left(\frac{1}{\omega RC}\right)
.
    Estas expresiones conjuntamente pueden ser sustituidas en la usual expresión para la representación por fasores:
    
V_C \ = \ G_{C}V_{in}  e^{j\phi_C}
    
V_R \ = \  G_{R}V_{in} e^{j\phi_R}
.

    Corriente[editar]

    La corriente en el circuito es la misma en todos los puntos del circuito ya que el circuito está en serie:
    
I(s) = \frac{V_{in}(s) }{R + \frac{1}{Cs}}  =  { Cs \over 1 + RCs } V_{in}(s)

    Respuesta a impulso[editar]

    La respuesta a impulso para cada voltaje es la inversa de la transformada de Laplace de la correspondiente función de transferencia. Esta representa la respuesta del circuito a una entrada de voltaje consistente en un impulso o función delta de Dirac.
    La respuesta impulso para el voltaje del condensador es
    
h_C(t) = {1 \over RC} e^{-t / RC} u(t)  =  { 1 \over \tau} e^{-t / \tau} u(t)
    donde u(t) es la función escalón de Heaviside y
    
\tau \ = \ RC
    De forma similar, la respuesta impulso para el voltaje de la resistencia es
    
h_R(t) = \delta (t) - {1 \over RC} e^{-t / RC} u(t)  =  \delta (t) - { 1 \over \tau} e^{-t / \tau} u(t)
    donde δ(t) es la función delta de Dirac

    Análisis de frecuencia[editar]


    Lugar de Bode de H_C
    Un análisis de frecuencia del montaje permite determinar cuáles son las frecuencias que el fitro rechaza y cuáles acepta. Para bajas frecuencias, H_C tiene un módulo cercano a 1 y una fase próxima a 0. Cuando la frecuencia aumenta, su módulo disminuye para tender a 0 mientras que la fase tiende a -\pi/2. Por el contrario, H_R posee un módulo cercano a 0 a bajas frecuencias y una fase próxima a \pi/2 y cuando la frecuencia aumenta, el módulo tiende a 1 y su fase tiende a 0.
    Cuando \omega \to 0 :
    G_C \to 1 y \varphi_C \to 0.
    G_R \to 0 y \varphi_R \to 90^{\circ} = \pi/2.
    Cuando \omega \to \infty :
    G_C \to 0  y \varphi_C \to -90^{\circ} = -\pi/2
    G_R \to 1 y \varphi_R \to 0.
    Así, cuando la salida del filtro está tomada sobre el condensador el comportamiento es de tipo filtro paso bajo: las altas frecuencias son atenuadas y las bajas frecuencias pasan. Si la salida está tomada sobre la resistencia, se produce el proceso inverso y el circuito se como un filtro paso alto.
    La frecuencia de corte f_c  del circuito que define el límite tiene 3 dB entre las frecuencias atenuadas y aquéllas que no lo son; es igual a:
    f_c = \frac{1}{2\pi RC} (en Hz)

    Análisis temporal[editar]

    Por razones de simplicidad, el análisis temporal se efectuará utilizando la transformada de Laplace p. Suponiendo que el circuito está sometido a una escalón de tensión de amplitud V de entrada ( V_{in} = 0\, para t = 0\, y V_{in} = V\, sinon) :
    V_{in}(p) = \frac{V}{p}
    V_C(p) = H_C(p)V_{in}(p) = \frac{1}{1 + pRC}  \frac{V}{p}
    V_R(p) = H_R(p)V_{in}(p) = \frac{pRC}{1 + pRC}\frac{V}{p}.
    La transformada de Laplace inversa de estas expresiones resulta:
    V_C(t) = V\left(1 - e^{-t/RC}\right)
    V_R(t) = Ve^{-t/RC}\,.
    En este caso, el condensador se carga y la tensión en los bornes tiende a V, mientras que en los bornes de la resistencia tiende a 0.

    Determinación gráfica de \tau para la observación de V_C(t).
    El circuito RC posee una constante de tiempo, generalmente expresado como \tau = RC\,, que representa el tiempo que toma la tensión para efectuar el 63% (1-e^{-1}) de la variación necesaria para pasar del valor inicial al final.
    Igualmente es posible derivar estas expresiones de las ecuaciones diferenciales que describen el circuito:
    \frac{V_{in} - V_C}{R} = C\frac{dV_C}{dt}
    V_R = V_{in} - V_C\,.
    Las soluciones son exactamente las mismas que aquéllas obtenidas mediante la transformada de Laplace.

    Integrador[editar]

    A alta frecuencia, es decir cuando \omega >> \frac{1}{RC}, el condensador no tiene tiempo suficiente para cargarse y la tensión en los bornes permanece pequeña.
    Así:
    V_R \approx V_{in}
    y la intensidad en el circuito vale por tanto:
    I \approx \frac {V_{in}}{R}.
    Como,
    V_C = \frac{1}{C}\int_{0}^{t}Idt
    se obtiene:
    V_C \approx \frac{1}{RC}\int_{0}^{t}V_{in}dt .
    La tensión en los bornes del condensador integrado se comporta como un filtro de paso-bajo.

    Derivador[editar]

    A baja frecuencia, es decir cuando \omega << \frac{1}{RC}, el condensador tiene el tiempo de cargarse casi completamente.
    Entonces,
    I \approx \frac{V_{in}}{1/j\omega C}
    V_{in} \approx \frac{I}{j\omega C} \approx V_C
    Ahora,
    V_R = IR = C\frac{dV_C}{dt}R
    V_R \approx RC\frac{dV_{in}}{dt}.
    La tensión en los bornes de la resistencia derivado se comporta como un filtro de paso-alto.

    Circuito en paralelo[editar]


    Un circuito RC en paralelo.
    El circuito RC en paralelo generalmente es de menor interés que el circuito en serie. Esto es en gran parte debido a que la tensión de salida V_{out} es igual a la tensión de entrada V_{in} — como resultado, el circuito no actúa como filtro de la señal de entrada si no es alimentado por una fuente de corriente.
    Con impedancias complejas:
    
I_R = \frac{V_{in}}{R}\,
    y
    
I_C = j\omega C V_{in}\,
.
    Esto muestra que la corriente en el condensador está desfasada 90º de fase con la resistencia (y la fuente de corriente). Alternativamente, las ecuaciones diferenciales de gobierno que pueden usarse son:
    
I_R = \frac{V_{in}}{R}
    y
    
I_C = C\frac{dV_{in}}{dt}
.
    Cuando es alimentado por una fuente de corriente, la función de transferencia de un circuito RC en paralelo es:
    
\frac{V_{out}}{I_{in}} = \frac{R}{1+sRC}
.





       

      Resonancia en un circuito RLC serie


      Cuando se conecta un circuito RLC en serie, alimentado por una señal alterna (fuente de tensión de corriente alterna), hay un efecto de ésta en cada uno de los componentes.
      En el condensador aparecerá una reactancia capacitiva, y en la bobina una reactancia inductiva, dadas por las siguientes fórmulas:  XL = 2 x π x f x L   y   XC = 1 / (2 x π x f x C),  donde:
      • π = 3.14159
      • f = frecuencia en Hertz
      • L = Valor de la bobina en henrios
      • C = Valor del condensador en faradios
      Como se puede ver los valores de estas reactancias depende de la frecuencia de la fuente. A mayor frecuencia, XL es mayor, pero XC es menor y viceversa. Hay una frecuencia para la cual el valor de la XC y XL son iguales. Esta frecuencia se llama frecuencia de resonancia y se obtiene de la siguiente fórmula: FR = 1 / (2 x π x (L x C)1/2)
      Circuito RLC serie - Resonancia en circuito RLC serie
      En resonancia como los valores de XC y XL son iguales, se cancelan y en un circuito RLC en serie laimpedancia que ve la fuente es el valor de la resistencia. A frecuencias menores a la de resonancia, el valor de la reactancia capacitiva es grande y la impedancia es capacitiva. A frecuencias superiores a la de resonancia, el valor de la reactancia inductiva crece y la impedancia es inductiva.
      Nota: es importante visualizar que los efectos de la reactancia capacitiva y la inductiva son opuestos, es por eso que se cancelan y causan la oscilación (resonancia).

      El Ancho de banda (BW) y el Factor de calidad (Q)

      Los circuitos resonantes son utilizados para seleccionar bandas de frecuencias y para rechazar otras. Cuando se está en la frecuencia de resonancia la corriente por el circuito es máxima.
      En la figura: A una corriente menor (70.7% de la máxima), la frecuencia F1 se llama frecuencia baja de corte o frecuencia baja de potencia media. La frecuencia alta de corte o alta de potencia media es F2.
      Ancho de banda de un circuito RLC serie - Circuito RLCserie - Resonancia en circuito RLC serie
      El ancho de banda de este circuito está entre estas dos frecuencias y se obtiene con la siguiente fórmula:
      • Ancho Banda = BW = F2 – F1
      • El factor de calidad (Q) o factor Q es: Q = XL/R o XC/R
      También la relacionándolo con el Ancho Banda:  Resonancia en un circuito RLC serie. Q = frecuencia resonancia / Ancho banda = FR/BW
      Ejemplos:
      • Si F1 = 50 Khz y F2 = 80 Khz, FR = 65 Khz, el factor de calidad es: Q = FR / BW = 65 / (80-50) = 2.17
      • Si F1 = 60 Khz y F2 = 70 Khz, FR = 65 Khz, el factor de calidad es: Q = FR / BW = 65 / (70-60) = 6.5
      Se puede observar que el factor de calidad es mejor a menor ancho de banda. (el circuito es más selectivo)
      Tut_resonanciaSerie.asp