miércoles, 25 de noviembre de 2009

porque la luz puede reflejarse

Laserium
La sección del Laserium consta de los siguientes equipamientos:
Interferencia¿Qué hacer?Aprieta un botón para elegir entre luz blanca y luz de color. Si elegiste luz de color oprime el botón correspondiente al color que desees. Presiona con un dedo las placas de vidrio circulares a tu alcance y ve qué pasa.
¿Qué ver?Compara las figuras irregulares que se forman entre las placas planas transparentes y los círculos concéntricos entre las dos placas de vidrio colocadas en la vitrina. Fíjate qué pasa cuando iluminas con luz blanca y con luz de color.
¿Qué sucede?En este aparato se colocan dos placas transparentes ligeramente separadas. Cuando la luz incide sobre ellas, parte se refleja en cada una. La luz reflejada por una se superpone a la reflejada por otra. Por ser ondas pueden reforzarse o anularse dependiendo de la razón de la separación de las placas a la longitud de onda o color de la luz. A este fenómeno lo llamamos interferencia. Estas zonas de interferencia destructiva son las franjas negras que ves y las zonas de interferencia constructiva son franjas luminosas. Si iluminas con luz blanca, que está formada por los colores del arco iris y, por lo tanto, contiene muchas longitudes de onda distintas, las franjas serán de colores porque se superponen las que se forman con cada color. Por esta misma razón una pompa de jabón se ve de colores a la luz del Sol.

definicion luminosa intensidad luminosa y iluminacion

La luz, al igual que las ondas de radio, los rayos X o los gamma es una forma de energía. Si la energía se mide en joules (J) en el Sistema Internacional, para qué necesitamos nuevas unidades. La razón es más simple de lo que parece. No toda la luz emitida por una fuente llega al ojo y produce sensación luminosa, ni toda la energía que consume, por ejemplo, una bombilla se convierte en luz. Todo esto se ha de evaluar de alguna manera y para ello definiremos nuevas magnitudes: el flujo luminoso, la intensidad luminosa, la iluminancia, la luminancia, el rendimiento o eficiencia luminosa y la cantidad de luz.
Flujo luminoso
Para hacernos una primera idea consideraremos dos bombillas, una de 25 W y otra de 60 W. Está claro que la de 60 W dará una luz más intensa. Pues bien, esta es la idea: ¿cuál luce más? o dicho de otra forma ¿cuánto luce cada bombilla?

Cuando hablamos de 25 W o 60 W nos referimos sólo a la potencia consumida por la bombilla de la cual solo una parte se convierte en luz visible, es el llamado flujo luminoso. Podríamos medirlo en watts (W), pero parece más sencillo definir una nueva unidad, el lumen, que tome como referencia la radiación visible. Empíricamente se demuestra que a una radiación de 555 nm de 1 W de potencia emitida por un cuerpo negro le corresponden 683 lumen.
Se define el flujo luminoso como la potencia (W) emitida en forma de radiación luminosa a la que el ojo humano es sensible. Su símbolo es y su unidad es el lumen (lm). A la relación entre watts y lúmenes se le llama equivalente luminoso de la energía y equivale a:
1 watt-luz a 555 nm = 683 lm
Flujo luminoso
Símbolo:
Unidad: lumen (lm)
Intensidad luminosa
El flujo luminoso nos da una idea de la cantidad de luz que emite una fuente de luz, por ejemplo una bombilla, en todas las direcciones del espacio. Por contra, si pensamos en un proyector es fácil ver que sólo ilumina en una dirección. Parece claro que necesitamos conocer cómo se distribuye el flujo en cada dirección del espacio y para eso definimos la intensidad luminosa.
Diferencia entre flujo e intensidad luminosa.
Se conoce como intensidad luminosa al flujo luminoso emitido por unidad de ángulo sólido en una dirección concreta. Su símbolo es I y su unidad la candela (cd).
Intensidad luminosa
Símbolo: I

Unidad: candela (cd)

Iluminancia
Quizás haya jugado alguna vez a iluminar con una linterna objetos situados a diferentes distancias. Si se pone la mano delante de la linterna podemos ver esta fuertemente iluminada por un círculo pequeño y si se ilumina una pared lejana el circulo es grande y la luz débil. Esta sencilla experiencia recoge muy bien el concepto de iluminancia.
Concepto de iluminancia.
Se define iluminancia como el flujo luminoso recibido por una superficie. Su símbolo es E y su unidad el lux (lx) que es un lm/m2.
Iluminancia
Símbolo: E

Unidad: lux (lx)
Existe también otra unidad, el foot-candle (fc), utilizada en países de habla inglesa cuya relación con el lux es:
1 fc 10 lx
1 lx 0.1 fc
En el ejemplo de la linterna ya pudimos ver que la iluminancia depende de la distancia del foco al objeto iluminado. Es algo similar a lo que ocurre cuando oímos alejarse a un coche; al principio se oye alto y claro, pero después va disminuyendo hasta perderse. Lo que ocurre con la iluminancia se conoce por la ley inversa de los cuadrados que relaciona la intensidad luminosa (I) y la distancia a la fuente. Esta ley solo es válida si la dirección del rayo de luz incidente es perpendicular a la superficie.
Ley inversa delos cuadrados
¿Qué ocurre si el rayo no es perpendicular? En este caso hay que descomponer la iluminancia recibida en una componente horizontal y en otra vertical a la superficie.
A la componente horizontal de la iluminancia (EH) se le conoce como la ley del coseno. Es fácil ver que si = 0 nos queda la ley inversa de los cuadrados. Si expresamos EH y EV en función de la distancia del foco a la superficie (h) nos queda:
En general, si un punto está iluminado por más de una lámpara su iluminancia total es la suma de las iluminancias recibidas:

Luminancia
Hasta ahora hemos hablado de magnitudes que informan sobre propiedades de las fuentes de luz (flujo luminoso o intensidad luminosa) o sobre la luz que llega a una superficie (iluminancia). Pero no hemos dicho nada de la luz que llega al ojo que a fin de cuentas es la que vemos. De esto trata la luminancia. Tanto en el caso que veamos un foco luminoso como en el que veamos luz reflejada procedente de un cuerpo la definición es la misma.
Se llama luminancia a la relación entre la intensidad luminosa y la superficie aparente vista por el ojo en una dirección determinada. Su símbolo es L y su unidad es la cd/m2. También es posible encontrar otras unidades como el stilb (1 sb = 1 cd/cm2) o el nit (1 nt = 1 cd/m2).
Luminancia
Símbolo: L
Unidad: cd/m2
Es importante destacar que sólo vemos luminancias, no iluminancias.
Rendimiento luminoso o eficiencia luminosa
Ya mencionamos al hablar del flujo luminoso que no toda la energía eléctrica consumida por una lámpara (bombilla, fluorescente, etc.) se transformaba en luz visible. Parte se pierde por calor, parte en forma de radiación no visible (infrarrojo o ultravioleta), etc.
Para hacernos una idea de la porción de energía útil definimos el rendimiento luminoso como el cociente entre el flujo luminoso producido y la potencia eléctrica consumida, que viene con las características de las lámparas (25 W, 60 W...). Mientras mayor sea mejor será la lámpara y menos gastará. La unidad es el lumen por watt (lm/W).
Rendimiento luminoso
Símbolo:
Unidad: lm / W

Cantidad de luz
Esta magnitud sólo tiene importancia para conocer el flujo luminoso que es capaz de dar un flash fotográfico o para comparar diferentes lámparas según la luz que emiten durante un cierto periodo de tiempo. Su símbolo es Q y su unidad es el lumen por segundo (lm·s).
Cantidad de luz Q = ·t
Símbolo: Q
Unidad: lm·s

definicion de flujo luminoso

PORQUE LA LUZ SE COMPORTA COMO ONDA Y OTRAS VEZ COMO PARTICULAS

El cuerpo negro Un esquema de la cavidad que puede aproximarse a un cuerpo negro ideal se encuentra en la figura 18.1. Estos cuerpos al irse calentando van encontrando un equilibrio de radiación en el cual, a mayor temperatura, el cuerpo emite a su vez más radiación. Además al irse calentando el cuerpo aumenta la cantidad de energía radiada (de acuerdo con la ley de Stefan-Boltzmann) y la concentración de la energía se desplaza hacia longitudes de ondas más cortas. Precisamente a una representación de la potencia radiada frente a la longitud de onda se le puede denominar distribución de la radiación o distribución espectral.

Figura 18.1: Dibujo de un ``cuerpo negro''.
Una gráfica de la distribución espectral de la radiación de un cuerpo negro puede verse en la figura 18.2. Este resultado experimental se intentó explicar de una forma directa a partir de la termodinámica clásica, y el resultado obtenido, que también está representado en la figura 18.2, claramente no coincidía con el resultado ``verdadero'', que es siempre el que marca la experiencia de laboratorio.

Figura: Distribución espectral de la radiación emitida por un cuerpo negro a distintas temperaturas.
En 1900 el físico alemán, Max Planck afirmó que realizando una inusitada modificación de los cálculos clásicos, e introduciendo una hipótesis nueva y singularmente extraña, había encontrado una distribución espectral que explicaba perfectamente los datos experimentales.
Esta ``sorprendente hipótesis'' era que la energía emitida y absorbida por el cuerpo no era continua, es decir, el cuerpo no podía tomar o dejar cualquier valor de ésta, sino discreta y además, proporcional a la frecuencia. Es decir

(18.1)
donde es la constante de proporcionalidad, de valor y conocida actualmente como constante de Planck.
Planck fue absolutamente incapaz de encajar esta hipótesis dentro del marco de la mecánica clásica y, sin proponérselo, había dado el primer paso para el advenimiento de la mecánica cuántica.
La radiación electromagnética se emite en ``paquetes'' de energía o fotones cuyo valor energético es:

El efecto fotoeléctrico
Descripción del problema Este efecto fue descubierto por Hertz en 1.887 y estudiado por Lenard en 1.900. Fue satisfactoriamente explicado por Einstein en 1.905 y su explicación le supuso ganar el Premio Nobel de Física. El efecto fotoeléctrico consiste en el hecho de que, cuando se ilumina una superficie metálica limpia, bajo ciertas condiciones se emiten electrones. Estos electrones pueden ser recogidos en un tubo de rayos catódicos para relacionar su emisión con algo fácilmente medible, como es la intensidad y voltaje eléctrico.
Analicemos que sucede en el circuito de la figura 18.3. Cuando la luz incide sobre el cátodo C se emiten electrones. Si alguno de ellos choca con el ánodo A existirá una cierta corriente por el circuito. El número de electrones emitidos que alcanzan el ánodo puede variarse haciendo el ánodo positivo o negativo respecto el cátodo, es decir, creando una diferencia de potencial entre ellos. Cuando es positivo los electrones arrancados por la luz son atraídos por el ánodo. Para un valor lo suficientemente alto de todos los electrones ``arrancados'' por la luz alcanzan el ánodo y la corriente logra su valor máximo; si aumentamos más descubriremos que que la corriente ya no aumenta, se mantiene en su valor máximo, ya que no influye en que se liberen más electrones del cátodo, sino sólo en que todos los que son liberados se acerquen hacia el ánodo. Si variamos al revés los electrones serán repelidos por el ánodo, y sólo aquellos que tengan una energía cinética ( ) suficientemente alta lograrán llegar al ánodo y generar corriente. Pero ahora bien, cuando bajamos y lo hacemos menor que un cierto valor no existe corriente alguna, lo cual significa que ningún electrón alcanza el ánodo. Entonces este potencial estará relacionado con la máxima energía cinética que tendrán los electrones, de manera que podemos poner


Figura: Dispositivo simplificado para la medición del efecto fotoeléctrico.
Ahora bien ¿y qué es lo interesante de esta experiencia?. Lo curioso es que el valor de no depende de la intensidad de la radiación, pero si depende de ``algo tan peregrino'' como el color de la luz con que se ilumine el cátodo. Así pues aparentemente al aumentar la intensidad, por tanto la energía por unidad de tiempo que cae sobre el cátodo, no aumenta la energía cinética de los electrones emitidos. ¿Cómo se puede explicar esto?. ¿Por qué sucede?. Estas fueron las preguntas que se hizo Einstein ( y logró contestar) en 1.905.
Solución Einstein demostró que estas experiencias podían entenderse suponiendo que la energía luminosa no se distribuye de manera continua, como dice el modelo clásico ( y Maxwelliano) de la luz, sino cuantizada en paquetes pequeños llamados fotones. La energía de un fotón es , la relación que Planck usó para la explicación del cuerpo negro. Einstein supuso que un electrón emitido desde la superficie del cátodo es de alguna forma ``arrancado'' por el impacto con el fotón, de forma que toda la energía del fotón pasa al electrón. Ahora bien, el electrón recibe su energía de un único fotón. Así, cuando se aumenta la intensidad de la luz lo que sucede es que al incidir más fotones sobre el cátodo por unidad de tiempo quedan más electrones liberados, pero la energía que ha absorbido cada electrón no varía, es la misma.
De esta manera se hace un sencillo cálculo energético: Si la energía necesaria para que se desprenda un electrón de la superficie de un metal es, pongamos, una cierta , la energía máxima de los electrones debería ser la que queda de la que tenía el electrón, es decir

y como a su vez, sabíamos que esta energía era podemos deducir que este potencial de frenado será

Este resultado coincidía plenamente con los datos experimentales, y además el valor de la constante resultó ser igual que el usado por Planck para explicar el cuerpo negro. Esto supuso una nueva evidencia sobre la validez universal de la hipótesis de la cuantificación de la energía lumínica.
Efecto Compton Arthur H. Compton, en 1.923 realizó una experiencia en la que se enviaban rayos X (un tipo de luz más energética que la visible) a una zona con átomos, y posteriormente se medía tanto la frecuencia y ángulo de la luz dispersada como la velocidad el electrón derivado tras el choque. Utilizando los principios de conservación de la energía y del momento lineal en estos choques, todos los resultados eran coherentes si se suponía que la luz se comportaba como una partícula (un fotón) que colisiona con el electrón, con energía dada por la relación de Planck y con momento lineal igual a

(18.2)
Puede resultar útil recordar que, de acuerdo con la teoría clásica, la energía y cantidad de movimiento de una onda electromagnética está marcada por

entonces, relacionando esta mediante la ecuación (18.1) y recordando que se obtiene fácilmente (18.2).
Naturaleza ondulatoria de la materia
Las ideas de simetría, que se muestran siempre muy útiles en la física, levaron a Louis de Broglie a pensar que, al igual que la luz, pese a ser de naturaleza supuestamente ondulatoria, presentaba muchas veces una componente corpuscular, podía ser que la materia normal, tratada siempre como partícula, tuviese también una naturaleza ondulatoria.
Pero de Broglie fue más allá: si el momento lineal de un fotón, según el experimento de Compton, era ¿por qué no utilizar esta relación para encontrar la ``longitud de onda de la materia''?. Esto es, para un cuerpo normal y usando (18.2) y despejando así obtenemos

(18.3)
Ahora bien, la física tiene siempre una forma para decidir cuando una hipótesis es o no correcta: la experimentación. En experiencias posteriores se pudo comprobar que efectivamente, partículas como los electrones, pueden producir patrones de difracción, un hecho puramente ondulatorio, similares a los que producen los rayos X.
Ahora bien, si todas las partículas presentan esta dualidad onda y corpúsculo, ¿por qué en nuestra vida cotidiana no vemos, por ejemplo, la difracción de una bola de billar o de algún objeto igualmente macroscópico?. La respuesta es que, si tomamos una bola de billar con una masa de gramos y una velocidad de su longitud de onda será, dado el ínfimo valor de , extremadamente pequeña, razón por la cual con los aparatos actuales somos incapaces de comprobar su existencia. Para objetos más pequeños (protones, electrones, neutrinos...) se ha encontrado un comportamiento ondulatorio siempre que se ha buscado.
Evidentemente toda esta serie de fenómenos nuevo invalida de tal manera las leyes anteriores que es necesaria la búsqueda de nuevas ``leyes de Newton'', de nuevas ecuaciones que sean capaces de explicar a su vez estos nuevos fenómenos. Estas nuevas leyes entran a formar parte de un nuevo marco de la física que se conoce como Física Cuántica o Mecánica Cuántica. La palabra cuántica hace referencia al hecho de que, en este nuevo marco, algunas magnitudes no van a ser continuas, sino que van a ser discretas, a estar cuantizadas, es decir, a permitir sólo ciertos valores discretos.
Podemos citar a los físicos Schrödinger, Heisemberg y Pauli como los padres de la mecánica cuántica, descubridores a su vez respectivamente de la mecánica de matrices, la ecuación de Schrödinger de la Mecánica Cuántica y la ecuación de Pauli de la Mecánica Cuántica y Relativista (en la cual aparece de manera natural el fenómenos del espín), pero toda lista sería incompleta. La Mecánica Cuántica y la Mecánica Relativista son dos espectaculares teorías, en su mayoría poco intuitivas e incluso muchas veces ``contra el sentido común'' que han revolucionado la física del siglo XX y han logrado explicar infinidad de hechos nuevos y otros ya conocidos bajo una luz diferente. Su unión con las teorías de campos, en lo que se conoce como Teoría Cuántica de Campos ha dado pie a una de las teorías más exactas y extrañas que existen actualmente.
Tecnológicamente aparatos tan cotidianos como los ordenadores o avances médicos como la radiología no habrían sido posibles sin estos descubrimientos.
Resumen: Dualidad onda-corpúsculo de la luz y la materia
Así pues como resumen ¿qué es la luz y la materia? ¿Son ondas o son partículas? ¿Se comportan como las primeras o las segundas?. Como se ha podido ir desgajando a lo largo de las secciones la respuesta no es fácil. La física en sí misma no es una ciencia que pretenda explicar la esencia de la Naturaleza, sino más bien cómo se comporta ésta. Por eso la contestación a la pregunta de si la luz es onda o es partícula es irrelevante. Lo importante es que, según la experiencia, se comporta de una u otra forma en unos u otros casos. Así mismo la materia se comporta como onda o como corpúsculo según la ocasión. Sería como si ``fuera onda los lunes miércoles y viernes y partícula el resto''.
No obstante quizás esta explicación parezca muy absurda a muchos, que piensen que todo esto tiene que estar claramente equivocado porque ¿cómo va a ser algo onda y partícula a la vez?. Según los más elementales principios de la lógica algo no puede ser y no ser a la vez, o bien un ente no puede contener dos propiedades contradictorias de forma consecutiva.
El problema surge al considerar la esencia misma de la concepción ``onda'' o de la concepción ``partícula''. La mente humana crea un modelo, un concepto como ``onda'' para explicar una serie de hechos, y luego renuncia a los hechos para afirmarse más en la concepción de ``onda''. Análogamente crea la concepción ``partícula''. Posteriormente cree que, el hecho de que ciertos aspectos de la Naturaleza puedan explicarse como partícula implican que ese aspecto es una partícula, y esta identificación es la que resulta incorrecta. Por ejemplo: una bola de billar se comporta como una partícula, pero esto no significa que sea una partícula. ¿Qué es por tanto una bola de billar?. No es la física quien tiene que dar la respuesta, entre otras cosas porque (es mi opinión) ni es un tema de su incumbencia ni lo podrá saber nunca. La bola de billar es un objeto incognoscible al que podemos asociar una etiqueta ``partícula'' porque en todas las ocasiones se comporta como tal, pero por ello no tiene por qué ser una partícula. Dicho de otra forma, ``onda'' o ``partícula'' son sólo modelos o categorías mentales, y la Naturaleza no tiene porqué amoldarse a nuestras aldeanas categorías mentales. La Naturaleza será lo que sea, y muchas facetas suyas se aproximarán a ``onda'' y otras a ``partícula'' que no son más que aproximaciones o modelos humanos.

HISTORIA DE LA NATURALEZA DE LA LUZ

naturaleza de la luz

La óptica es la parte de la física que estudia la luz y los fenómenos relacionados con ella, y su estudio comienza cuando el hombre intenta explicarse el fenómeno de la visión.
Diferentes teorías se han ido desarrollando para interpretar la naturaleza de la luz hasta llegar al conocimiento actual. Las primeras aportaciones conocidas son las de Lepucio (450 a.C.) perteneciente a la escuela atomista, que consideraban que los cuerpos eran focos que desprendían imágenes, algo así como halos oscuros, que eran captados por los ojos y de éstos pasaban al alma, que los interpretaba.
Los partidarios de la escuela pitagórica afirmaban justamente lo contrario: no eran los objetos los focos emisores, sino los ojos. Su máximo representante fue Apuleyo (400 a.C.); haciendo un símil con el sentido del tacto, suponían que el ojo palpaba los objetos mediante una fuerza invisible a modo de tentáculo, y al explorar los objetos determinaba sus dimensiones y color.
Dentro de la misma escuela, Euclides (300 a.C.) introdujo el concepto de rayo de luz emitido por el ojo, que se propagaba en línea recta hasta alcanzar el objeto.
Pasarían nada mas que trece siglos antes de que el árabe Ajasen Basora (965-1039) opinara que la luz era un proyectil que provenía del Sol, rebotaba en los objetos y de éstos al ojo.
¿Qué es la luz?. Los sabios de todas las épocas han tratado de responder a esta pregunta. Los griegos suponían que la luz emanaba de los objetos, y era algo así como un "espectro" de los mismos, extraordinariamente sutil, que al llegar al ojo del observador le permitía verlo.
De esta manera los griegos y los egipcios se abocaron a la solución de estos problemas sin encontrar respuestas adecuadas. Posteriormente en la Europa del S. XV al XVII, con los avances realizados por la ciencia y la técnica, surgieron muchos matemáticos y filósofos que produjeron importantes trabajos sobre la luz y los fenómenos luminosos.
Es Newton el que formula la primera hipótesis seria sobre la naturaleza de la luz.
2. Modelo corpuscular.
Se la conoce como teoría corpuscular o de la emisión. A finales del siglo XVI, con el uso de lentes e instrumentos ópticos, empezaran a experimentarse los fenómenos luminosos, siendo el holandés Willebrord Snell, en 1620, quién descubrió experimentalmente la ley de la refracción, aunque no fue conocida hasta que, en 1638, René Descartes (1596-1650) publicó su tratado: Óptica. Descartes fue el primer gran defensor de la teoría corpuscular, diciendo que la luz se comportaba como un proyectil que se propulsaba a velocidadinfinita, sin especificar absolutamente nada sobre su naturaleza, pero rechazando que cierta materia fuera de los objetos al ojo.
Explicó claramente la reflexión, pero tuvo alguna dificultad con la refracción.
Según Newton, las fuentes luminosas emiten corpúsculos muy livianos que se desplazan a gran velocidad y en línea recta. Podemos fijar ya la idea de que esta teoría además de concebir la propagación de la luz por medio de corpúsculos, también sienta el principio de que los rayos se desplazan en forma rectilínea.
Como toda teoría física es válida en tanto y en cuanto pueda explicar los fenómenos conocidos hasta el momento, en forma satisfactoria.
Newton explicó que la variación de intensidad de la fuente luminosa es proporcional a la cantidad de corpúsculos que emite en determinado tiempo.
La reflexión de la luz consiste en la incidencia de dichos corpúsculos en forma oblicua en una superficie espejada, de manera que al llegar a ella varía de dirección pero siempre en el mismo medio.
La igualdad del ángulo de incidencia con el de reflexión se debe a la circunstancia de que tanto antes como después de la reflexión los corpúsculos conservan la misma velocidad (debido a que permanece en el mismo medio).
La refracción la resolvió expresando que los corpúsculos que inciden oblicuamente en una superficie de separación de dos medios de distinta densidad son atraídos por la masa del medio más denso y, por lo tanto, aumenta la componente de la velocidad que es la velocidad que es perpendicular a la superficie de separación, razón por la cual los corpúsculos luminosos se acercan a la normal.
El fenómeno de la birrefrigencia del espato de Islandia descubierto por el danés Bartholinus en 1669, quiso ser justificado por Newton suponiendo que los corpúsculos del rayo podían ser rectangulares y sus propiedades variar según su orientación respecto a la dirección de la propagación.
Según lo expresado por Newton, la velocidad de la luz aumentaría en los medios de mayor densidad, lo cual contradice los resultados de los experimentos realizados años después.
Esta explicación, contradictoria con los resultados experimentales sobre la velocidad de la luz en medios más densos que el vacío, obligó al abandono de la teoría corpuscular.
3. Modelo ondulatorio.
Propugnada por Christian Huygens en el año 1678, describe y explica lo que hoy se considera como leyes de reflexión y refracción. Define a la luz como un movimiento ondulatorio semejante al que se produce con el sonido.
Propuso el modelo ondulatorio, en el que se defendía que la luz no era mas que una perturbación ondulatoria, parecida al sonido, y de tipo mecánico pues necesitaba un medio material para propagarse. Supuso tres hipótesis:
todos los puntos de un frente de ondas eran centros emisores de ondas secundarias;
de todo centro emisor se propagaban ondas en todas direcciones del espacio con velocidad distinta en cada medio;
como la luz se propagaba en el vacío y necesitaba un material perfecto sin rozamiento, se supuso que todo el espacio estaba ocupado por éter, que hacía de soporte de las ondas.
hora, como los físicos de la época consideraban que todas las ondas requerían de algún medio que las transportaran en el vacío, para las ondas lumínicas se postula como medio a una materia insustancial e invisible a la cual se le llamó éter.
Justamente la presencia del éter fue el principal medio cuestionador de la teoría ondulatoria. En ello, es necesario equiparar las vibraciones luminosas con las elásticas transversales de los sólidos sin que se transmitan, por lo tanto, vibraciones longitudinales. Aquí es donde se presenta la mayor contradicción en cuanto a la presencia del éter como medio de transporte de ondas, ya que se requeriría que éste reuniera alguna característica sólida pero que a su vez no opusiera resistencia al libre transito de los cuerpos sólidos. (Las ondas transversales sólo se propagan a través de medios sólidos.)
En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente, y tal como ya lo mencionamos, dado al prestigio que alcanzó Newton. Pasó más de un siglo para que fuera tomada en cuenta la Teoría Ondulatoria de la luz. Los experimentos del médico inglés Thomas Young sobre los fenómenos de interferencias luminosas, y los del físico francés Auguste Jean Fresnel sobre la difracción fueron decisivos para que ello ocurriera y se colocara en la tabla de estudios de los físicos sobre la luz, la propuesta realizada en el siglo XVII por Huygens.
Young demostró experimentalmente el hecho paradójico que se daba en la teoría corpuscular de que la suma de dos fuentes luminosas pueden producir menos luminosidad que por separado. En una pantalla negra practica dos minúsculos agujeros muy próximos entre sí: al acercar la pantalla al ojo, la luz de un pequeño y distante foco aparece en forma de anillos alternativamente brillantes y oscuros. ¿Cómo explicar el efecto de ambos agujeros que por separado darían un campo iluminado, y combinados producen sombra en ciertas zonas? Young logra explicar que la alternancia de las franjas por la imagen de las ondas acuáticas. Si las ondas suman sus crestas hallándose en concordancia de fase, la vibración resultante será intensa. Por el contrario, si la cresta de una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio de una materia insustancial e invisible, el éter, al cual se le resucita.
Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por Young y la explicación que presentó sobre el fenómeno de la polarización al transformar el movimiento ondulatorio longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las vibraciones luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa, en transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las adivinanzas dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta doctrina, ya que no es posible que se pueda propagar en el éter la luz por medio de ondas transversales, debido a que éstas sólo se propagan en medios sólidos.
En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero no lo hacen si están polarizados entre sí cuando se encuentran perpendicularmente. Este descubrimiento lo invita a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente en dirección a la propagación y establece que ese algo no puede ser más que la propia vibración luminosa. La conclusión se impone: las vibraciones en la luz no pueden ser longitudinales, como Young lo propusiera, sino perpendiculares a la dirección de propagación, transversales.
Las distintas investigaciones y estudios que se realizaron sobre la naturaleza de la luz, en la época en que nos encontramos de lo que va transcurrido del relato, engendraron aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones astronómicas. Hippolyte Fizeau (1819- 1896) concretó el proyecto en 1849 con un clásico experimento. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del agua. Ello fue de gran interés, ya que iba a servir de criterio entre la teoría corpuscular y la ondulatoria.
La primera, como señalamos, requería que la velocidad fuese mayor en el agua que en el aire; lo contrario exigía, pues, la segunda. En sus experimentos, Foucault logró comprobar, en 1851, que la velocidad de la luz cuando transcurre por el agua es inferior a la que desarrolla cuando transita por el aire. Con ello, la teoría ondulatoria adquiere cierta preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada por Maxwell.
En 1670, por primera vez en la historia, el astrónomo danés Olaf Roemer pudo calcular la velocidad de la luz.
Se hallaba estudiando los eclipses de uno de los satélitesde Júpiter, cuyo período había determinado tiempo atrás. Estaba en condiciones de calcular cuales serían los próximos eclipses. Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que llegaba el instante tan cuidadosamente calculado por él, el eclipse no se producía y que el satélite demoró 996 seg. en desaparecer.
Roemer realizó sus primeros cálculos cuando la tierra se encontraba entre el Sol y Júpiter; pero cuando observó el retraso en el eclipse era el Sol quien se encontraba entre la Tierra y Júpiter.
Por lo tanto la luz debía recorrer una distancia suplementaria de 299.000.000 Km., que es el diámetro de la órbita terrestre, por lo tanto:
Vel. Luz = Diam. Órbita terrestre 299.000.000 Km / Atraso observado 996 seg. = 300.200 Km/seg.
Observaciones posteriores llevaron a la conclusión que el atraso en cuestión era de 1.002 seg. , lo cual da por resultado que la velocidad de la luz sería de 298.300 Km/seg.
Si se consideraba onda, la luz debería atravesar los obstáculos, como el sonido. Como no era así, se precisaba de alguna nueva hipótesis. Aún mas considerando que tampoco podía explicar los fenómenos de polarización. Todos estos problemas, junto al prestigio de Newton que defendía la teoría contraria, relegó a un segundo plano, durante algún tiempo, el modelo ondulatorio.
En 1849, el físico francés Fizeau, logró medir la velocidad de la luz con una experiencia hecha en la tierra.
Envió un rayo de luz, por entre los dientes de una rueda dentada que giraba a gran velocidad, de modo que se reflejara en un espejo y volviera hacia la rueda.
Esta relación de velocidad entre el camino recorrido por la luz en su ida y vuelta y las revoluciones de la rueda dentada, fue la que tomó Fizeau de base para calcular la velocidad de la luz.
Podemos escribir: t = 2d / v
Si la rueda tiene N dientes y N espacios, y da n vueltas por segundo y pasan en 1 seg. 2 Nn dientes y espacios
t= 1 /.2Nn
Cuando no llega mas luz al observador es evidente que estos tiempos son iguales y por lo tanto tenemos:
2d / v = 1 / 2Nn
de donde v = 4 d Nn
Fizeau colocó el espejo a 8.633 m del observador, la rueda tenía 760 dientes y giraba a 12,6 revoluciones por segundo.
Si aplicamos la fórmula obtenida, resultará:
V = 313.274 Km./seg.
León Foucault y casi simultáneamente Fizeau, hallaron en 1850 un método que permite medir la velocidad de la luz en espacios reducidos.
La idea consiste en enviar un haz de luz sobre un espejo giratorio haciéndole atravesar una lámina de vidrio semitransparente y semirreflectora, un espejo fijo devuelve el rayo y atraviesa luego lámina observándose la mancha luminosa en una pantalla.
Con este método se obtuvo que:
V = 295.680 Km./seg.
Luego Foucault junto a concibió la idea de calcular la velocidad de la luz en otro medio que no sea el aire.
Midieron la velocidad de la luz en el agua y obtuvieron un resultado experimental que decidió la controversia a favor de la teoría ondulatoria.
En general todas las mediciones de que se tiene conocimiento obtuvieron resultados entre 298.000 Km/seg y 313.300 Km/seg sin embargo se toma como velocidad de la luz la de 300.000 Km/seg por ser un término medio entre los valores obtenidos y por ser una cifra exacta que facilitan los cálculos.
4. Modelo electromagnetico.
Si bien en la separata 1.03 de este ensayo nos referiremos a ella con una relativa extensión, cuando hablemos del electromagnetismo, aquí podemos señalar sucintamente que fue desarrollada por quien es considerado el más imaginativo de los físicos teóricos del siglo XIX, nos referimos a James Clerk Maxwell (1831-1879). Este físico inglés dio en 1865 a los descubrimientos, que anteriormente había realizado el genial autodidacta Michael Faraday, el andamiaje matemático y logró reunir los fenómenos ópticos y electromagnéticos hasta entonces identificados dentro del marco de una teoría de reconocida hermosura y de acabada estructura. En la descripción que hace de su propuesta, Maxwell propugna que cada cambio del campo eléctrico engendra en su proximidad un campo magnético, e inversamente cada variación del campo magnético origina uno eléctrico.
Dado que las acciones eléctricas se propagan con velocidad finita de punto a punto, se podrán concebir los cambios periódicos - cambios en dirección e intensidad - de un campo eléctrico como una propagación de ondas. Tales ondas eléctricas están necesariamente acompañadas por ondas magnéticas indisolublemente ligadas a ellas. Los dos campos, eléctrico y magnético, periódicamente variables, están constantemente perpendiculares entre sí y a la dirección común de su propagación. Son, pues, ondas transversales semejantes a las de la luz. Por otra parte, las ondas electromagnéticas se transmiten, como se puede deducir de las investigaciones de Weber y Kohlrausch, con la misma velocidad que la luz. De esta doble analogía, y haciendo gala de una espectacular volada especulativa Maxwell termina concluyendo que la luz consiste en una perturbación electromagnética que se propaga en el éter. Ondas eléctricas y ondas luminosas son fenómenos idénticos.
Veinte años más tarde, Heinrich Hertz (1857-1894) comprueba que las ondas hertzianas de origen electromagnético tienen las mismas propiedades que las ondas luminosas, estableciendo con ello, definitivamente, la identidad de ambos fenómenos.
Hertz, en 1888, logró producir ondas por medios exclusivamente eléctricos y, a su vez, demostrar que estas ondas poseen todas las características de la luz visible, con la única diferencia de que las longitudes de sus ondas son manifiestamente mayores. Ello, deja en evidencia que las ondas eléctricas se dejan refractar, reflejar y polarizar, y que su velocidad de propagación es igual a la de la luz. La propuesta de Maxwell quedaba confirmada: ¡la existencia de las ondas electromagnéticas era una realidad inequívoca! Establecido lo anterior, sobre la factibilidad de transmitir oscilaciones eléctricas sin inalámbricas, se abrían las compuertas para que se produjera el desarrollo de una multiplicidad de inventivas que han jugado un rol significativo en la evolución de la naturaleza humana contemporánea.
Pero las investigaciones de Maxwell y Hertz no sólo se limitaron al ámbito de las utilizaciones prácticas, sino que también trajeron con ellas importantes consecuencias teóricas. Todas las radiaciones se revelaron de la misma índole física, diferenciándose solamente en la longitud de onda en la cual se producen. Su escala comienza con las largas ondas hertzianas y, pasando por la luz visible, se llegan a la de los rayos ultravioletas, los rayos X, los radiactivos, y los rayos cósmicos.
Ahora, la teoría electromagnética de Maxwell, pese a su belleza, comporta debilidades, ya que deja sin explicación fenómenos tan evidentes como la absorción o emisión; el fotoeléctrico, y la emisión de luz por cuerpos incandescentes. En consecuencia, pasado el entusiasmo inicial, fue necesario para los físicos, como los hizo Planck en 1900, retomar la teoría corpuscular.
ero la salida al dilema que presentaban las diferentes teorías sobre la naturaleza de la luz, empezó a tomar forma en 1895 en la mente de un estudiante de dieciséis años, Albert Einstein, que en el año 1905, en un ensayo publicado en el prestigioso periódico alemán Anales de la física, abre el camino para eliminar la dicotomía que existía sobre las consideraciones que se hacían sobre la luz al introducir el principio que más tarde se haría famoso como relatividad.
La luz es, de acuerdo a la visión actual, una onda, más precisamente una oscilación electromagnética, que se propaga en el vacío o en un medio transparente, cuya longitud de onda es muy pequeña, unos 6.500 Å para la luz roja y unos 4.500 Å para la luz azul. (1Å = un Angstrom, corresponde a una décima de milimicra, esto es, una diez millonésima de milímetro).
Por otra parte, la luz es una parte insignificante del espectro electromagnético. Más allá del rojo está la radiación infrarroja; con longitudes de ondas aún más largas la zona del infrarrojo lejano, las microondas de radio, y luego toda la gama de las ondas de radio, desde las ondas centimétricas, métricas, decamétricas, hasta las ondas largas de radiocomunicación, con longitudes de cientos de metros y más. Por ejemplo, el dial de amplitud modulada, la llamada onda media, va desde 550 y 1.600 kilociclos por segundo, que corresponde a una longitud de onda de 545 a 188 metros, respectivamente.
En física, se identifica a las ondas por lo que se llama longitud de onda, distancia entre dos máximos y por su frecuencia, número de oscilaciones por segundo, que se cuenta en un punto, y se mide en ciclos por segundo (oscilaciones por segundo). El producto de ambas cantidades es igual a la velocidad de propagación de la onda.
En el otro extremos del espectro electromagnético se encuentra la radiación ultravioleta, luego los rayos X y a longitudes de onda muy diminutas los rayos .
La atmósfera terrestre es transparente sólo en la región óptica, algo en el infrarrojo y en la zona de ondas de radio. Por ello, es que la mayor información que hemos obtenido sobre el universo ha sido a través de la ventana óptica, aunque en las últimas décadas la radioastronomía ha venido jugando un rol sustancial en la entrega de conocimientos sobre el cosmos, proporcionando datos cruciales. Observaciones en el ultravioleta, rayos X y , como así también de parte del infrarrojo, hay que efectuarlas con instrumentos ubicados fuera de la atmósfera de la Tierra. Sin embargo, es posible también obtener resultados en el infrarrojo con instrumentación alojada en observatorios terrestres empotrados a gran altura sobre el nivel del mar o con tecnologíapuesta en aviones o globos que se eleven por sobre la baja atmósfera, que contiene la mayor parte del vapor de agua, que es la principal causa de la absorción atmosférica en el infrarrojo.
5. Longitud de Onda de De Broglie
En 1924, Louis de Broglie, plantea la posibilidad de asociar una función de onda a las partículas. El razonamiento lo hace por criterios de simetría con respecto a la necesidad de asignar propiedades corpusculares a la radiación electromagnética, cuya conveniencia es el resultado de analizar experiencias como por ejemplo los efectos fotoeléctrico y Compton. Una consecuencia inmediata del principio de de Broglie es la interpretación de las leyes de cuantificación utilizadas, por ejemplo, en el modelo atómico de Bohr, como equivalentes a considerar solo aquellas "órbitas" cuya longitud hace que la onda del electrón sea estacionaria.
La hipótesis de de Broglie adquiere fuerza con los resultados del experimento de Davisson y Germer, entre otros, en los que un haz de electrones acelerados produce un patrón de interferencia, resultado típicamente ondulatorio, al ser dispersado por un cristal de Níquel.
Las conclusiones de los experimentos de difracción de haces de partículas, y de interpretación del efecto Compton, así como otras experiencias con radiación electromagnética, hacen que nos cuestionemos sobre la "verdadera" naturaleza de la materia y de las radiaciones, ¿són ondas o partículas?. El principio de Complementariedad de Niels Bohr, nos indica la dualidad de ondas y partículas, siendo el experimento planteado el que determine el modelo a utilizar.
En vista de la necesidad de asociar una función de onda a las partículas, nos induce a plantear la posible interpretación física de la misma. Los conocimientos previos de campos electromagnéticos, unidos a la interpretación corpuscular de la radiación electromagnética, indujeron a Albert Einstein a interpretar el cuadrado de la amplitud del campo eléctrico como una medida de la densidad de fotones de un haz, por tanto, la densidad de partículas de un haz podría asociarse al cuadrado de la amplitud de la función de onda de materia. Sin embargo, el significado de la función de ondas de una única partícula no queda claro. Max Born, sugiere que en ese caso la interpretación es la de una densidad de probabilidad de presencia de la partícula entorno a una posición determinada del espacio y en un instante de tiempo. Queda de esta forma asociada la función de onda a una probabilidad, concepto contrapuesto, en cierta medida, al determinismo asociado a la "posición espacial" de la física clásica.
Haciendo uso, una vez más, de los conocimientos del electromagnetismo intentaremos representar las partículas por medio de ondas armónicas, u ondas planas. Sin embargo la interpretación de Born conduce a una total "deslocalización" espacial para éstas partículas, tendremos por tanto, que introducir paquetes de ondas, es decir superposición de ondas planas, para poder limitar la deslocalización de la partícula a una zona de dimensiones finitas. Ahora bien, matemáticamente, para construir un paquete de ondas de dimensiones espaciales finitas, necesitamos un rango de vectores de ondas distintos. Si el paquete es una representación de la onda de materia concluiremos que cuanto más localizada esté una partícula, más amplio será el espectro de vectores de ondas, es decir de cantidades de movimiento, necesario. Este es el concepto básico contenido en el Principio de Indeterminación de Heisemberg. Éste principio destruye por completo el determinismo clásico ya que impide la definición, con absoluta precisión, de las condiciones iniciales de un sistemafísico, premisa en que se basa la supuesta posibilidad de predecir, de nuevo con absoluta precisión según la física clásica, la evolución futura del sistema.
Luis de Broglie fue quien señaló que las partículas poseían no sólo características de tales sino también de ondas, lo que llevó al señalamiento jocoso de que los electrones se comportaban como partículas los lunes, miércoles y viernes y como ondas los martes y jueves. Ya se conocía, gracias a Einstein, que el fotón podía ser descrito por su masa en reposo y por su frequencia lo que llevó a relacionar el momento del fotón (característica de partícula) con la frecuencia (característica de onda), y a de Broglie a proponer que esta asociación era característica de todas las partículas, no sólo del fotón, lo que se esquematiza en las siguientes ecuaciones
De esta asociación entre partículas y ondas es que surge luego la teoría ondulatoria de Schrödinger, que es el objeto del cual estamos hablando en este capítulo.
Anexos
Espectro electromagnético.- La región correspondiente a la luz es una disminuta ventana en todo el espectro. La atmósfera terrestre sólo es transparente en la región óptica y de ondas de radio. El infrarrojo se puede observar desde gran altura con globos o satélites, al igual que los rayos , rayos X, y la radiación ultravioleta.

la historia de la luz

reflexión regular y especular
Cuando la superficie reflectante es muy lisa ocurre una reflexión de luz llamada especular o regular. Para este caso las leyes de la reflexión son las siguientes:
1. El rayo incidente, el rayo reflejado y la recta normal, deben estar en el mismo plano (mismo medio), con respecto a la superficie de reflexión en el punto de incidencia.
2. El ángulo formado entre el rayo incidente y la recta normal es igual al ángulo que existe entre el rayo reflejado y la recta normal.

θi = θr

Reflexión interna total [editar]
Cuando en la refracción el ángulo de incidencia es mayor que el ángulo crítico ocurre lo que se conoce como reflexión interna total.
Otros tipos de reflexión [editar]
Retrorreflexión [editar]


Principio de funcionamiento de un reflector de esquina
Artículo principal: Retrorreflector
La retrorreflexión es la capacidad que tienen algunas superficies que por su estructura pueden reflejar la luz de vuelta hacia la fuente, sin que importe el ángulo de incidencia original. Este comportamiento se puede observar en un espejo, pero únicamente cuando éste se encuentra perpendicular a la fuente; es decir, cuando el ángulo de incidencia es igual a 90°. Se puede construir un retrorreflector simple colocando tres espejos ordinarios de forma que todos sean perpendiculares entre sí (un reflector esquinero). La imagen que se produce es igual a la imagen producida por un espejo pero invertida. Tal como se observa en la figura, la combinación de las diferentes superficies hace que el haz de luz sea reflejado de vuelta a la fuente.
Si a una superficie se le aplica una pequeña capa de esferas reflectivas es posible obtener una superficie con una capacidad limitada de retrorreflexión. El mismo efecto se puede obtener si se dota a la superficies con una estructura similar a pequeñas pirámides (reflexión esquinera). En ambos casos, la estructura interna de la superficie refleja la luz que incide sobre ella y la envía directamente hacia la fuente. Este tipo de superficies se utilizan para crear las señales de tránsito y las placas de los automóviles; en este caso particular no se desea una retrorreflexión perfecta, pues se quiere que la luz retorne tanto hacia las luces del vehículo que emite el haz de luz como a los ojos de la persona que lo va conduciendo.
Reflexión acoplada compleja
La luz se refleja exactamente en la dirección de la fuente de donde proviene debido a un proceso óptico no lineal. En este tipo de reflexión, no solo se invierte la dirección de la luz; también se invierte el frente de la onda. Un reflector acoplado se puede utilizar para remover aberraciones en un haz de luz, reflejándola y haciéndola pasar de nuevo por el dispositivo óptico que causa
Reflexión de neutrones
Materiales que reflejan neutrones, como por ejemplo el berilio, son utilizados en reactores nucleares y en armas atómicas. En las ciencias físicas y químicas, la reflexión de neutrones es utilizada para determinar la estructura y composición interna de un material. refl HD.htm
Reflexión del sonido
Cuando una onda sonora golpea una superficie plana es reflejada de manera coherente asumiendo que el tamaño de la superficie reflectiva es lo suficientemente larga con relación a la longitud de la onda que incide. Tómese en cuenta que las ondas del sonido audible tienen un amplio rango de frecuencias (de 20 Hz hasta 20000 Hz), al igual que la longitud de onda (que pude variar de 20 mm hasta 17 m). Como resultado, se obtiene que la naturaleza en general, así como el comportamiento del fenómeno de reflexión varía de acuerdo con la estructura y la textura de las superficies de reflexión; por ejemplo, una superficie porosa tiende a absorber grandes cantidades de energía, mientras que una superficie áspera (donde áspero es relativo a la longitud de onda) reflejará las ondas en todas direcciones dispersando la energía de la onda, en lugar de reflejar el sonido en forma coherente. Esto nos lleva al campo de la Acústica arquitectónica, porque la naturaleza de estas reflexiones son críticas para la sensación del espacio en un auditorio.
Reflexión sísmica
Las ondas sísmicas producidas por terremotos o por otras fuentes tales como explosiones, pueden ser reflejadas por capas dentro de la Tierra. El estudio de las ondas sísmicas reflejadas en las profundidades ha dado a los sismólogos la oportunidad de determinar las capas que conforman la estructura de la Tierra. El estudio de las ondas sísmicas reflejadas de poca profundidad se utiliza en sismología por reflexión, que estudia la corteza de la Tierra en general, y en particular para encontrar posibles yacimientos de petróleo o gas natural.
Interpretación cuántica
Todas la interacciones entre fotones y materia se describen como una serie de absorciones y emisiones de fotones. Cuando un fotón que llega golpea una molécula en la superficie de la materia, es absorbido y casi de inmediato vuelto a emitir. El "nuevo" fotón puede emitirse en cualquier dirección; esto causaría una reflexión difusa. [se necesita cita].
La reflexión especular (siguiendo la ley de la reflexión equi-angular de Hero) es un efecto de la mecánica cuántica, explicado como la suma de los caminos más probables tomados por los fotones. La interacción con materia liviana es un tópico de la electrodinámica cuántica, descrita en detalle por Richard Feyman en su libro QED:La Extraña Teoría de la Luz y la Materia.
La energía de un fotón que llega a una molécula puede que concuerde con la energía requerida para cambiar el estado de la molécula, causando una transición en el estado cinético, rotacional, electrónica o vibracional de la energía. Cuando esto ocurre, puede que el fotón absorbido no se reemita o puede que se reemita con pérdida de energía. Estos efectos son conocidos como Raman, Brillouin.