sábado, 18 de mayo de 2013

CAMPOS MONTEALEGRE JONATHAN, TAREA #14 ´´ÁLGEBRA DE GRASSMAN´´, 7 DE MAYO 2013

TAREA 14# A -BIVECTOR...

DEMUESTRE QUE








TAREA 14#B ´´TRIÁNGULO DE PASCAL´´



En el triángulo de pascal la primer columna de izquierda a derecha ( la de los 1)  representa a los escalares, y tiene valor absoluto 1 debido a que cualquier número real multiplicado por uno asigna una magnitud, el escalar es que el que cumple el objetivo de la asignación del valor de la magnitud del vector, bivector, trivector....Etc.

La segunda columna (1,2,3,4...Etc, es la de los vectores, y nos dan la idea de que dimensión estamos tratando).Hay que recordar que un vector es la tangente a una curva, por ello si estamos en el caso de un ´´universo´´ dimensión 1 sólo tendremos un vector. En cambio aumentaran si también incrementamos la dimensión de nuestro ´´universo´´.

Los bivectores los encontramos en la siguiente columna (1,3,6....) estas son las tangentes a superficies, por consiguiente, como son tangentes se les representa también como las derivadas parciales, como son para una superficie, por cada dos superficie que ´´entre´´ en las dimensiones de nuestro ´´universo´´ habrá entonces un bivector.

La última columna (1,4...) es la tangente a un volumen, por eso si tenemos un universo dimensión 3 ( sólo voumen) tendremos un sólo trivector....




TAREA 14#C ´´MNR Y EL TRIÁNGULO DE PASCAL´´




Un núcleo puede estar acoplado a más núcleos y el desdoblamiento (si todas las constantes son iguales) viene dado por el triángulo de Pascal:
Núcleos acoplados
Intensidades
Desdoblamiento
0
1
Singlete (s)
1
1
1
Doblete (d)
2
1
2
1
Triplete (t)
3
1
3
3
1
Cuadruplete (q)
4
1
4
6
4
1
Quintuplete (quint)
5
1
5
10
10
5
1
Sextuplete
6
1
6
15
20
15
6
1
Heptuplete



Lo cual se interpreta como


En una MRN  los resultados obtenidos con respecto al número de átomos de hidrógeno acoplados puede ser equiparable a la dimensión que viene dada en el triángulo de Pascal, así cuando no hay un H que este unido al C para acoplaser con otros átomos de H que estén como sustituyentes para el C la dimensión 0 del triangulo de pascal nos dice que no hay algun H enlzado a ese C. Así pues las dimensiones del triángulo de Pascal nos representan el número de H que esten enlazados a un carbono de la cadena alifática ó anillo principal ( que tenga enlace C-C)


Como se sabe, los 1 del lado izquierdo son sólo un escalar, es para asignar la magnitud, los términos que se encuentre después de ese 1 nos representan los espectros absorbidos por dichos núcleos, y el número que tengan es la intensidad con la que se emite  cada ´´linea´´ el espectro .


El triángulo de Pascal es una ayuda que permite conocer, en primera aproximación las intensidades esperadas de las diferentes absorciones en un espectro de resonancia magnética nuclear.
                                          INTENSIDADES                         Nº de   vecinos
                                                     1                                                   0
                                                    1       1                                                      1
                                           1       2       1                                           2
                                       1      3       3       1                                       3
                                 1  :   4       6       4      1                                    4
                            1      5     ,10      10       5      1                               5
                        1      6    15      20      15       6      1                           6
                  :1      7    21     35      35      21       7        1                    7
                                                   etc...                                             etc..
------------------------------------------------------------------------------------------------------------
El Triángulo de Pascal es útil para asignar teóricamente la intensidad en las absorciones de los multipletes en espectros simples.

TAREA 14#D                                                               

               ´´EVALUACIÓN DE LA DERIVADA DE GRASSMAN´´




TAREA 14#E













CAMPOS MONTEALEGRE JONATHAN, TAREA 13#, ´´ABSORCIÓN Y EMISIÓN DE FOTONES´´ 30 DE ABRIL 2013

TAREA 13# A ´´ABSORCIÓN DE UN FOTÓN´´ B´´EMISIÓN DE UN FOTÓN.





Para comprender con detalle cómo funcionan los láseres hay que entender primero cómo se produce la emisión de luz a nivel de los átomos y, por tanto, hay que saber lo que es un átomo. Un átomo se puede considerar como un núcleo alrededor del cual se mueven unos electrones con unas energías bien determinadas. Los electrones no pueden poseer cualquier valor de la energía sino solamente unos valores bien definidos que se identifican como niveles, algo así como los peldaños de una escalera. Ahora bien, un electrón puede pasar de un nivel de energía a otro emitiendo o absorbiendo una unidad de luz (llamada fotón) con una energía igual a la diferencia entre los dos niveles de la transición.
altEl átomo  se puede considerar como un núcleo rodeado por electrones que se mueven con unas energías bien definidas.
Cuando un electrón se encuentra en un nivel de energía elevado, tiende a caer espontáneamente a un nivel de energía inferior con la subsiguiente emisión de luz. Esto es lo que se llama emisión espontánea y es la responsable de la mayor parte de la luz que vemos. Por otro lado, un fotón puede estimular la caída de un electrón a un nivel inferior si tiene una energía igual a la diferencia entre los dos niveles, en ese caso se emitirá un segundo fotón idéntico al que ha inducido la transición. Esta es la llamada emisión estimulada. El proceso contrario, aquel en el que el fotón se absorbe induciendo la subida de un electrón a un nivel de energía superior, se llama absorción estimulada.
El hecho de que la emisión estimulada produzca dos fotones idénticos a partir de un fotón inicial es precisamente lo que permite amplificar la luz y es también responsable de que la luz generada por emisión estimulada sea coherente, es decir que las ondas electro-magnéticas que forman el haz de luz marchen “al paso”. Pero, para que sea posible amplificar la luz por emisión estimulada, es necesario además que en el medio activo haya un número mayor de electrones en el nivel de energía superior que en el inferior; esto es lo que se llama inversión de población. Si por el contrario hubiera más electrones en el nivel inferior que en el superior, entonces predominaría la absorción, y el medio amortiguaría la energía de la luz en vez de amplificarla.
La inversión de población es el “principio vital” de los láseres, y se consigue mediante el bombeo adecuado de ciertos materiales con niveles de energía electrónicos metaestables, es decir, con niveles de energía en los cuales los electrones tardan un tiempo relativamente largo en desexcitarse por emisión espontánea, lo cual favorece precisamente la acumulación de electrones en el estado de energía superior.

alt
La luz láser se amplifica por emisión estimulada: por cada fotíon incidente se producen dos fotones idénticos.



TAREA 13#C       ´´PREMIO NOBEL DE FÍSICA 1997:MANIPULACIÓN DE ÁTOMOS CON FOTONES´´








Ésta redacción nos menciona las contribuciones teóricas que hicieron falta para llevar acabo un proceso de enfriamento de  átomos, siendo manipulados térmicamente  por medio de absorción y emisión de fotones, usando un haz de luz láser, basándose en principios del efecto Doppler...


TAREA 13# D ´´RAYOS-X´´

Wilhelm Konrad von Roentgen
(Wilhelm Konrad o Conrad von Röntgen o Roentgen; Lennep, hoy Remscheid, actual Alemania, 1845 - Munich, 1923) Físico alemán. Estudió en el Instituto Politécnico de Zurich y posteriormente ejerció la docencia en las universidades de Estrasburgo (1876-1879), Giessen (1879-1888), Wurzburgo (1888-1900) y Munich (1900-1920). Sus investigaciones, al margen de su célebre descubrimiento de los rayos X, por el que en 1901 obtuvo el primer Premio Nobel de Física que se concedió, se centraron en diversos campos de la física, como los de la elasticidad, los fenómenos capilares, la absorción del calor y los calores específicos de los gases, y la conducción del calor en los cristales y la piezoelectricidad.

En 1895, mientras se hallaba experimentando con corrientes eléctricas en el seno de un tubo de rayos catódicos –tubo de cristal en el que se ha practicado previamente el vacío– observó que una muestra de platinocianuro de bario colocada cerca del tubo emite luz cuando éste se encuentra en funcionamiento. Para explicar tal fenómeno argumentó que, cuando los rayos catódicos (electrones) impactan con el cristal del tubo, se forma algún tipo de radiación desconocida capaz de desplazarse hasta el producto químico y provocar en él la luminiscencia. Posteriores investigaciones revelaron que el papel, la madera y el aluminio, entre otros materiales, son transparentes a esta forma de radiación; descubrió además que esta radiación velaba las placas fotográficas.
El físico alemán logró determinar que los rayos se propagaban en línea recta, y también demostrar que eran de alta energía, pues ionizaban el aire y no se desviaban por los campos eléctricos y magnéticos. Al no presentar ninguna de las propiedades comunes de la luz, como la reflexión y la refracción, W. C. Roentgen pensó erróneamente que estos rayos no estaban relacionados con ella. En razón, pues, de su extraña naturaleza, denominó a este tipo de radiación rayos X.
Roentgen intuyó inmediatamente la posibilidad de la aplicación del descubrimiento al campo de la Medicina, y llevó a cabo él mismo la primera observación radiográfica de los huesos. El 28 de diciembre de 1895, Roentgen hizo llegar a una revista científica y a los principales físicos de Europa un documento en el que detallaba su descubrimiento, acompañado de una radiografía de su propia mano. Entre los científicos que recibieron la comunicación se encontraba Poincaré, quien, el 24 de enero de 1896, lo mostró en la reunión semanal de la Académie des Sciences de París, y sugirió a su colega y amigoAntoine-Henri Becquerel, que estaba trabajando en las propiedades de las sales de uranio y de otras sustancias que manifestaban fluorescencia, que si los rayos X podían causar fluorescencia, tal vez algunas sustancias fluorescentes pudiesen emitir rayos X.
El descubrimiento de los rayos X supuso una revolución en los campos de la física y la medicina, y buena parte del mundo científico se volcó en su estudio. Su descubrimiento hizo que la radiología fuera contemplada como una rama de la ciencia y señaló el comienzo de la era de la electrónica, además de proveer a la medicina de un nuevo método de diagnóstico.
Por otra parte, los bulos acerca de las extraordinarias propiedades de los rayos X tuvieron un gran impacto social. Algunos ignorantes detractores intentaron vetarlos (decían que con ellos era posible ver a las mujeres desnudas), y los mercachifles se aprovecharon del desconocimiento general, al extremo de que varios fabricantes de ropa interior se enriquecieron notablemente vendiendo prendas anti-rayos X. El absurdo llegó hasta los legisladores; en el estado de Nueva Jersey se prohibió instalar rayos X en los gemelos de teatro para salvaguardar la intimidad de las coristas.
El inventor e industrial norteamericano Thomas Edison, enterado de la existencia del descubrimiento, se puso en contacto con el sabio alemán, insistiendo para comprarle la patente de los rayos X, a lo que Roentgen se negó rotundamente, pues consideraba los beneficios de su invento patrimonio de la humanidad. Aunque se resignó a no conseguir a la patente, Edison instaló en la Exposición Eléctrica de Nueva York de 1896 una atracción en la que por unas monedas se podía meter la mano frente a un aparato de rayos X que proyectaba los huesos sobre una pantalla fluorescente. El encargado de la atracción, después de unas semanas de trabajo, perdió la piel de la mano por quemaduras profundas y falleció a causa de la subsiguiente infección; fue la primera víctima de la historia de la radiación.

FUENTES:
http://www.biografiasyvidas.com/biografia/r/roentgen.htm


13#E ´´EFECTO COMPTON´´


          Cuando se analiza la radiación electromagnética que ha pasado por una región en la que 
hay electrones libres, se observa que además de la radiación incidente, hay otra de 
frecuencia menor. La frecuencia o la longitud de onda de la radiación dispersada depende 
de la dirección de la dispersión. 
Sea λ la longitud de onda de la radiación incidente, y λ’ la longitud de onda de la radiación 
dispersada. Compton encontró que la diferencia entre ambas longitudes de onda estaba 
determinada únicamente por el ángulo θ de dispersión, del siguiente modo


Se explica el efecto Compton en términos de la interacción de la radiación electromagnética 
con electrones libres, que suponemos inicialmente en reposo en el sistema de referencia del 
observador.




En el efecto fotoeléctrico solamente hemos considerado que el fotón tiene una energía E=hf 
. Ahora bien, un fotón también tiene un momento lineal p=E/c. 
Esta relación no es nueva, sino que surge al plantear las ecuaciones que describen las ondas 
electromagnéticas. La radiación electromagnética tiene momento y energía. Cuando 
analicemos cualquier proceso en el que la radiación electromagnética interactúa con las 
partículas cargadas debemos de aplicar las leyes de conservación de la energía y del 
momento lineal. 
En el caso del efecto fotoeléctrico, no se aplicó la ley de conservación del momento lineal 
por que el electrón estaba ligado a un átomo, a una molécula o a un sólido, la energía y el 
momento absorbidos están compartidos por el electrón y el átomo, la molécula o el sólido 
con los que está ligado.  La fórmula del efecto Compton  se obtine a partir del estudio de un                                    choque elástico entre un fotón y un electrón inicialmente en reposo.




Llegamos entonces a la conclusión de que podemos explicar la dispersión de la radiación 
electromagnética por los electrones libres como una colisión elástica entre un fotón y un 
electrón en reposo en el sistema de referencia del observador. A partir de las ecuaciones de 
conservación del momento lineal y de la energía, se  llega a la ecuación que  relaciona 
la longitud de onda de la radiación incidente λ con la longitud de onda de la radiación 
dispersada λ’ y con el ángulo de dispersión θ .









FUENTES :

http://depa.fquim.unam.mx/amyd/archivero/ElefectoCompton_16340.pdf

http://www.clpu.es/en/science

jueves, 16 de mayo de 2013

JONATHAN CAMPOS MONTEALEGRE, TAREA 12# ´´ÍMPETU-ENERGÍA´´´, 23 DE ABRIL 2013.



TAREA 12#B                                                                                   ´´EXPRESIÓN DE LA ENERGÍA EN TÉRMINO DEL ÍMPETU´´



TAREA 12# C ´´EXPRESIÓN DE LA ENERGÍA EN TÉRMINOS DE LA VELOCIDAD´´





CAMPOS MONTEALEGRE JONATHAN, TEREA 11# ´´ENERGÍA ES RELATIVA´´ 16 DE ABRIL 2013

TAREA 11# A           ´´La 1ra Ley de la Termodinámica y Hermann von Helmholtz´´



1RA LEY DE LA TD.

La "primera ley de la termodinámica" o "principio de conservación" para el carácter conservador de la energía y de los estados que durante cualquier sistema con un proceso en curso, la variación de la energía total es igual a la suma de los variaciones de todos los tipos de energía que definen el:


Si el sistema está aislado de la variación de la energía total, obviamente siempre cero!

Por supuesto, cuando el sistema estudiado (el recipiente y su contenido) se encuentra en el mismo repositorio que el observador, sigue siendo para nosotros la variación del término de energía interna:


o términos diferenciales:

   
 De la 1ra Ley de la TD. se desprenden ideas tan importantes, cómo la de la degradación de la energía por la muerte térmica, esbozada por Sadi Carnot, bajo la idea de que si toda la energía se conserva, pero no toda la energía térmica puede ser transformada en energía mecánica... De ahí viene el concepto de ´´la muerte térmica del universo´´ l

La idea de la "muerte térmica del universo" es el resultado de la revisión de la aplicación de las dos primeras leyes de la termodinámica a la evolución del universo. En particular, William Thomson propuso la idea nueva, basada en las experiencias recientes de la termodinámica, el "calor no es una sustancia, sino una forma dinámica de efecto mecánico. Vemos que tiene que haber una equivalencia entre el trabajo y el calor, ya que entre la causa y el efecto "


William Thomson, Lord Kelvin, el origen de la idea de la muerte térmica del universo en 1852. En 1852, Thomson publicó "fue tendencia universal en la Naturaleza a la disipación de la energía mecánica" (En una tendencia universal de la naturaleza a la disipación de la energía mecánica) en la que presentó los fundamentos de la segunda ley de termodinámica resumidos por la idea de que el movimiento mecánico y la energía utilizada para crear este movimiento tenderá a disiparse o debilitar, naturalmente.
Las ideas básicas de este artículo, en relación con su aplicación a la edad del Sol y de la dinámica del universo, inspirada artículos William Rankine y Hermann von Helmholtz. Se dijo que los tres mantuvieron un intercambio de ideas sobre este tema. En 1862, Thomson publicó "En la era del calor del sol" (en la edad del calor del Sol), un artículo en el que reafirmó su creencia fundamental en la indestructibilidad de la energía (primera ley) y la disipación universales (la segunda ley) que conduce a la difusión del calor, el cese del movimiento, y el agotamiento de la energía potencial en el mundo material, al aclarar su punto de vista de las consecuencias para el mundo en su conjunto. En un párrafo clave, Thomson escribió:
El resultado sería inevitablemente un estado de reposo universal y la muerte, si el universo es finito y obligados a obedecer las leyes vigentes. Pero es imposible concebir un límite a la expansión de la materia en el universo, y por lo tanto la ciencia es más hacia una progresión sin fin en un espacio sin fin, las acciones que causan la transformación de la energía potencial palpable en movimiento, y por lo tanto calor, en lugar de un mecanismo simple finito que funcionaría como un reloj y no parar nunca.
En los años siguientes, así como el artículo 1862 del 1865, Helmholtz y Rankine tanto atribuye la idea de Thomson, pero tenía una lectura completa y vistas publicación afirmando que Thomson argumentó que el mundo terminaría en una "muerte térmica" (Helmholtz), que se corresponde con el "fin de todos los fenómenos físicos" (Rankine) 


Hermann von Helmholtz


(Hermann Ludwig Ferdinand von Helmholtz; Potsdam, actual Alemania, 1821 - Charlottenburgo, id., 1894) Fisiólogo y físico alemán. Se doctoró en medicina en 1842 por el Instituto Friedrich Wilhelm de Berlín. Ejerció como profesor de fisiología en Königsberg (1849-1855), Bonn (1855-1858) y Heidelberg (1858-1871), y de física en Berlín (1871-1888); finalmente fue nombrado director del Instituto Físico-Técnico de Charlottenburgo. De sus muchas aportaciones a la ciencia destacan el invento del oftalmoscopio, instrumento diseñado para inspeccionar el interior del ojo, y del oftalmómetro, para medir su curvatura. Descubrió que el interior del oído resuena para ciertas frecuencias y analizó los sonidos complejos en sus componentes armónicos. Mostró los mecanismos de los sentidos y midió la velocidad de los impulsos nerviosos. Estudió además la actividad muscular y fue el primero en formular matemáticamente el principio de conservación de la energía.
Hijo de un profesor de segunda enseñanza de su ciudad natal, Hermann von Helmholtz realizó los primeros estudios bajo la guía de su padre; se matriculó luego en la Facultad de Medicina de Berlín y se dedicó a investigaciones de fisiología con el célebre fisiólogo G. Müller. Obtenida la graduación de doctor, entre 1843 y 1848 fue médico militar. Finalmente, en esta última fecha inició su larga actividad docente como profesor de Anatomía de la Academia de Artes de Berlín; luego fue profesor extraordinario de Fisiología en Königsberg (1849), catedrático de Anatomía y Fisiología en Bonn (1855) y de Fisiología en Heidelberg.
Su primer trabajo destacado fue la formulación exacta del principio de la conservación de la energía, descubierto pero presentado con escaso rigor por Julius von Mayer; acerca de esta cuestión escribió Helmholtz su primera obra notable, Sobre la conservación de la fuerza. Con esta célebre memoria, leída en 1847 ante la Sociedad Berlinesa de Física, Helmholtz se sitúa, junto con Mayer, James Prescott Joulelord Kelvin y otros científicos, entre los grandes fundadores del principio de la conservación de la energía, que fue el punto cardinal de la física del siglo XIX. Helmholtz tuvo especialmente el mérito de extenderla también a los fenómenos eléctricos y magnéticos.
Sin embargo, poco después se dedicó a los temas fisiológicos; estudió singularmente algunos puntos físico-fisiológicos y estableció la teoría de las sensaciones a la cual se halla vinculado su nombre de manera particular. Alcanzaron notable fama sobre todo el Manual de óptica fisiológica, las Investigaciones sobre las sensaciones sonoras y la Teoría fisiológica de la música, textos aparecidos, junto con otras obras de menor importancia, entre 1863 y 1867.
Dividido en tres partes, que fueron publicadas respectivamente en 1856, 1860 y 1866, el Manual de óptica fisiológica incluye muchísimas investigaciones personales del autor que fueron otras tantas contribuciones al conocimiento de la anatomía del ojo, a la óptica psicológica, a la dióptrica ocular y a las sensaciones y percepciones visuales, que ya confinan con el dominio de la psicología; se describe asimismo el oftalmómetro y el oftalmoscopio de su invención. Por la agudeza y genialidad de las observaciones y de los experimentos personales y por la exactitud de la exposición, es una obra clásica dentro de su especialidad.
El tratado Investigaciones sobre las sensaciones sonoras, publicado en 1863, señaló el comienzo de una nueva historia de la acústica. El autor se pregunta ante todo cuál es la esencia de la sensación sonora, y descubre que es originada por los movimientos periódicos del aire; investiga después qué es lo que diferencia los tonos musicales entre sí y establece la existencia de tres características: intensidad, altura y timbre o cualidad. Respecto a esta última característica y de un modo particular, Helmholtz admite que es debida a la existencia de "tonos parciales superiores", que hoy llamamos "armónicos" y que se superponen a los tonos fundamentales; su número y su intensidad caracterizan el timbre de un sonido. A este propósito el autor realizó numerosos experimentos acerca del timbre de las vocales y construyó aquellos famosos resonadores que consistían en esferas huecas de distinto diámetro, cada una de las cuales entra en vibración por resonancia cuando se produce junto a ellos un sonido de período igual al suyo propio.
Helmholtz se ocupó también en esta obra de los batimientos, que estudió experimentalmente mediante una sirena polifónica de construcción propia, y estableció que cuando el número de los batimientos, dada la diferencia de la frecuencia, para dos tonos sencillos, es menor de cierto número (132), se obtiene, en general, disonancia. Ésta, además, alcanza su punto máximo cuando los batimientos son treinta y tres por segundo. Las cosas se complican cuando los tonos van acompañados de tonos parciales superiores, porque entonces es necesario considerar también los batimientos entre aquéllos y éstos y los tonos fundamentales. Por medio de estas investigaciones Helmholtz llegó a una explicación de la armonía por la cual, en la música, los efectos más agradables son proporcionados por las relaciones más sencillas entre las vibraciones; y con esto contestaba a una de las cuestiones más discutidas desde Pitágoras en adelante.
También su Teoría fisiológica de la música, cuya primera edición se publicó en 1863, es una obra verdaderamente sólida. Helmholtz redujo en ella a un cuerpo homogéneo y magníficamente ordenado todo un conjunto de nociones y de hechos ya descubiertos por músicos eminentes, físicos y fisiólogos ilustres (como Rameau en lo que respecta a las relaciones de los sonidos, o los trabajos de Sauveur sobre la disonancia y de Corti acerca del órgano auditivo, entre otros), codificándolos y explicándolos tanto matemática como mecánicamente, y añadiendo numerosas contribuciones personales.
Uno de los problemas más agudamente tratados en esta obra es el de la resonancia, ya en sí misma, como fenómeno físico, ya en relación con el oído, como hecho fisiológico. Estudió asimismo la causa física de los diferentes timbres, y estableció que el timbre de un sonido complejo depende solamente del número y de la intensidad de los sonidos parciales, pero no de su diferencia de fase, con tal que se trate de sonidos musicales no asociados a ruidos. Koenig presentó objeciones a esta conclusión algo arriesgada, pero concluyó que las diferencias de timbre debidas a las diferencias de fase, si existen, no son fáciles de descubrir. Confirmó también que la ley de parentesco entre los sonidos es una cuestión de consonancia o disonancia.
                                                       

TAREA 11#B ´´PRINCIPIO DE CONSERVACIÓN DEL MOMENTO  LINEAL Y MOMENTO ANGULAR (CANTIDAD DE MOVIMIENTO)´´.

Ley de conservación del momentum lineal
Momentum e impulso
Cuando un cuerpo está en reposo resulta relativamente sencillo asociar su inercia, es decir, la resistencia al cambio de estado de reposo, solamente a la masa. En efecto, es la masa la magnitud que nos indica en gran medida la magnitud de la fuerza que debemos aplicar para sacara  aun cuerpo en reposo. Sin embargo, cuando un cuerpo está en movimiento, esta resistencia a cambiar de estado de movimiento, aumentando, disminuyendo o cambiando la dirección de la velocidad, dependerá no sólo de la masa sino que además de la velocidad con que se mueve el cuerpo.
Por ejemplo, una pelota de tenis de 200 gramos que viaja a 10 m/s es fácil de detener con una raqueta, con la mano o con el cuerpo. Pero si esa misma pelota se mueve a 800 m/s (la velocidad de una bala) nos provocaría serios daños al intentar detenerla con el cuerpo. Lo mismo ocurre con los frenos de los vehículos motorizados; ya que para detener un auto compacto (de 950 kg) a 90 km/ se requiere una fuerza mucho menor que la que se debe aplicar para detener aun camión que viaje a la misma velocidad pero cuya masa sea de 8000 kg.
Resumiendo, la inercia de un cuerpo en movimiento depende tanto de su velocidad como de su masa, es decir, depende una magnitud denominada momentum o cantidad de movimiento lineal.
El momentum o cantidad de movimiento lineal, (p) corresponde al producto de la masa (m) y la velocidad (v) de un cuerpo, es decir, p = mv.
fórmula
Las unidades de esta magnitud son las siguientes:
P = m∙V à [kg∙m/s]
Cuando sobre un cuerpo actúa una fuerza neta de tal forma que produce un cambio en el momentum, decimos que la fuerza aplicó un impulso sobre el cuerpo. Por ejemplo:
fórmula2
En este caso se observa que la acción de la fuerza neta produjo una variación (en este caso aumento) de la veloicidad y con ello una variacipón (aumento) del momebntum lineal. Este efecto de la fuerza sobre el momentum del cuerpo, es decir, el impulso, depende por una parte de la intensidad de la fuerza y por otra parte, del tiempo t durante el cual actúa la fuerza. Es decir, podemos definir operacionalmente el impulso I como:
Cuyas unidades son:
I = FN∙t
I = FN∙t  à [N∙s]
Y fácilmente se puede demostrar que las unidades N∙s son equivalentes con las del momentum, es decir kg∙m/s. Del mismo modo, se puede demostrar que el impulso es equivalente al cambio de momentum experimentado por el cuerpo:
I = FN∙t
I = m∙V – m∙V0
I = p – p0
I = Dp
Una observación importante, es el carácter vectorial de el momentum y el impulso, característica muy importante al momento de analizar el principio de conservación del momentum y su aplicación.


Conservación del momentum
Si hay dos cuerpos, el momentum total de ellos será p = p1 + p2. Ahora bien, la importancia de este concepto radica en lo siguiente: si el sistema de cuerpos está aislado, es decir, no actúan fuerzas externas sobre él, p es una cantidad que se conserva. Por ejemplo, si dos bolitas o carritos se mueven sobre una misma recta, en condiciones en que el roce pueda ser despreciado, el momentum total del sistema (p) permanece constante en el tiempo, pase lo que pase. Es decir, si las bolitas o carritos chocan, p será exactamente el mismo antes, durante y después del choque. Esta es la ley de conservación del momentum lineal.



Principio de conservación del momento angular

En la página anterior, demostramos que el momento de las fuerzas que actúan sobre un sólido rígido hace cambiar el momento angular con el tiempo

El principio de conservación del momento angular afirma que si el momento de las fuerzas exteriores es cero (lo que no implica que las fuerzas exteriores sean cero, que sea un sistema aislado), el momento angular total se conserva, es decir, permanece constante.


Problema

Para practicar el principio de conservación del momento angular, se resuelven problemas semejantes al del enunciado siguiente.
solido_07.gif (2979 bytes)
Una bala de 0.2 kg y velocidad horizontal de 120 m/s, choca contra un pequeño diente situado en la periferia de un volante de masa 1.5 kg y 12 cm de radio, empotrándose en el mismo. Suponiendo que la bala es una masa puntual, que el volante es un disco macizo y homogéneo (no se tiene en cuenta el pequeño diente). Calcular:
  • La velocidad angular adquirida por el sistema disco - bala después del choque
  • La pérdida de energía resultante

Planteamiento

Este problema es de aplicación del principio de conservación del momento angular por que las fuerzas exteriores actúan en el eje del disco que permanece fijo, el disco solamente puede girar en torno a su eje no puede trasladarse. El momento de dichas fuerzas respecto del centro del disco es cero, por lo que el momento angular respecto del centro del disco es constante.
solido4.gif (1888 bytes)
El momento angular inicial es el momento angular de la partícula
Li=mdvcosqEl momento angular final es el del disco con la partícula empotrada a una distancia d del centro del disco, girando con velocidad angular w . El momento angular final es el producto del momento de inercia (del disco más la partícula) por la velocidad angular de rotación.

Aplicando el principio de conservación del momento angular, calculamos la velocidad angular w de rotación del sistema formado por el disco y la partícula empotrada en él.
La energía perdida en la colisión es igual a la diferencia entre la energía final de rotación del sistema formado por el disco y la partícula empotrada en él, y la energía cinética de la partícula.

Completar una tabla como la siguiente y despejar la velocidad angular de rotación del disco.
Masa de la bala m
Velocidad de la bala v
Angulo de disparo q
Distancia del blanco al eje del disco d
Masa del disco M
Radio del disco R
Velocidad angular de rotación w












TAREA 11# C


domingo, 31 de marzo de 2013

CAMPOS MONTEALEGRE JONATHAN , 19 DE MARZO 2013, TAREA 8#


CAMPOS   MONTEALEGRE JONATHAN ,  19    DE MARZO 2013, 

TAREA 8#

TAREA 8 # A. 





TEREA 8# B: Refraccion de la luz.Índice de refracción. Ley de Snell (1580-1626).

Las leyes de la refracción
Al igual que las leyes de la reflexión, las de la refracción poseen un fundamento experimental. Junto con los conceptos de rayo incidente, normal y ángulo de incidencia, es necesario considerar ahora el rayo refractado y el ángulo de refracción o ángulo que forma la normal y el rayo refractado.
Sean 1 y 2 dos medios transparentes en contacto que son atravesados por un rayo luminoso en el sentido de 1 a 2 y e1 y e2 los ángulos de incidencia y refracción respectivamente. Las leyes que rigen el fenómeno de la refracción pueden, entonces, expresarse en la forma:
1.ª Ley. El rayo incidente, la normal y el rayo refractado se encuentran en el mismo plano.
2.ª Ley. (ley de Snell) Los senos de los ángulos de incidencia e1 y de refracción e2 son directamente proporcionales a las velocidades de propagación v1 y v2 de la luz en los respectivos medios.


  
  
Recordando que índice de refracción y velocidad son inversamente proporcionales la segunda ley de la refracción se puede escribir en función de los índices de refracción en la forma:
o en otros términos:
n1 · sen e1 = n2 · sen e2 = cte 
Esto indica que el producto del seno del ángulo e por el índice de refracción del medio correspondiente es una cantidad constante y, por tanto, los valores de n y sen e para un mismo medio son inversamente proporcionales.
Debido a que la función trigonométrica seno es creciente para ángulos menores de 90º, de la última ecuación se deduce que si el índice de refracción ni del primer medio es mayor que el del segundo n2, el ángulo de refracción e2 es mayor que el de incidencia e1 y, por tanto, el rayo refractado se aleja de la normal.
Por el contrario, si el índice de refracción n1 del primer medio es menor que el del segundo n2, el ángulo de refracción e2 es menor que el de incidencia el y el rayo refractado se acerca a la normal.


El índice de refracción es una medida que determina la reducción de la velocidad de la luz al propagarse por un medio homogéneo. De forma más precisa, el índice de refracción es el cambio de la fase por unidad de longitud, esto es, el número de onda en el medio (k) será  nveces más grande que el número de onda en el vacío (k_0).
El índice de refracción (n) está definido como el cociente de la velocidad (c) de un fenómeno ondulatorio como luz o sonido en el de un medio de referencia respecto a la velocidad de fase (vp) en dicho medio:
n = \frac{c}{v_{\mathrm {p}}}.

Generalmente se utiliza la velocidad de la luz (c) en el vacío como medio de referencia para cualquier materia, aunque durante la historia se han utilizado otras referencias, como la velocidad de la luz en el aire. En el caso de la luz

TAREA 8# C: Dispersión de la luz

Conocemos como luz blanca a la que proviene del Sol. En algunas circunstancias, esa luz se descompone en varias franjas de colores llamadas arco iris. En realidad la luz blanca está formada por toda una gama de longitudes de onda, cada una correspondiente a un color, que van desde el rojo hasta el violeta.
Como el índice de refracción de un material depende de la longitud de onda de la radiación incidente, si un rayo de luz blanca incide sobre un prisma óptico, cada radiación simple se refracta con un ángulo diferente. La dispersión de la luz consiste en la separación de la luz en sus colores componentes por efecto de la refracción.Así, las distintas radiaciones que componen la luz blanca emergen separadas del prisma formando una sucesión continua de colores que denominamos espectro de la luz blanca.


TAREA 8 # D : INDEPENDENCIA  DE RAPIDEZ DE LA LUZ  DE SU MARCO DE REFERENCIA 

 LA RAPIDEZ DE LA LUZ ES  INDEPENDIENTE DEL MARCO DE REFERENCIA
PORQUE SU RAPIDEZ ESCALAR ES ABSOLUTA
POR AXIOMA DE MINKOWSKI                                   M * CML=0





CORRECCIÓN (ME FALTÓ COMPLETAR)







CORRECCIÓN ( ACLARACIÓN DE QUE VELOCIDAD DE LA LUZ NO ES LO MISMO QUE SU SIMPLE RAPIDEZ)

TEREA 8# B: Refraccion de la luz.Índice de refracción. Ley de Snell (1580-1626).

Las leyes de la refracción
Al igual que las leyes de la reflexión, las de la refracción poseen un fundamento experimental. Junto con los conceptos de rayo incidente, normal y ángulo de incidencia, es necesario considerar ahora el rayo refractado y el ángulo de refracción o ángulo que forma la normal y el rayo refractado.
Sean 1 y 2 dos medios transparentes en contacto que son atravesados por un rayo luminoso en el sentido de 1 a 2 y e1 y e2 los ángulos de incidencia y refracción respectivamente. Las leyes que rigen el fenómeno de la refracción pueden, entonces, expresarse en la forma:
1.ª Ley. El rayo incidente, la normal y el rayo refractado se encuentran en el mismo plano.
2.ª Ley. (ley de Snell) Los senos de los ángulos de incidencia e1 y de refracción e2 son directamente proporcionales a las velocidades de propagación v1 y v2 de la luz en los respectivos medios.

  
  
Recordando que índice de refracción y velocidad son inversamente proporcionales la segunda ley de la refracción se puede escribir en función de los índices de refracción en la forma:
o en otros términos:
n1 · sen e1 = n2 · sen e2 = cte 
Esto indica que el producto del seno del ángulo e por el índice de refracción del medio correspondiente es una cantidad constante y, por tanto, los valores de n y sen e para un mismo medio son inversamente proporcionales.
Debido a que la función trigonométrica seno es creciente para ángulos menores de 90º, de la última ecuación se deduce que si el índice de refracción ni del primer medio es mayor que el del segundo n2, el ángulo de refracción e2 es mayor que el de incidencia e1 y, por tanto, el rayo refractado se aleja de la normal.
Por el contrario, si el índice de refracción n1 del primer medio es menor que el del segundo n2, el ángulo de refracción e2 es menor que el de incidencia el y el rayo refractado se acerca a la normal.


El índice de refracción es una medida que determina la reducción de la RAPIDEZ de la luz al propagarse por un medio homogéneo. De forma más precisa, el índice de refracción es el cambio de la fase por unidad de longitud, esto es, el número de onda en el medio (k) será  nveces más grande que el número de onda en el vacío (k_0).
El índice de refracción (n) está definido como el cociente de la RAPIEDEZ (c) de un fenómeno ondulatorio como luz o sonido en el de un medio de referencia respecto a la velocidad de fase (vp) en dicho medio:


Generalmente se utiliza la velocidad de la luz (c) en el vacío como medio de referencia para cualquier materia, aunque durante la historia se han utilizado otras referencias, como la velocidad de la luz en el aire. En el caso de la luz





FUENTES: