domingo, 10 de mayo de 2015

DIA DE LA MADRE



El Día de la Madre o Día de las Madres es una festividad que se celebra en honor a las madres en todo el mundo, en diferentes fechas del año según el país. Su origen contemporáneo se remitiría al Mother's Friendship Day y las reuniones Mother's Day Meetings organizadas en 1865 o 1868 por Ann Maria Reeves Jarvis, en que las madres se reunían para intercambiar opiniones sobre distintos temas de actualidad.
Este domingo 8 de mayo se celebra el Día de las Madres en todo el mundo. Esta tradicional fecha constituye un motivo para reconocer la amorosa y sacrificada labor que cumplen las mamás de todo el planeta, en bien de sus hijos. Aunque no debería ser sólo en esta fecha, sino todos los días del año.

Ser madre es un don de Dios, un regalo del cielo, que llena los corazones de felicidad y amor por ese pedazo de corazón que llena sus vidas.
A ella le debemos lo que somos, no hay persona más bondadosa y tierna que una madre. Desde que estamos en su vientre, pasamos a ser la razón de su existencia; cuando nacemos y por el resto de nuestras vidas se convierte en nuestra niñera, maestra, lavandera, cocinera, costurera, estilista, mensajera, sicóloga, terapista, consejera, doctora y amiga; es decir está allí para nosotros, para llorar juntos en nuestras desdichas y para reír con nuestras alegrías sin importar el momento, la hora, el día o el sitio, siempre está pendiente de lo que nos pasa, de lo que necesitamos, de lo que queremos y hasta de lo que pensamos. 



Tus brazos siempre se abrían cuando quería un abrazo. 
Tu corazón comprendía cuando necesitaba una amiga. 
Tus ojos tiernos se endurecían cuando me hacía falta una lección.
 Tu fuerza y tu amor me guiaron, y me dieron alas para volar. 



TEORIA CINETICA DE LOS GASES

El comportamiento análogo de todos los gases sugiere que su estructura debe ser la misma. Como que los gases son muy compresibles, sus moléculas deben estar muy separadas y como que los gases tienden a expandirse hasta ocupar el máximo volumen posible, sus moléculas deben hallarse en un movimiento incesante.
DESCRIPCIÓN BÁSICA: La teoría cinética de los gases supone que éstos están constituidos por diminutas partículas (moléculas) en constante movimiento. A igualdad de condiciones, la velocidad promedio con que se mueven las moléculas varía de gas a gas, siendo la regla que cuanto mayor sean las partículas, tanto menor será su velocidad, pero para un gas determinado, la velocidad promedio con que se mueven sus moléculas depende de su temperatura. Si el gas es calentado, sus moléculas reciben energía para acelerar su movimiento.
 
La temperatura no es sino una medida de la energía promedio de las moléculas. Además, estas moléculas son consideradas perfectamente elásticas. Como están en continuo movimiento, chocan continuamente entre sí y rebotan. Ahora bien, si dejamos caer al suelo una pelota de goma, rebotará más de una vez, pero con cada rebote se elevará menos del suelo. En otras palabras, la pelota pierde energía cada vez que da un bote, Pero las moléculas no pierden ninguna energía cuando chocan entre sí y rebotan.
El movimiento molecular explica el comportamiento de los gases cu-relación al aumento de temperatura y cambios de presión. A una cierta temperatura y presión el mismo número de moléculas de cualquier gas ocupa el mismo volumen. Pero si aumenta la temperatura del gas sus moléculas habrán adquirido la energía necesaria para moverse más rápido. Chocan más rápido y rebotan más lejos, en otras palabras, ocupan más espacio, pero si no se les permite ocupar mayor espacio, es decir, si el recipiente es rígido, la presión del gas aumentará.
Esto es comprensible, porque la presión del gas sobre las paredes es simplemente la fuerza ejercida por las moléculas que chocan contra ellas. Si las moléculas aceleran, golpearán las paredes del recipiente con mayor fuerza.

EL PETROLEO: UNA NOBLE SUSTANCIA

Desde el descubrimiento del fuego por nuestros antecesores, la energía de la combustión se ha estado aprovechando de diferentes maneras. La energía que se ibera en la combustión proviene del cambio químico que se produce cuando el combustible se combina con el oxígeno (bajo ciertas condiciones de temperatura) para formar otros compuestos.
Con la invención de la máquina de vapor , el calor obtenido de la combustión del carbón se pudo aprovechar para generar movimiento, Desde ese momento hasta ahora las cosas no han cambiado mucho seguimos utilizando el calor de la combustión para generar movimiento, que luego generara electricidad en una red extensa de distribución de energía, para generar finalmente otros movimientos (lavarropas, licuadora, ventilador), o simplemente calor (tostadora, cafetera, calefactor), en nuestros domicilios alejados de donde se produce la combustión.
Equipo Para Extraer Petroleo
En las centrales térmicas se quema gas o gasoil para calentar el agua y obtener vapor a muy altas temperaturas. El vapor pasa a través de una turbina y, al hacerla girar genera electricidad. Las centrales de combustión de gas son más eficientes, pero tardan alrededor de 24 hs en llegar al régimen de rendimiento adecuado.
Como el consumo diario de energía tiene horas “pico” en las que la red debe recibir más energía, y por otra parte tiene horas de poco consumo, las centrales de gas proveen la energía básica de consumo diario, pero no pueden abastecer las horas de alto consumo. Para ello se encienden las centrales de gasoil, que llegan a un régimen de rendimiento menor que las de gas, pero en pocas horas.
El gas natural se encuentra en algunos yacimientos petrolíferos y el gasoil es un derivado del petróleo. También logramos el movimiento de los automóviles gracias a la energía de la combustión de las naftas, que son otro derivado del petróleo.
En el siglo XVIII, cuando se empezó a utilizar el carbón como fuente de energía para todo tipo de movimiento de máquinas, y en especial la máquina de vapor, se produjo un aumento tan grande en la producción de artículos manufacturados (especialmente en el ramo textil), que se inició lo que se conoce como  “la revolución industrial”.
Más adelante se encontró que el petróleo era mucho más eficaz en la combustión. Poco petróleo era capaz de proveer la misma cantidad de energía que proveía mucho carbón. Esto hizo que el petróleo fuera el combustible más buscado.
El petróleo es material orgánico proveniente de organismos que vivieron en tiempos muy remotos. El material orgánico quedó sepultado por capas de sedimentos de modo que debemos buscarlo en las capas subterráneas. Esas capas pueden incluso estar actualmente cubiertas por el mar. Por eso la prospección petrolífera también incluye las zonas de la plataforma submarina.

LA ENERGIA NUCLEAR Y SUS USOS

En el siglo XIX, los combustibles fósiles -carbón, petróleo y gas- fueron los grandes protagonistas del impulso industrial. Aún en la actualidad, estos recursos proveen casi el 90% de la energíaEMPLEADA en el mundo. La certidumbre de que la existencia de carbón, gas y petróleo era limitada llevó a la búsqueda de fuentes de energía renovables. La gran fuerza liberada por el átomo, trágicamente experimentada por Estados Unidos sobre Hiroshima y Nagasaki en 1945, hizo pensar en el aprovechamiento de la energía nuclear con fines pacíficos.
Fue así cómo, en el marco de la guerra fría, las potencias mundiales, además de incrementar su arsenal atómico, se esforzaron por desarrollar la energía nuclear con fines pacíficos, en especial a través de la construcción de centrales atómicas. Diversos accidentes, como el ocurrido en 1979 en la central nuclear de Three Mile Island, en Estados Unidos, pusieron en evidencia que el uso de la energía atómica era realmente peligroso para la humanidad. Entre otros motivos, porque el almacenamiento definitivo de residuos que permanecen miles de años altamente radioactivos plantea problemas por ahora irresolubles.
LA ENERGÍA ATÓMICA
Radiactividad natural: Descubierta accidentalmente por Henri Becquerel, en 1896, y estudiada en profundidad por Pierre y Marie Curie (fig. izquierda), a quienes se debe el nombre, la radiactividad natural es el fenómeno según el cual determinados materiales, como, por ejemplo, las sales de uranio, emiten radiaciones espontáneamente.
Las radiaciones emitidas son de tres tipos que se denominan alfa, beta y gamma, y tienen las siguientes características:
Las radiaciones alfa son poco penetrantes, ya que son detenidas por una hoja de papel y se desvían en presencia de campos magnéticos y eléctricos intensos. Están formadas por partículas cuya masa es de 4 u y cuya carga, positiva, es igual a dos veces la carga del electrón.
Las radiaciones beta son más penetrantes que las radiaciones alfa, aunque son detenidas por una lámina metálica. En realidad consisten en un flujo de electrones.
Las radiaciones gamma son muy penetrantes para detenerlas se precisa una pared gruesa de plomo o cemento. Son radiaciones electromagnéticas de alta frecuencia y, por lo tanto, muy energéticas.
Fuerzas nucleares
Como ya sabes, entre cargas eléctricas del mismo signo existen fuerzas eléctricas de repulsión. Si esto es así, ¿cómo es posible que los protones permanezcan unidos en un volumen tan reducido como el que tiene el núcleo?
Los protones y los neutrones se mantienen unidos en los núcleos debido a la acción de otro tipo de fuerzas distinto de las fuerzas eléctricas y de las fuerzas gravitatorias. Estas fuerzas, a las que llamaremos fuerzas nucleares, son de atracción y mucho más intensas que las fuerzas eléctricas.
Las fuerzas nucleares son de corto alcance, ya que se anulan cuando las distancias son superiores a unos pocos femtómetros (1 femtómetro =metros). A partir de esta distancia predominarán las fuerzas eléctricas, que tenderán a separar a los protones.
Estabilidad nuclear
Según la proporción entre protones y neutrones de un núcleo, éste es estable o no. Actualmente se conocen más de 300 núcleos estables. La radiactividad tiene su origen en la estabilidad nuclear. Si el núcleo es estable, el elemento no es radiactivo; pero cuando la relación entre los componentes del núcleo no es la adecuada, éste emite partículas y radiaciones electromagnéticas hasta alcanzar la estabilidad.
Se llaman isótopos radiactivos o radioisótopos todos aquellos isótopos que emiten radiaciones. Muchos elementos químicos tienen isótopos radiactivos cuyos núcleos emiten radiaciones y partículas de forma espontánea, a la vez que se transforman en núcleos de otros elementos. Así, por ejemplo, uno de los isótopos del carbono, el carbono- 14, es radiactivo y se transforma, espontáneamente, en un núcleo de nitrógeno.
Es posible conseguir que un núcleo estable se transforme en un radioisótopo. Si a un núcleo estable llega una partícula con suficiente energía, el núcleo puede desestabilizarse y volverse radiactivo para recuperar la estabilidad. Cuando esto sucede, se habla de radiactividad artificial, en oposición a la radiactividad espontánea o radiactividad natural.
Período de semidesintegración
Toda desintegración natural es un proceso aleatorio, es decir, no se puede predecir exactamente cuándo un núcleo determinado va a desintegrarse. Ahora bien, es posible calcular la probabilidad de que un núcleo se desintegre en un tiempo determinado. Con este fin se asocia a cada sustancia radiactiva una magnitud característica llamada período de semidesintegración.
El período de semidesintegración, de una sustancia radiactiva es el tiempo necesario para que se desintegre la mitad de los núcleos presentes en una muestra de dicha sustancia. Es decir, si tenemos una masa m de una sustancia y al cabo de 14 días tenemos la mitad (m/2) de esa sustancia (la otra mitad se ha desintegrado), diremos que su período de semidesintegración es de 14 días.
El período de semidesintegración varía para las distintas sustancias radiactivas desde millones de años a fracciones de segundo Sin embargo, cualquier sustancia radiactiva evoluciona en el tiempo ajustándose a una curva como la que se representa en la figura siguiente:

LA MISION APOLO XI

La agencia espacial NASA, sigla que significa National Aeronautics and Space Administration, fue fundada en 1958 como una organización del gobierno de Estados Unidos. La misión era planificar, dirigir y manejar todas las actividades aeronáuticas y espaciales de Norteamérica, exceptuando las que tuvieran fines militares.
LA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNAEl Presidente John F. Kennedy, el 25 de mayo de 1961, pronunció ante el Congreso de Estados Unidos las siguientes palabras:”Creo que esta nación debe proponerse la meta, antes de que esta década termine, de que el hombre pise la Luna y vuelva a salvo a la Tierra”.
El programa Apolo
Desde ese momento la NASA, tras el desafío impuesto por Kennedy, puso en marcha los programas espaciales Mercury y Gemini. En febrero de 1966, utilizando las investigaciones y experiencias arrojadas por ambas misiones, nace el ambicioso proyecto espacial Apolo. El objetivo: llevar al hombre a la Luna.
En un inicio se barajaban algunas ideas que contemplaban construir una nave que fuese capaz de llevar a la Luna entre dos y cuatro tripulantes. Para lograrlo fue necesario mejorar el cohete lanzador. Los científicos fabricaron los Saturno, de los que se hicieron varios modelos, destacando el Saturno 5.
 LA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNA
Saturno 5
La preparación de la misión espacial Apolo 11 tuvo varios problemas. La hazaña de situar a un hombre sobre la Luna causaba una serie de incógnitas, que por falta de conocimientos e información eran difíciles de disipar. Entre ellas destacan el desconocimiento de los científicos frente a las dificultades que enfrentaría un astronauta al desplazarse sobre la superficie lunar con gravedad menor a la terrestre y los efectos sicológicos que este hecho podría originar. Además existía la posibilidad que los astronautas regresaran portando algún tipo de contaminación, por lo que se dispuso un lugar especial para que cumplieran una cuarentena.
LA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNA


EL BIG BANG

Durante casi todo el transcurso de la historia de la Física y de la Astronomía modernas no hubo fundamentos adecuados, de observación y teóricos, sobre los cuales construir una historia del Universo primitivo. Desde mediados de la década del ‘60, todo esto ha cambiado.
Se ha difundido la aceptación de una teoría sobre el Universo primitivo que los astrónomos suelen llamar “el modelo corriente”. Es muy similar a lo que a veces se denomina la teoría del Big Bang o “Gran explosión”, pero complementada con indicaciones mucho más específicas sobre el contenido del Universo.
Si escuchamos el silbato de un tren que se aleja rápidamente, su silbido nos parecerá más grave que si el tren estuviera quieto. El sonido parece tener una mayor longitud de onda cuando el tren se aleja. Esta situación corresponde al fenómeno señalado primeramente por Johann Doppler en 1842. De la misma manera, la luz de una fuente que se aleja es percibida como si tuviese una longitud mayor: si el color original fuera naranja, la luz se percibiría más rojiza.
Esto se llama “corrimiento hacia el rojo” y es una manifestación del efecto Doppler en las ondas luminosas. Ciertos análisis de la luz proveniente de estrellas y galaxias muestran que, en la inmensa mayoría de los casos, hay un corrimiento hacia el rojo. Esto puede explicarse suponiendo un Universo en expansión en el que cada galaxia se aleja de las otras; como si fuese el resultado de algún género de explosión.
A mediados de los años ‘60, A. Penzias y R. Wilson detectaron ondas de radio de longitudes cercanas a los 10 cm (microondas), procedentes del espacio exterior con una particularidad singular. La intensidad de estas señales era la misma independientemente de la dirección en que se situara la antena. Por lo tanto, no podían ser adjudicadas a ninguna estrella, galaxia o cuerpo estelar en particular. Estas microondas parecían llenar todo el espacio y ser equivalentes a la radiación emitida por un cuerpo negro a 3K. Los astrofísicos teóricos comprendieron que esta “radiación cósmica de fondo de microondas” era compatible con la suposición de que en el pasado el Universo era muy denso y caliente.
En el comienzo hubo una explosión. No como las que conocemos en la Tierra, que parten de un centro definido y se expanden hasta abarcar una parte más o menos grande del aire circundante, sino una explosión que se produjo simultáneamente en todas partes, llenando desde el comienzo todo el espacio y en la que cada partícula de materia se alejó rápidamente de toda otra partícula. “Todo el espacio”, en este contexto, puede significar, o bien la totalidad de un Universo infinito, o         bien la totalidad de un Universo finito que se curva sobre sí mismo como la superficie de una esfera. Ninguna de estas posibilidades es fácil de comprender, pero esto no debe ser un obstáculo; en el Universo primitivo, importa poco que el espacio sea finito o infinito.
 EL ORIGEN DEL UNIVERSO Y DEL HOMBRE  -  TEORÍA DEL BIG BANG  Y DE LA EVOLUCIÓN
 Representación ilustrada del Big Bang.
  TEORÍA DEL BIG BANG  Y DE LA EVOLUCIÓN
Telescopio espacial Hubble (NASA). El corrimiento hacia el rojo en la composición espectral de la luz estelar
puede ser interpretado suponiendo que el Universo está en expansión.
Al cabo de un centésimo de segundo aproximadamente, que es el momento más primitivo del que podemos hablar con cierta seguridad, la temperatura fue de unos cien mii millones (1011) de grados centígrados.
Se trata de un calor mucho mayor aún que el de la estrella más caliente, tan grande, en verdad, que no pueden mantenerse unidos los componentes de la materia ordinaria: moléculas, átomos, ni siquiera núcleos de átomos. En cambio, la materia separada en esta explosión consistía en diversos tipos de las llamadas partículas elementales, que son el objeto de estudio de la moderna Física nuclear de altas energías.
  un radiotelescopio para demostrar la TEORÍA DEL BIG BANG  Y DE LA EVOLUCIÓN
Las microondas que se detectan con igual intensidad en cualquier dirección en que se apunte la antena, no pueden provenir de un cuerpo celeste en particular. Son propias del conjunto del Universo y hacen suponer que en el pasado éste era denso y caliente.

LA VIDA DE LAS ESTRELLAS

Las estrellas tienen una fuente interna de energía. Pero, al igual que todo tipo de combustible, sus reservas son limitadas. A medida que consumen su suministro de energía las estrellas van cambiando y cuando se les acaba, mueren. El tiempo de vida de las estrellas, aunque muy largo comparado con las escalas de tiempo humanas, es, por lo tanto, finito.
A medida que envejecen sufren profundos cambios en sus tamaños, colores y luminosidades, siempre como consecuencia de la disminución de sus reservas. Para aumentar su expectativa de vida, la estrella lucha continuamente contra la fuerza gravitatoria que intenta contraerla. Las distintas etapas evolutivas son sucesiones de contracciones que terminan cuando la estrella comienza a quemar otros combustibles que mantenía en reserva y logra establecer una nueva situación de equilibrio.
Galaxias y estrellas del universo
El factor más importante en el desarrollo de una estrella es su masa inicial. Las estrellas más masivas tienen mayores temperaturas centrales y, en consecuencia, producen energía y consumen combustible a un ritmo creciente. Este hecho fue determinado observacionalmente y se llama relación masa-luminosidad. Podría parecer que las estrellas más masivas, las que tienen más combustible, deberían tener vidas más largas. Pero en realidad sucede exactamente lo contrario. Al igual que con elDINERO o la comida, la duración del combustible estelar depende tanto de la cantidad disponible como del ritmo de consumo. Por ejemplo, la vida del Sol será de 10 mil millones de años. Una estrella de masa 10 veces mayor tiene 10 veces más combustible, pero lo quema a un ritmo tan grande (de acuerdo a la relación masa-luminosidad) que termina de consumirlo en 30 millones de años. En el otro extremo, una estrella de 0,1 M0 brillará durante 3 billones de años antes de morir.
¿Cómo se mide la masa, esa propiedad fundamental que determina completamente la estructura y evolución de una estrella?
El único método de determinación directa de masas es el estudio del movimiento de estrellasBINARIAS. Las estrellas dobles o binarias están muy próximas entre sí y cada estrella gira alrededor del centro de gravedad del par. Aplicando a estos sistemas las leyes de Newton es posible deducir su masa. Sin embargo, la masa de cada estrella del sistema se puede determinar sólo en el caso de que el sistema binario sea ecipsante (es decir cuando una de las estrellas eclipsa a la otra). Estas mediciones, aunque pocas en número, son interesantes porque a partir de ellas se han podido establecer algunos resultados que dieron la clave para comprender la evolución estelar.
Una manera indirecta de determinar la masa estelar es usando la relación masa-luminosidad que pudo ser establecida cuando se desarrolló una de las herramientas más poderosas con que cuentan los astrofísicos, el diagrama R-R que consideraremos a continuación.
Se han observado estrellas muy masivas, hasta 120 M0, pero ¿hay una masa mínima para las estrellas? La respuesta a esta pregunta está todavía en estudio. Las estrellas de menor masa observadas son Ross 614B, de 0,08 M0 y Luyten 726-8B con 0,04 M0, pero la mayoría de las estrellas tienen masas de entre 0,3 y3 M0.
EL DIAGRAMA H-R  
En el año 1911 el astrónomo danés E. Hertzsprung comparó la magnitud absoluta y la luminosidad de estrellas pertenecientes a varios cúmulos. Trazó la curva de variación de uno de estos parámetros en función del otro y observó que los puntos no estaban esparcidos al azar en el diagrama, sino que se distribuían a lo largo de una línea bien definida. En 1913, el astrónomo norteamericano H. Russell llegó a la misma conclusión con datos de otras estrellas. Mostró empíricamente la existencia de una relación entre la luminosidad y temperatura estelares. El diagranta resultante se llama diagrama Hertzprung-Russell (H-R), y está representado en la figura.
La posición de unaa estrella en el diagrama H-R depende de su estado de evolución, y por eso la estructura y la historia de nuestra galaxia se pueden estudiar con este instrumento básico. Así como los botánicos pueden estimar la edad de un árbol a partir de la cantidad de anillos de su tronco, los astrónomos encuentran en el H-R la herramienta que les permite estimar la edad de una estrella.
Diagrama estelar E. Hertzsprung
El diagrama Herzprung-Russell. Cada estrella se representa según su magnitud absoluta, que mide su brillo intrínseco, y su tipo espectral, que refleja su color y su temperatura. Esta última aumenta hacia la izquierda
Un examen en el diagrama H-R de las estrellas con distancias conocidas muestra que no están distribuidas al azar, sino que muchas (entre ellas el Sol) están agrupadas en una banda angosta sobre la diagonal, llamada secuencia principal. Otro grupo de estrellas, la rama de las gigantes, se extiende horizontalmente sobre la secuencia principal. Las estrellas con luminosidades mayores que las gigantes se llaman supergigantes, mientras las estrellas sobre la secuencia principal se llaman enanas.
Estudiando los sistemasBINARIOS se pudo establecer que la luminosidad de una estrella de secuencia principal es proporcional a su masa elevada a la potencia 3,5. Es decir que una estrella 2 veces más masiva que el Sol será 11 veces más 1 luminosa. Esta relación masa-luminosidad es una forma de estimar la masa de una estrella que no pertenece a un sistema binario a partir de su luminosidad, con la condición de que pertenezca a la secuencia principal, lo que se puede determinar, como veremos, con criterios espectroscópicos.
Las cantidades fundamentales que definen este diagrama se pueden medir con distintos parámetros, dándole así distintas formas. El H-R clásico usa dos cantidades: el tipo espectral (que es una determinación cualitativa de la temperatura) y la magnitud absoluta.
El tipo espectral
La única fuente de información sobre la naturaleza de las atmósferas estelares es el análisis de su espectro, del que se pueden hacer dos tipos de aproximaciones: cuantitativas y cualitativas.
Como hemos visto en el capítulo anterior, el análisis cuantitativo pernúte determinar los parámetros físicos que describen la atmósfera estelar. El análisis cualitativo descansa en la simple observación de que los espectros pueden agruparse en familias: esta clasificación espectral considera sólo la apariencia del espectro en el visible. Según ella, las estrellas se ordenan en 7 clases principales (de acuerdo a su temperatura) a las que se designa con las letras O, B, A, F, G, K y M. Para tener en cuenta las diferencias de apariencia entre espectros de la misma clase fue necesario establecer una subdivisión decimal, y entonces el tipo espectral se representa por BO, B1, B2, …, B9, AO, A1…
La clasificación espectral se basa en la presencia o ausencia de líneas de ciertos elementos, lo que no refleja una composición química diferente de las atmósferas sino sólo las diferencias de temperatura atmosférica.
Así el H, que es el elemento más abundante del universo y del que todas las estrellas tienen casi la misma abundancia, predomina en las líneas espectrales de estrellas con temperaturas cercanas a lO.0000K, porque la excitación del átomo de H es máxima a esta temperatura. En las atmósferas de las estrellas más calientes, de tipo espectral o, el H está casi todo ionizado y entonces no produce un espectro significativo de líneas de absorción.
En las atmósferas de estrellas frías (por ejemplo de tipo espectral K) los átomos de H son neutros (no ionizados) y prácticamente todos están en el estado fundamental, no excitado. El espectro de líneas así producido pertenece principalmente al rango ultravioleta, no observable desde la Tierra, mientras que las líneas de H observadas en el visible son muy débiles.
Las estrellas de tipo o que son las más calientes, muestran en sus espectros líneas de He ionizado, pero no líneas de H. Yendo a tipo BO hasta AO la intensidad de las líneas de He también decrece cuando las condiciones de temperatura no son favorables y la de los metales (elementos más pesados que el He) crece para tipos espectrales correspondientes a temperaturas más bajas. En las estrellas más frías, las líneas de metales neutros se hacen más y más intensas y aparecen bandas características de moléculas.
Las clasificación en “gigantes” y “enanas”, tiene sentido sólo para un dado tipo espectral. Si se consideran dos estrellas del mismo tipo espectral, una de la secuencia principal y la otra de la rama de las gigantes, las dos muestran gran diferencia en luminosidad. Como son del mismo tipo espectral, tienen la misma temperatura.
La diferencia de luminosidad se origina entonces en la diferencia de tamaño. Comparemos, por ejemplo, dos estrellas de clase M. La luminosidad de la gigante es 10.000 veces mayor que la de la enana (o de secuencia principal). Por lo tanto su área superficial debe ser 10.000 veces mayor y entonces el radio de la gigante será 100 veces mayor que el de la enana. (La ley de Stefan-Boltzmann dice que:  L es proporcional a R2.T4).
Las estrellas que aparecen por debajo de la secuencia principal son las enanas blancas, cuyos radios son muy pequeños.