Medir el brillo de la luz que llega de una estrella es tan fácil como usar el fotómetro de un fotógrafo.el fotómetro transforma la energía luminosa en una minúscula corriente eléctrica proporcional.Se lee la corriente en la escala y ya está.
Pero entonces no sabes si tienes una estrella muy brillante lejana,o muy poco brillante pero cercana.
Lo que interesa es saber el brillo intrínseco,o sea,el que tiene la estrella cuando estás en su superficie.
En general,eso solo es posible sambiendo la distancia a que se encuentra la estrella.Para ello,hay varios métodos,el del paralaje para estrellas cercanas, el interferométrico o el de las cefeidas.Bueno, ahora uniendo radiotelescopios en distintos continentes (son relojes atómicos para sincronizarlos) lo cierto es que el método del paralaje (ver cuanto mas o menos inclinacion tiene la dirección hacia la estrella,vista de diferentes puntos) es muy preciso.
Al final, a partie del brillo medido en la Tierra y sabiendo la distancia a la estrella,aplicando una simple fórmula se sabe el brillo real.Pero lo difícil,es medir la distancia, y las distancias a las estrellas muchas veces tienen un 20% de margen de error.
El brillo de las estrellas se mide por algo llamado MAGNITUD...y viene de los griegos en el siglo 2 antes de Cristo, casi sin cambios, En esa época ya se pusieron 6 magnitudes para las estrellas visibles: Magnitud 1...las tan brillantes que pueden verse cuando el Sol todavia no se terminó de ocultar, como Sirio o Procyon... y Magnitud 6..las que solo distingue "una persona de buena vista en la oscuridad total". Lógicamente, eso se tuvo que ampliar con la llegada del telescopio... porque ahora se veian estrellas que a simple vista no se distinguen. Y actualmente con telescopios potentes se ven hasta de magnitudes mayores a 20. La medición hasta el siglo XIX, era por "comparación a ojo"... luego se empezaron a hacer comparaciones con fotografias: a mayor tiempo de exposición para que se vea... mayor magnitud. Y actualmente, como todo va a una pantalla digital, es más fácil obtener valores exactos de brillo y magnitud.
El principal cambio desde la época de los griegos...es que ahora se diferencia entre "Brillo aparente" y "Brillo real"... porque, vamos a un ejemplo, el Sol, evidentemente es la cosa de mayor "Brillo aparente" que tenemos a la vista... pero hay galaxias que a pesar de tener un brillo aparente muy pobre, dada la enorme distancia, tienen un brillo real miles de veces mayor al del Sol. Asi que, cuando se habla de la "Magnitud" de una estrella nos referimos a su BRILLO... y debe diferenciarse entre "Magnitud real" y "Magnitud aparente".
Como ejemplo, Sirio, es la estrella visible más brillante... con una MAGNITUD APARENTE de - 1,44,.. pero es tan brillante dado su tamaño y cercania... porque su MAGNITUD REAL es de un pobre 1,42
Los astrónomos miden el brillo de las estrellas en magnitudes. Cuanto más baja sea, más brillará la estrella. La mayoría de las que vemos tienen una magnitud de entre 1 y 6, y las más tenues visibles con telescopios, magnitud 22. Las estrellas muy brillantes tienen magnitudes negativas, como Sirius (-1,44).
os astrónomos miden el brillo de las estrellas en magnitudes. Cuanto más baja sea, más brillará la estrella. La mayoría de las que vemos tienen una magnitud de entre 1 y 6, y las más tenues visibles con telescopios, magnitud 22. Las estrellas muy brillantes tienen magnitudes negativas, como Sirius (-1,44).
Se cree que fue Hiparco de Nicea el que dividió las estrellas según su brillo en seis clases llamadas magnitudes, de la 1 a la 6. Esto pue popularizado por Ptolomeo, en una obra que nos ha llegado vía una traducción árabe llamada Almangesto.
El brillo se medía por apreciación a ojo, comparando con estrellas de magnitud conocida, una estrella con un brillo parecido a la Polar, era de segunda magnitud, por ejemplo.
Con el advenimiento del telescopio, se vio que había estrellas menos brillantes que las de la seta magnitud, o sea que la escala se prolongó de manera intuitiva: si una estrella que es de quinta magnitud la veo en el telescopio como si fuera de segunda, una estrella que con este mismo telescopio me parece de la sexta, será realmente de la novena, ya que el telescopio concreto sube tres magnitudes.
Con los mayores telescopios o con el Hubble que aunque no es de los más grandes está fuera de la atmósfera, se ha llegado a la magnitud 30, aunque son observaciones muy difíciles, un brillo muy poco superior al brillo de fondo que detecta el telescopio. Visualmente, sin detectores ni película fotográfica, me consta que con el telescopio Hale de 5 metros en Monte Palomar, se han llegado a ver estrellas de magnitud 23.
A mediados del siglo XIX, un astrónomo británico llamado Pogson, dio una forma más matemática a las magnitudes. Calculó que en promedio, las estrellas de la primera magnitud, brillaban unas 100 veces más que las de la sexta. O sea que asigno el aumento de brillo de 100 veces a 5 magnitudes. Esto quiere decir que cada magnitud es unas 2,512 veces menos brillante que la precedente porque 2,512 elevado a la quinta potencia es 100.
Asigno a la estrella Polar exactamente la magnitud 2, y a las otras el número que le correspondiera con la escala definida, que es logarítmica.
Las magnitudes ya no eran unas clases numeradas, eran un número con decimales. Y se encontraron métodos, todavía usados por los aficionados, para determinarlas con una precisión mejor que 0,1 sin usar instrumentos electrónicos. Se basan en la comparación con estrellas de referencia situadas en el mismo campo telescópico.
Se vio enseguida que las estrellas más brillantes, tenían magnitudes por debajo de uno e incluso de cero. Luego se vio que la estrella Polar era variable, o sea que no era una buena referencia y se cambió por Vega, a la que se le asigno la magnitud de exactamente cero.
En el siglo XX aparecieron aparatos capaces de medir el brillo de una estrella con un telescopio. Primero fueron los fotómetros de selenio —poco sensibles— y luego los tubos fotomultiplicadores —caros—. Pero al fginal han quedado sustituidos por sistemas basados en semiconductores, básicamente cámaras CCD. Ahora con una cámara al alcance de un aficionado se pueden medir con precisiones del orden de 0,01 magnitudes las estrellas presentes en el campo.
Existen detectores más especializados, como los que se usan para medir la disminución de brillo de una estrella cuando uno de sus planetas pasa por delante del disco, en este caso la magnitud varia del orden de la milésima.
Todo esto son los brillos aparentes, para saber el brillo real, hay que calcular como brillaría una estrella a una distancia concreta, cosa que necesita saber su distancia real. La base que, arbitrariamente se tomo, es de 10 parsecs, que corresponden a una distancia de 32,6 años luz. El Sol, por ejemplo, a esta distancia brillaría con la magnitud de 4,83, y a este valor se le conoce como magnitud absoluta.
Answers & Comments
Verified answer
Pues no es nada fácil...
Medir el brillo de la luz que llega de una estrella es tan fácil como usar el fotómetro de un fotógrafo.el fotómetro transforma la energía luminosa en una minúscula corriente eléctrica proporcional.Se lee la corriente en la escala y ya está.
Pero entonces no sabes si tienes una estrella muy brillante lejana,o muy poco brillante pero cercana.
Lo que interesa es saber el brillo intrínseco,o sea,el que tiene la estrella cuando estás en su superficie.
En general,eso solo es posible sambiendo la distancia a que se encuentra la estrella.Para ello,hay varios métodos,el del paralaje para estrellas cercanas, el interferométrico o el de las cefeidas.Bueno, ahora uniendo radiotelescopios en distintos continentes (son relojes atómicos para sincronizarlos) lo cierto es que el método del paralaje (ver cuanto mas o menos inclinacion tiene la dirección hacia la estrella,vista de diferentes puntos) es muy preciso.
Al final, a partie del brillo medido en la Tierra y sabiendo la distancia a la estrella,aplicando una simple fórmula se sabe el brillo real.Pero lo difícil,es medir la distancia, y las distancias a las estrellas muchas veces tienen un 20% de margen de error.
El brillo de las estrellas se mide por algo llamado MAGNITUD...y viene de los griegos en el siglo 2 antes de Cristo, casi sin cambios, En esa época ya se pusieron 6 magnitudes para las estrellas visibles: Magnitud 1...las tan brillantes que pueden verse cuando el Sol todavia no se terminó de ocultar, como Sirio o Procyon... y Magnitud 6..las que solo distingue "una persona de buena vista en la oscuridad total". Lógicamente, eso se tuvo que ampliar con la llegada del telescopio... porque ahora se veian estrellas que a simple vista no se distinguen. Y actualmente con telescopios potentes se ven hasta de magnitudes mayores a 20. La medición hasta el siglo XIX, era por "comparación a ojo"... luego se empezaron a hacer comparaciones con fotografias: a mayor tiempo de exposición para que se vea... mayor magnitud. Y actualmente, como todo va a una pantalla digital, es más fácil obtener valores exactos de brillo y magnitud.
El principal cambio desde la época de los griegos...es que ahora se diferencia entre "Brillo aparente" y "Brillo real"... porque, vamos a un ejemplo, el Sol, evidentemente es la cosa de mayor "Brillo aparente" que tenemos a la vista... pero hay galaxias que a pesar de tener un brillo aparente muy pobre, dada la enorme distancia, tienen un brillo real miles de veces mayor al del Sol. Asi que, cuando se habla de la "Magnitud" de una estrella nos referimos a su BRILLO... y debe diferenciarse entre "Magnitud real" y "Magnitud aparente".
Como ejemplo, Sirio, es la estrella visible más brillante... con una MAGNITUD APARENTE de - 1,44,.. pero es tan brillante dado su tamaño y cercania... porque su MAGNITUD REAL es de un pobre 1,42
https://es.wikipedia.org/wiki/Luminosidad_solar
https://es.wikipedia.org/wiki/Magnitud_(astronom%C...
Los astrónomos miden el brillo de las estrellas en magnitudes. Cuanto más baja sea, más brillará la estrella. La mayoría de las que vemos tienen una magnitud de entre 1 y 6, y las más tenues visibles con telescopios, magnitud 22. Las estrellas muy brillantes tienen magnitudes negativas, como Sirius (-1,44).
Por la luz
Se miden por magnitudes que van desde 1, 2 3, 4, 5, 6, 7, 8, 9 10, etc.
os astrónomos miden el brillo de las estrellas en magnitudes. Cuanto más baja sea, más brillará la estrella. La mayoría de las que vemos tienen una magnitud de entre 1 y 6, y las más tenues visibles con telescopios, magnitud 22. Las estrellas muy brillantes tienen magnitudes negativas, como Sirius (-1,44).
compra un BRILLIMETRO
Acude al Astronomo.
Se cree que fue Hiparco de Nicea el que dividió las estrellas según su brillo en seis clases llamadas magnitudes, de la 1 a la 6. Esto pue popularizado por Ptolomeo, en una obra que nos ha llegado vía una traducción árabe llamada Almangesto.
El brillo se medía por apreciación a ojo, comparando con estrellas de magnitud conocida, una estrella con un brillo parecido a la Polar, era de segunda magnitud, por ejemplo.
Con el advenimiento del telescopio, se vio que había estrellas menos brillantes que las de la seta magnitud, o sea que la escala se prolongó de manera intuitiva: si una estrella que es de quinta magnitud la veo en el telescopio como si fuera de segunda, una estrella que con este mismo telescopio me parece de la sexta, será realmente de la novena, ya que el telescopio concreto sube tres magnitudes.
Con los mayores telescopios o con el Hubble que aunque no es de los más grandes está fuera de la atmósfera, se ha llegado a la magnitud 30, aunque son observaciones muy difíciles, un brillo muy poco superior al brillo de fondo que detecta el telescopio. Visualmente, sin detectores ni película fotográfica, me consta que con el telescopio Hale de 5 metros en Monte Palomar, se han llegado a ver estrellas de magnitud 23.
A mediados del siglo XIX, un astrónomo británico llamado Pogson, dio una forma más matemática a las magnitudes. Calculó que en promedio, las estrellas de la primera magnitud, brillaban unas 100 veces más que las de la sexta. O sea que asigno el aumento de brillo de 100 veces a 5 magnitudes. Esto quiere decir que cada magnitud es unas 2,512 veces menos brillante que la precedente porque 2,512 elevado a la quinta potencia es 100.
Asigno a la estrella Polar exactamente la magnitud 2, y a las otras el número que le correspondiera con la escala definida, que es logarítmica.
Las magnitudes ya no eran unas clases numeradas, eran un número con decimales. Y se encontraron métodos, todavía usados por los aficionados, para determinarlas con una precisión mejor que 0,1 sin usar instrumentos electrónicos. Se basan en la comparación con estrellas de referencia situadas en el mismo campo telescópico.
Se vio enseguida que las estrellas más brillantes, tenían magnitudes por debajo de uno e incluso de cero. Luego se vio que la estrella Polar era variable, o sea que no era una buena referencia y se cambió por Vega, a la que se le asigno la magnitud de exactamente cero.
En el siglo XX aparecieron aparatos capaces de medir el brillo de una estrella con un telescopio. Primero fueron los fotómetros de selenio —poco sensibles— y luego los tubos fotomultiplicadores —caros—. Pero al fginal han quedado sustituidos por sistemas basados en semiconductores, básicamente cámaras CCD. Ahora con una cámara al alcance de un aficionado se pueden medir con precisiones del orden de 0,01 magnitudes las estrellas presentes en el campo.
Existen detectores más especializados, como los que se usan para medir la disminución de brillo de una estrella cuando uno de sus planetas pasa por delante del disco, en este caso la magnitud varia del orden de la milésima.
Todo esto son los brillos aparentes, para saber el brillo real, hay que calcular como brillaría una estrella a una distancia concreta, cosa que necesita saber su distancia real. La base que, arbitrariamente se tomo, es de 10 parsecs, que corresponden a una distancia de 32,6 años luz. El Sol, por ejemplo, a esta distancia brillaría con la magnitud de 4,83, y a este valor se le conoce como magnitud absoluta.