viernes, 20 de septiembre de 2013

TERREMOTOS. Así fue el terremoto más potente del mundo registrado hasta ahora.

nubes-terremoto-mar-okhotsk-nasa.jpg
        Nubes sobre el mar de Okhotsk. Imagen: NASA
         

Investigadores estadounidenses han determinado que el seísmo ocurrido en el fondo del Pacífico, y registrado en todo el mundo en mayo de 2013, emitió una energía 36 veces superior a la liberada por la bomba atómica de Hiroshima. Este fenómeno produjo una grieta de 180 kilómetros de largo.

Meses después del terremoto de 8,3 grados originado en el fondo del mar de Okhotsk (Rusia) el 24 de mayo de 2013, su causa sigue siendo un misterio. Sin embargo, un estudio publicado esta semana en Science revela que este fenómeno, ocurrido a unos 609 kilómetros de profundidad, es el más potente registrado hasta la fecha.

Los autores del trabajo, pertenecientes a la Universidad de California en Santa Cruz, el Instituto de Tecnología de California y la Universidad de Utah (EEUU), han revelado que el seísmo liberó la energía equivalente a la explosión de 36 millones de kilogramos de dinamita y produjo una grieta de 180 kilómetros, la más larga conocida.

Los investigadores analizaron las ondas sísmicas emitidas durante el evento. ?Miles de estaciones de todo el mundo registraron el temblor de tierra al propagarse por la roca?, explica a SINC Thorne Lay, uno de los autores del trabajo.

A continuación, compararon los resultados con los datos de un terremoto de características similares ocurrido en Bolivia en el año 1994. ?La energía liberada triplicó la de Bolivia?, indica Lay.

El área y la velocidad de ruptura también fueron mucho mayores que durante el fenómeno anterior. El enorme agujero que produjo el fenómeno constituye una falla, un deslizamiento de dos placas tectónicas ?las piezas que constituyen la corteza terrestre?, con una velocidad de ruptura de unos 9.000 kilómetros por hora, datos que se asemejan más a terremotos superficiales que a temblores profundos. El terreno se movió hasta 10 metros.

Aquel seísmo fue diferente, se produjo muy despacio y parece haber involucrado otro tipo de fallas, con una deformación en vez de una rápida rotura de la roca?, destaca el investigador.

Los expertos atribuyen las grandes diferencias entre los dos fenómenos a las variaciones en la edad y la temperatura de la lámina subyacente. La placa del Pacífico se hunde bajo el mar de Okhotsk y es mucho más fría que la placa donde se produjo el terremoto de Bolivia en 1994.

?Cómo ocurren estos sismos es una incógnita?, asegura Lay. Los expertos aún se preguntan cómo puede una roca deslizarse sobre otra tan rápido mientras está siendo comprimida por 609 kilómetros de material.

El investigador afirma que entender la naturaleza de estos fenómenos es clave para prevenir otros movimientos de tierra que puedan causar daños.

Movimientos a gran profundidad
Los movimientos de tierra profundos tienen lugar en la zona de transición entre el manto superior y el inferior, que se encuentra entre 400 y 700 kilómetros bajo la superficie. Son el resultado de la tensión ejercida sobre una placa subyacente cuando una lámina de la corteza terrestre se desliza bajo otra.

Normalmente, este tipo de terremotos no ocasionan un temblor suficientemente potente en la superficie para que pueda suponer ningún peligro, pero tienen un gran interés científico.

fuente/ Eleconomista.es

jueves, 19 de septiembre de 2013

ECONOMIA. Las máquinas y no los hombres manejan las bolsas de valores.

¿Y si el crack bursátil de 2008, cuyas consecuencias aún se notan en medio mundo, lo hubieran provocado las máquinas y no los hombres?

Un estudio relaciona el vertiginoso ascenso de la negociación de alta frecuencia (high-frequency trading o HFT), donde las decisiones de compraventa de acciones las realizan algoritmos matemáticos, con la volatilidad de los mercados. Estas máquinas realizan sus operaciones en milisegundos, escapando a la supervisión en tiempo real de cualquier humano, por muy rápido que sea. Cuando, tras un sólo segundo, reacciona, puede que ya sea demasiado tarde.

Las máquinas y no los hombres manejan las bolsas de valores

Las HFT apenas tiene 15 años. La Securities and Exchange Commission de Estados Unidos (SEC) no autorizó las operaciones electrónicas hasta 1998. Entonces estos programas tardaban unos segundos en realizar una operación bursátil de forma autónoma. Siguen sus propias reglas (no siempre redactadas por humanos) para decidir qué comprar y cuándo vender. Desde entonces, la imagen del avezado jugador de bolsa es una mera ilusión.

Las operaciones en milisegundos, incluso menos. La compañía británica Fixnetix, por ejemplo, presentó en 2011 el microchip iX-eCute, capaz de realizar una completa en 740 nanosegundos (la milmillonésima parte). En los últimos años se ha desatado una verdadera carrera de armamentos tecnológicos entre las compañías financieras para que sus sistemas sean más rápidos que los de la competencia. Así, en unos meses debe entrar en servicio el primer cable submarino que une Londres y Nueva York desplegado en la última década. Operado por Hibernia Networks, un consorcio de empresas de HFT lo financia con 250 millones de dólares con la promesa de que ganarán apenas 5 milisegundos en sus comunicaciones, toda una eternidad para una buena operación.

“Nadie lo sabe con exactitud, pero en Estados Unidos se estima que las HFT ya suponen el 75% de las operaciones y creciendo. Mientras, en Europa su porcentaje es menor pero recuperan terreno, puede que estén entre el 25 y el 50%”, dice Neil Johnson, profesor de física de la Universidad de Miami y experto en sistemas complejos. Johnson y otros investigadores de estas negociaciones bursátiles casi a la velocidad de la luz han estudiado una de sus consecuencias que, por su fugacidad, a veces escapan a los analistas. Son los llamados eventos extremos ultrarrápidos.

Si la cotización de un valor baja (o sube) hasta 10 veces antes de repuntar (o caer) y el cambio en el precio es superior a un porcentaje determinado y todo ello en fracciones de segundo estamos ante uno de estos eventos extremos ultrarrápidos (EEU). Tal como publican en Nature Scientific Reports, encontraron 18.520 picos y crack con una duración inferior a los 1.500 milisegundos en las bolsas estadounidenses desde 2006. Comprobaron también que estos eventos van ganando autonomía respecto de los operadores humanos: cuanto más baja la duración de un EEU por debajo del umbral del tiempo de reacción humana, establecido en un segundo, el número de eventos extremos aumenta muy rápidamente.

Aunque los principales valores fueron entrando en el juego de las HFT de forma paulatina, todos los grandes ya experimentaban eventos extremos ultrarrápidos poco antes del colapso bursátil de 2008 que inició la crisis económica actual. De hecho, los 10 valores con más vaivenes instantáneos durante el periodo estudiado (2006-2011) son los grandes bancos, con Morgan Stanley, Goldman Sachs y Bank of America en los primeros puestos. El 15 de septiembre de 2008, el día de la declaración de bancarrota de Lehman Brothers, concentró el mayor número relativo de EEU.

“Sin duda están relacionados. Pero hay algo intrigante que me convence de que los EEU jugaron un papel en favor de la caída: antes del crack de 2008, comenzamos a ver cómo su frecuencia comenzaba a subir rápidamente en determinados valores y estos valores son todos compañías financieras. Sin embargo, en la prensa económica, el crack en sí fue asociado a la quiebra del sector financiero. Creemos que los EEU eran en realidad fracturas que aparecían en el mercado, en el sector financiero, antes de su ruptura. Como un objeto mecánico se puede fracturar antes de romperse”, explica Johnson.

Y no fue la única vez. El seis de mayo de 2010, el Dow Jones, el índice industrial de la bolsa de Nueva York cayó casi 1.000 puntos, el 9% de su valor, en segundos para recuperarse pocos minutos después. Un informe de la SEC señaló a las HFT como responsables parcialmente de lo que se llamó el Flash Crack. “En efecto, nosotros hemos encontrado una aglomeración de eventos extremos ultrarrápidos en torno al Flash Crack. Aún estamos analizando los datos para ver si podemos determinar la causa, pero hay una clara asociación”, explica el investigador estadounidense.

El problema es que no va a ser fácil demostrar su hipótesis. Tendrían que conseguir acceso a mucha información confidencial para establecer una relación causal entre el juego de los algoritmos y el vértigo bursátil. Algo que no parece probable sin la intervención de las autoridades. Tanto en Estados Unidos como en Europa distintas comisiones están analizando el impacto de las HFT en los mercados de valores. “En mi opinión podría ser peligroso aplicar normas para regular algo cuando no entiendes como funciona y nadie lo entiende, aunque nosotros esperamos haber comenzado a hacerlo”, sostiene Johnson.

El problema es que los humanos están perdiendo el control de sus bolsas de valores, quizá para siempre. “Al final, nada impedirá que los algoritmos escriban sus propios algoritmos. De hecho, la computación genética y los algoritmos genéticos son exactamente eso, donde nuevas generaciones de algoritmos nacen espontáneamente de la fusión y modificación de los existentes sin ningún control humano”, señala Johnson. Es como si los humanos hubieran escrito el código a modo de dioses y las máquinas estén creando su propio ecosistema, un lugar inhóspito para la lentitud de reacción humana.

“Podemos imaginar un escenario donde el mercado financiero se vea inundado de algoritmos, ninguno de ellos escrito ya por humanos pero que, sin embargo, son mutaciones rentables de generaciones anteriores de algoritmos. Sé que puede sonar a ciencia ficción, pero no lo es. De hecho, esto ya podría estar sucediendo en parte”, añade el físico.

Fuente: Cuarto Poder
Autor: Miguel Ángel Criado
vñia/ economiazero.com

Filma un NO Identificado en el aeropuerto de Dusseldorf, Alemania el 17/09/2013



Piloto de vuelo de avión comercial de pasajeros. Habla sobre el OVNI que filmó desde la cabina de mando.

Anticipo del Panel de Cambio Climático: aguas del oceáno subirán un metro este siglo.

 Pese a que el calentamiento se desaceleró un poco, éste existe, y "nosotros somos los principales culpables" advierten los investigadores.

 

El informe preliminar del que será entregado oficialmente este viernes por el Panel Intergubernamental sobre el Cambio Climático (IPCC)  dice que el nivel del mar podría elevarse un metro a final de este siglo, por un calentamiento  global en que el propio hombre es el  responsable.

Según el medio ABC, que obtuvo un borrador de lo que se publicará este viernes, los científicos ya lo saben de hace muchos años, pero existe aún mucha controversia respecto a los datos.

"El calentamiento del planeta existe y nosotros somos los principales culpables”, sostienen los investigadores del informe de IPCC.

“Ahora  mismo, si nos fijamos en la tasa de aumento del dióxido de carbono en la atmósfera, está bastante cerca de los peores escenarios que han sido considerados por los científicos desde que empezamos a mirar a este problema”, explicó a su vez Steve Sherwood, investigador del Cambio Climático de la Universidad de Wales, según ABC.

 “Finalmente podemos esperar para ver las olas de calor más intensas, fuertes aguaceros de lluvia, períodos más largos entre las lluvias. Esas son tres tipo de cosas que un montón de diferentes líneas de evidencia nos dice que podemos esperar en un mundo más cálido”, agregó el investigador.

En esta relación, se mencionó que las temperaturas globales aumentaron en casi un grado desde la era pre-industrial  y que la tierra y la temperatura del mar continuarán aumentando.

El informe IPCC predice que la temperatura subirá “algo más de cuatro grados” y que “los niveles del mar podría aumentar un metro a finales de siglo, en parte debido a que los glaciares y capas de hielo se están derritiendo más rápido”, informó ABC.

Se espera una pérdida casi completa de la capa de hielo de Groenlandia y un nivel del mar siete metros más alto a finales del milenio.

Los anuncios previos que el calentamiento gobal se atenuó momentáneamente en estos últimos años, publicado por diversas instituciones ediucativas, fue mencionado por John Cook, del Institute de Cambio Climático de  la Universidad de Queensland, quien dice que el planeta realmente sigue calentándose, pero a un ritmo más lento.

Respecto a esto, Cook explicó que  los océanos están absorbiendo la mayor parte del calor.
En el informe se citó las palabras de Erwin Jackson quien mencionó que “aunque la tasa de calentamiento se ha desacelerado, la tendencia es clara”, haciendo ver que sigue aumentando.

Jackson mencionó que la atmósfera se puede comparar a la detonación de cuatro bombas de Hiroshima cada segundo.

“El calor que se encuentra en varias partes del mundo, no es sólo en la superficie, sino que también va en nuestros océanos. Estamos viendo el derretimiento de glaciares, estamos viendo toda una serie de cambios climáticos”, agregó Jackson, según ABC.

Pero el mundo continúa calentándose y si no reducimos nuestras emisiones de manera significativa, continuará durante los muchos siglos por venir”, advirtió el investigador.

fuente/ Artículo original de lagranepoca.com

Detectan actividad cerebral en el coma profundo asociado con encefalograma plano.

 Cerebro transparente
  Foto: STANFORD UNIVERSITY

Investigadores de la Universidad de Montreal, en Canadá, y colegas han encontrado actividad cerebral más allá de una línea plana de electroencefalograma (EEG), que han llamado Nu-complejos. De acuerdo con los datos científicos existentes, los investigadores y los médicos han establecido que más allá de la llamada "línea plana" (electroencefalograma plano o EEG), no hay nada en absoluto, ni actividad cerebral ni posibilidad de vida, pero este hallazgo sugiere que existe una frontera completamente nueva en el funcionamiento del cerebro animal y humano. 

 Los investigadores observaron a un paciente humano en un estado de coma profundo hipóxico extremo debido a un potente medicamento antiepiléptico que se le había obligado a tomar debido a sus problemas de salud. "El doctor Bogdan Florea, de Rumania, contactó con nuestro equipo de investigación al observar fenómenos inexplicables en el EEG de un paciente en coma. Nos dimos cuenta que había actividad cerebral, algo desconocido hasta ahora, en el cerebro del paciente", explicó el doctor Florin Amzica, director del estudio y profesor de la Escuela de Odontología de la Universidad de Montreal.

El equipo de Amzica decidió entonces para recrear el estado del paciente en los gatos, el modelo animal estándar para estudios neurológicos. Mediante el uso de la anestesia isoflurano, llevaron a los gatos a un profundo pero completamente reversible coma, de forma que estos felinos traspasaron la línea plana (isoeléctrica) de EEG, que se asocia con silencio en la corteza (la parte de gobierno del cerebro) .

El equipo observó actividad cerebral en el cien por cien de los gatos en coma profundo, en forma de oscilaciones generadas en el hipocampo, la parte del cerebro responsable de los procesos de aprendizaje y memoria. Estas oscilaciones, desconocidas hasta ahora, fueron transmitidas a la parte principal del cerebro, la corteza. Los investigadores concluyeron que las ondas de EEG observadas, o NU- complejos, fueron los mismos que los detectados en el paciente humano.

El doctor Amzica subraya la importancia de comprender las implicaciones de estos hallazgos. "Aquellos que han decidido o tienen que desconectar a un pariente cercano con muerte cerebral no necesitan preocuparse o dudar de su médico. Los criterios actuales para el diagnóstico de muerte cerebral son muy estrictos. Nuestro hallazgo tal vez pueda a largo plazo influir en la redefinición de los criterios, pero estamos lejos de eso. Además, este no es el aspecto más importante y útil de nuestro estudio", subrayó Amzica.

A su juicio, lo relevante del descubrimiento es el potencial terapéutico, la neuroprotección, del coma profundo extremo. Después de una lesión grave, algunos pacientes se encuentran en una condición que los médicos les inducen deliberadamente a un estado de coma artificial para proteger su cuerpo y el cerebro con el fin de que puedan recuperarse, pero Amizca cree que el coma profundo extremo experimentado en los gatos puede ser más protector.

"Un órgano o músculo que permanece inactivo durante mucho tiempo, finalmente se atrofia. Es posible que lo mismo le suceda a un cerebro mantenido durante un periodo prolongado en un estado que corresponde a un electroencefalograma plano", advierte Amzica. Según este experto, un cerebro inactivo que sale de un coma prolongado puede estar en peores condiciones que uno que ha tenido mínima actividad, por lo que cree relevante seguir investigando sobre los efectos del coma profundo extremo en el que el hipocampo está activo, a través de Nu-complejos.

"Otra implicación de este hallazgo es que ahora tenemos evidencia de que el cerebro es capaz de sobrevivir a un estado de coma muy profundo si se preserva la integridad de las estructuras nerviosas", matizó el autor principal del estudio, Daniel Kroeger. "También encontramos que el hipocampo puede enviar órdenes al comandante del cerebro, la corteza. Finalmente, la posibilidad de estudiar los procesos de aprendizaje y la memoria del hipocampo durante un estado de coma ayudará a una mejor comprensión de los mismos", concluyó.

fuente/EuropaPress

Un nuevo sistema de coordinación entre robots permite que se organicen sin un líder.

Los autómatas toman decisiones colegiadas pero defendiendo cada uno su propio interés.

 Los e-pucks utilizados en el experimento. Fuente: UPM.

Investigadores de la Universidad Politécnica de Madrid y de la UNED han creado un sistema de coordinación entre robots que les permite funcionar como un grupo sin líder, que toma decisiones colegiadas y en el que todos intentan defender sus propios intereses (pero buscando el bien común). El sistema puede utilizarse en los túneles del alcantarillado o en las galerías de una mina, por ejemplo. 

a robótica cognitiva está evolucionando desde los sistemas clásicos constituidos por un único robot a sistemas basados en equipos de robots formados por varios componentes heterogéneos que operan juntos, incluso colaborando, para realizar las tareas que les hayan sido encomendadas.
“Estos sistemas van a ser de aplicación en los años venideros en los distintos sectores y escenarios que se contemplan en las recomendaciones europeas. Tanto sectores industriales como de servicios profesionales y domésticos, de seguridad o espaciales, admiten en casi cualquier escenario de aplicación, como por ejemplo de robots asistenciales, de vigilancia, de exploración, etcétera, la utilización de este tipo de sistemas”, explica Javier de Lope, del Grupo de Robótica Cognitiva Computacional de la Universidad Politécnica de Madrid (UPM), en una nota de prensa de la universidad.

Un ejemplo de la aplicación de estos robots son los túneles del sistema de alcantarillado o las galerías de una mina, lugares idóneos para que realicen su trabajo y se comuniquen entre sí con el objetivo, por ejemplo, de diseñar un mapa del terreno. Investigadores de la Universidad Nacional de Educación a Distancia (UNED), junto a científicos de la UPM, han validado un sistema de coordinación entre estos dispositivos, inspirándose en la teoría de juegos y en los principios de conservación animal.

Eligen la opción más interesante
“Los robots son programados para elegir la opción que más les interesa. Actúan con el mismo sentido de egoísmo que puedan tener los animales, pero como hacen ellos, a la hora de consensuar las acciones que tomará el equipo, la elección la realizan en función del interés general”, explica Manuel Martín-Ortiz, investigador de Inteligencia Artificial en la UNED, actualmente en la Universidad Tecnológica de Eindhoven (Holanda) y autor principal de la investigación.

La participación de la UPM se ha desarrollado desde el Grupo de Robótica Cognitiva Computacional. Sus investigadores vienen desarrollando trabajos en los últimos años bajo este nuevo enfoque sobre coordinación y emergencia de lenguaje en equipos de robots usando modelos que se modifican a partir de las experiencias y se adaptan a nuevas situaciones.

“En un marco general se define un equipo compuesto por varios robots (terrestres, trepadores, voladores, etcétera) dotados con distintos sensores, capaces de coordinarse y repartirse las tareas de forma ordenada sin un líder que asigne los trabajos y sin necesidad de estar permanentemente conectados con un sistema central”, explica Javier de Lope.

“Este equipo, además, es capaz de coordinarse y de crear un lenguaje entre ellos, incluso negociando una gramática, que haga posible la descripción de los elementos y escenas que descubran en cada nuevo entorno”, añade el investigador de la UPM.

El trabajo, publicado en Robotics and Autonomous Systems, detalla una serie de experimentos que los científicos realizaron en un simulador –un programa en el que cada robot es un punto que se mueve en la pantalla– y en un entorno controlado con forma de laberinto, con cuatro robots reales del tamaño de una lata de refresco –denominados e-pucks–. 

 Interacción
La clave del método radica en que la interacción del grupo se produce incluso aunque algunos de los dispositivos no logren comunicarse con el resto o se estropeen.

“Cada vez que unos cuantos robots se encuentran comparten la información que tienen, evalúan las posibles rutas inexploradas y realizan una negociación para decidir quién se queda con cada nuevo camino”, afirma Félix de La Paz, investigador de Inteligencia Artificial de la UNED y otro de los autores del estudio.

Una vez asignadas las nuevas rutas, los robots las exploran de forma individual hasta que vuelven a encontrarse con el resto del equipo. “Si la decisión que más le interesa a uno de ellos no es aprobada por los demás, este negociará de nuevo siguiendo sus intereses pero sin insistir en una opción descartada por el grupo”, añade Martín-Ortiz.

Para comunicarse en entornos simulados, los dispositivos emplearon el protocolo TCP/IP, mientras que los pequeños e-pucks utilizaron el sistema Bluetooth al carecer de conexión wifi. No obstante, este sistema de cooperación “puede ser extrapolado a cualquier sistema de comunicación”, concluye el científico. 

Referencia bibliográfica:
Manuel Martín-Ortiz, Javier de Lope, Félix de la Paz. Auction based method for graphic-like maps inspection by multi-robot system in simulated and real environments Robotics and Autonomous Systems (2013). DOI: 10.1016/j.robot.2012.08.007.

fuente del texto/ Tendencias2

miércoles, 18 de septiembre de 2013

Última Hora México. Aviones militares evacuan a miles de turistas por las inundaciones en Acapulco, México.

  • Al menos 47 personas han muerto por el paso de dos ciclones en México.
  •  Unos 40.000 visitantes estaban alojados en este balneario del Pacífico.


“La oscuridad es una definición utilizada por el hombre para describir qué ocurre cuando hay ausencia de luz.”

 

Un profesor de la Universidad de Berlín propuso un desafío a sus alumnos con la siguiente pregunta: 
“¿Dios creó todo lo que existe?"
 
Un alumno respondió, valientemente:

Si, Él creó …


¿Dios realmente creó todo lo que existe?


Preguntó nuevamente el maestro. 


Sí, señor, respondió el joven. 


El profesor respondió: “Si Dios creó todo lo que existe, 


¡entonces Dios hizo el mal, ya que el mal existe! 


Y si establecemos que nuestras obras son un reflejo de nosotros mismos,
¡entonces Dios es malo!!"

El joven se calló frente a la respuesta del maestro, que feliz, se regocijaba de haber probado, una vez más, que la fe era un mito.

Otro estudiante levantó la mano y dijo:
¿Puedo hacerle una pregunta, profesor?

Lógico, fue la respuesta del profesor.

El joven se paró y preguntó: Profesor, ¿el frío existe?


¿Pero que pregunta es esa?… Lógico que existe, ¿o acaso nunca sentiste frío?

El muchacho respondió: "En realidad, señor, el frío no existe. 


Según las leyes de la Física, lo que consideramos frío, en verdad es la ausencia de calor. 


Todo cuerpo o objeto es factible de estudio cuando posee o transmite energía;
el calor es lo que hace que este cuerpo tenga o transmita energía”.

Y, ¿existe la oscuridad? Continuó el estudiante.

El profesor respondió:Existe.

El estudiante respondió:

La oscuridad tampoco existe. 


La oscuridad, en realidad, es la ausencia de luz.

“La luz la podemos estudiar,
¡la oscuridad, no!

A través del prisma de Nichols, se puede descomponer la luz blanca en sus varios colores, con sus diferentes longitudes de ondas.

¡La oscuridad, no!

“¿Como se puede saber qué tan oscuro está un espacio determinado? 


Con base en la cantidad de luz presente en ese espacio.”

“La oscuridad es una definición utilizada por el hombre para describir qué ocurre cuando hay ausencia de luz.”

Finalmente, el joven preguntó al profesor:
Señor, ¿EL MAL EXISTE?

El profesor respondió: Como afirmé al inicio, vemos estupros, crímenes, violencia en todo el mundo. Esas cosas son del mal.

El estudiante respondió: “El mal no existe, Señor, o por lo menos no existe por sí mismo. El mal es simplemente la ausencia del bien…

De conformidad con los anteriores casos, el mal es una definición que el hombre inventó para describir la ausencia de Dios.”

Dios no creó el mal. … El mal es el resultado de la ausencia de Dios en el corazón de los seres humanos.

Es igual a lo que ocurre con el frío cuando no hay calor, o con la oscuridad cuando no hay luz.

El joven fue aplaudido de pié, y el maestro, moviendo la cabeza, permaneció en silencio …

El director de la Universidad, se dirigió al joven estudiante y le preguntó:

¿Cuál es tu nombre?

Me llamo ALBERT EINSTEIN...

1952. Flotilla de OVNIS surco el cielo de Washington.