Mostrando entradas con la etiqueta INTELIGENCIA. Mostrar todas las entradas
Mostrando entradas con la etiqueta INTELIGENCIA. Mostrar todas las entradas

martes, 31 de diciembre de 2013

Cómo nos puede ayudar la psicología en un asalto.


Nunca es fácil decidir qué hacer ante un ataque de la delincuencia. Generalmente se trata de una situación que te toma por sorpresa y no sabes cómo actuar. Ésa es precisamente una de las herramientas que utilizan los maleantes para cometer su fechoría: el factor sorpresa. Actúan a toda velocidad y no te dan tiempo de analizar la situación y elegir una forma de reaccionar.

También suelen mostrarse muy agresivos desde el primer momento. No sólo te atacan, sino que también te agreden con palabras violentas y amenazas sobre tu integridad. Saben que esa es la manera de destruir tus recursos emocionales para resistir al ataque.

¿Cuál es la mejor manera de reaccionar? A menos que tengas entrenamiento en Artes Marciales o en alguna técnica de defensa personal, lo aconsejable es que comprendas que ante un ataque no estás en condiciones de hacer gran cosa. Mucho menos si se trata de un ataque armado, como suele suceder en el caso de un asalto callejero.

APRENDER TRES PRINCIPIOS QUE HARÁN MENOS TRAUMÁTICA LA EXPERIENCIA

1. Conserva la calma.
Cualquiera que sea la circunstancia, tendrás más oportunidades de sortearla si te mantienes calmado. Recuerda que tu atacante ha puesto en juego una buena dosis de adrenalina y tu tranquilidad le ayudará a que sienta la situación bajo control. Así no se desesperará al punto de cometer una estupidez mayor. Tu principal objetivo debe ser el de conservar tu vida y evitar que te causen daño físico. Por más ofensivo o abusivo que sea el delincuente, no tienes por qué reaccionar. Si lo haces, puedes exponerte a una situación que tal vez no seas capaz de manejar.

2. Obedece las instrucciones.
Si ya te han puesto bajo el dominio de un arma, no hay nada que hacer. Obedece una a una las instrucciones del delincuente. Entrégale tus pertenencias sin oponer resistencia. No hables con él. Adopta la actitud de “ser humano gris”: sin reacciones, sin palabras, casi sin presencia. No hagas nada que el delincuente no te pida y dale a entender con tu actitud que estás dispuesto a cooperar con el asalto. Eso disminuirá la agresividad del bandido.

3. Agudiza tu atención.
Intenta capturar la mayor información posible. Si miras directamente a los ojos al delincuente, probablemente lo irritarás. Aún así, trata de captar los rasgos de su rostro, sus manos. Permanece atento al tono de su voz, especialmente si tiene algún rasgo especial, como cierta procedencia regional o particularidades de ese estilo. Observa la ropa que lleva puesta y fórmate una idea general del individuo: estatura, edad, etnia. Todos esos datos serán muy valiosos al momento de denunciar el asalto.

Una vez concluya el asalto, busca ayuda inmediatamente. Comunícate con alguien de tu confianza y pídele que te acompañe a una delegación de policía para denunciar el hecho. Es importante que lo hagas al instante porque el recuerdo de la situación está fresco y eso te permitirá aportar una información valiosa.

Dependiendo de tu forma de ser y de las condiciones del asalto, es probable que también necesites de ayuda psicológica. Este tipo de situaciones ocasionan un trauma que puede llevarte a experimentar temor al transitar por las calles, o activar miedos inconscientes que pueden expresarse en angustia, problemas de sueño o irritabilidad, entre otros.

Tómate tu tiempo después de esta incómoda experiencia y no vayas a caer en la tentación de culparte, ni lamentarte por lo que ocurrió. Los objetos que hayas perdido puedes recuperarlos, por más costosos que sean. Si saliste con vida y evitaste daños mayores, puedes tener la certeza de que actuaste de manera inteligente y supiste sortear con éxito de una difícil situación.


Foto: Cortesía de Luis Pérez
fuente/lamenteesmaravillosa.com/como-nos-puede-ayudar-la-psicologia-en-un-asalto



martes, 26 de noviembre de 2013

Seis predicciones para el 2050 de científicos relevantes de la actualidad.

  Corbis

¿Cuantas veces se ha preguntado si aquello que plantean las películas de ficción algún día se hará realidad? Ahora dispone de una visión competente del futuro próximo elaborada por algunos de los científicos más respetados de nuestra época.

El suplemento dominical español 'XL Semanal' ha preguntado cómo cambiará nuestra vida en los próximos 50 años a seis grandes científicos y expertos en tecnología y ciencia participantes en el Congreso de Mentes Brillantes de Madrid.

"Seremos jóvenes hasta el día de nuestra muerte"
Según el ingeniero molecular también conocido como "el mago de la genética" George Church de la Universidad de Harvard y del Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés), EE.UU, especializado en secuenciación y síntesis de ADN, en el año 2050 la humanidad habrá logrado vencer al envejecimiento.

"Hoy ya contamos con herramientas que nos hacen más fuertes y rápidos. Pero son inorgánicas: un avión, un coche. ¡Pronto serán orgánicas! También tenemos medicinas que nos permiten vivir más. Pero daremos un salto: viviremos jóvenes hasta el día de nuestra muerte", afirma el genetista. "Hoy, ya se puede invertir el envejecimiento de una célula en el laboratorio. Cuando logremos hacerlo en el interior del cuerpo, seremos jóvenes hasta que muramos", añade Church.

"Tu mejor amigo será una computadora"

Otro genio de la tecnología, el cofundador de Apple Steve Wozniak, quien junto con Steve Jobs revolucionó la informática, opina que los ordenadores habrán superado a los seres humanos e incluso podrían competir con nosotros en materia sentimental.

"En 40 años tendremos ordenadores conscientes, dotados de sentimientos, de su propia personalidad. Tu mejor amigo será una computadora. Hablarás con ella. Te mirará a la cara y sabrá reconocer tu estado de ánimo. Conocerá tu alma y tu corazón mejor que nada ni nadie", explica Wozniak.

"Facebook ya no te preguntará qué estás pensando, lo sabrá"

Javier Sirvent, autor de patentes industriales, tecnólogo en la investigación de nuevos e innovadores servicios y aplicaciones y director de movilidad de la compañía tecnológica española Norma4, advierte que en un futuro cercano la tecnología controlará totalmente a las personas.

"Viviremos conectados: no podrás ir a ninguna parte sin que se sepa. Y esto te obligará a ser buen ciudadano. Cada vez se manejarán más datos que servirán para predecir atascos, accidentes... pero también para controlar a las personas. Será inevitable", opina Sirvent.

El técnico también ha mencionado algunos posibles cambios significativos en la educación, ya que un ser humano ya no va a necesitar memorizar los conocimientos, podrá simplemente descargarlos. "La educación va a cambiar. Se podrá insertar el conocimiento directamente en nuestro cerebro. ¡No estudies!", declara Sirvent.

"Se aprenderá un idioma cargando una aplicación en el cerebro"

Otra gran personalidad en la tecnología, el cofundador de Twitter que dejó el proyecto antes de que este se hiciera millonario y actualmente gestiona sus propias 'star-ups', Evan Henshaw-Plath, asegura que más pronto de lo que cualquiera pueda imaginarse Internet estará en nuestras cabezas.

"Las computadoras no son algo tan ajeno a nuestra memoria o nuestra personalidad como pudiera parecer. De hecho, hay experimentos que demuestran que ambas cosas se pueden manipular mediante reacciones electroquímicas. Por ejemplo, hoy para aprender un idioma te tienes que pasar un año estudiando y, aun así, hablarás español con un acento americano tan fuerte como el mío. Por ello, cuando puedas instalar una lengua nueva como instalas una aplicación en tu teléfono, lo harás", afirma Henshaw-Plath.

"Para ser padre, habrá que pasar ciertos test"

El profesor de tecnologías emergentes y director del Instituto de Futuros Creativos en Escocia Andy Miah, conocido como 'el guardián de la bioética', predijo que en el año 2050 los padres probablemente tendrán que tener una licencia especial para poder tener hijos.

El científico explica esta visión del futuro por el avance imparable de la genética, ya que incluso en la actualidad un ser humano puede modificar su cuerpo y, según Miah, lo que podrá cambiar en un futuro será su biología.

"Seremos capaces de perfeccionar la especie humana, de influir en la evolución. Y el gran debate será ver hasta dónde estamos dispuestos a llegar en este camino. Por ejemplo, la paternidad será algo muy diferente. Hoy, para adoptar, tienes que pasar toda una serie de exámenes impuestos por la sociedad. Llegará un día en que también habrá una especie de 'licencia para ser padre'", opina Miah.

"Descubriremos que el cáncer está vinculado a enfermedades infecciosas... y las curaremos"

El gran luchador contra la malaria, que hace más de dos décadas desarrolló la vacuna contra esta enfermedad, y ganador del Premio Príncipe de Asturias Manuel Patarroyo, afirma que "para el año 2020 el 60% de los cánceres estarán asociados a enfermedades infecciosas, como virus, bacterias, parásitos y hongos". "No sé si habremos vencido al cáncer para entonces, pero sí habremos controlado muchas enfermedades infecciosas asociadas a él", opina el científico.

Patarroyo también predice que para el año 2050 los médicos podrán saber las enfermedades que uno va a tener durante su vida. "En el ordenador estará nuestro genoma y el médico sabrá, con solo mirarlo, las posibilidades que tenemos de contraer una determinada enfermedad", explica.

fuente/Texto completo en: http://actualidad.rt.com/ciencias/view/112411-predicciones-cientificos-ano-2050

miércoles, 25 de septiembre de 2013

El cuerpo es capaz de percibir eventos futuros, sin pistas previas.

Una investigación sugiere que existen respuestas fisiológicas que se anticipan a la conciencia.


Los resultados de la revisión de 26 estudios sobre la respuesta fisiológica a eventos aún no ocurridos sugieren que el cuerpo es capaz de percibir el “futuro”, sin pistas previas. Según los autores de la investigación, esta “actividad anticipatoria anómala” es real, pero permanece aún sin explicación. 

Asimismo señalan que la biología cuántica, una rama de la ciencia que estudia el efecto de las partículas subatómicas en los organismos vivos, podría darle sentido. 

Resultaría fantástico –y muy útil- que nuestros cuerpos nos preparasen para eventos futuros que pudieran resultar importantes para nosotros, incluso en ausencia de clave o referencia alguna a dichos eventos.

¿Pero es posible tener este tipo de presentimientos? Según investigadores de la Northwestern University de Estados Unidos: sí. Los científicos han llegado a esta conclusión a partir de la revisión de los resultados de 26 estudios realizados a este respecto, y publicados entre los años 1978 y 2010.

Según informa la Northwestern University en un comunicado, ya se sabía que nuestra mente subconsciente a veces sabe más que nuestra mente consciente. Por ejemplo, en mediciones fisiológicas se ha demostrado que el organismo presenta respuestas inconscientes antes de que cierta información llegue a nuestra conciencia.

En lo que respecta en concreto a situaciones de peligro, en 2005 un estudio realizado por investigadores de la Universidad de Washington reveló que existe una zona del cerebro que actúa como un sistema de alerta en caso de riesgo, que es capaz de advertirnos, y también de aprender a detectar nuevos peligros.

Sin pista alguna

Lo que no había quedado claro hasta ahora, sin embargo, es “si los seres humanos tienen la capacidad de predecir eventos importantes futuros, incluso sin ningún tipo de pista sobre lo que va a suceder", explica Julia Mossbridge, autora principal del estudio e investigadora del Laboratorio de Neurociencia de la Northwestern.

Por ejemplo, se supone que una persona que esté jugando a un videojuego en el trabajo, con los auriculares puestos, no podrá oír a su jefe cuando este se encuentre a la vuelta de la esquina.

"Sin embargo, nuestro análisis sugiere que si estuviera en sintonía con su propio cuerpo, esa persona sería capaz de detectar estos cambios anticipatorios entre dos y 10 segundos antes (de que el jefe llegue) y cerrar el videojuego a tiempo", asegura Mossbridge.

La investigadora añade que ese individuo tendría incluso la posibilidad “de abrir la hoja de cálculo en la que se suponía que estaba trabajando. Y, con suerte, hacerlo todo antes de que el jefe entre en la oficina".

Actividad anticipatoria anómala

Esta capacidad ha sido tradicionalmente denominada “presentimiento” o “premonición", pero Mossbridge y sus colaboradores no están seguros de que la gente sienta realmente el futuro. Ella prefiere llamar a este fenómeno “actividad anticipatoria anómala”.

Mossbridge añade que “el fenómeno no es normal, según argumentan algunos científicos, porque no puede explicarse desde nuestra comprensión actual sobre el funcionamiento de la biología, pero otras explicaciones vinculadas a hallazgos sobre biología cuántica (sobre cómo afecta el comportamiento de las partículas subatómicas al mundo vivo) podrían hacer que todo esto cobre un sentido”.

Este fenómeno “es anticipatorio porque parece predecir modificaciones fisiológicas futuras en respuesta a un hecho importante sin claves conocidas, y es actividad porque consiste en cambios en los sistemas nervioso y cardiopulmonar, así como en la piel”, concluye la científico, que está especializada en psicología, neurociencia y psicología cognitiva.

Los resultados de esta investigación han aparecido detallados en la revista Frontiers in Percepction Science.

Otros vínculos entre lo vivo y lo cuántico

En los últimos 30 años ha ido madurando en biología un cuerpo de teorías y de investigaciones empíricas hacia el conocimiento de los fundamentos cuánticos de la materia viviente.

Dentro de este campo, se ha llegado a sugerir que la naturaleza de la física de partículas podría explicar fenómenos como la telepatía o ciertos mecanismos de la conciencia humana.

Asimismo, en 2010, un equipo de físicos del Institut für Theoretische Physik, de la Universidad de Innsbruck, en Austria, consiguió establecer una relación entre la orientación animal y la física cuántica, en concreto, entre la orientación y el llamado “entrelazamiento cuántico”.

Esta relación explicaría que las vacas y otras muchas especies animales puedan orientarse en el espacio siguiendo los campos magnéticos terrestres, es decir, tengan una extraña capacidad conocida como “magnetorrecepción”.

En los últimos años, otros investigadores han establecido asimismo relaciones entre la física cuántica y la orientación de los pájaros, de las tortugas e, incluso, de las moscas de la fruta. Además, hay quien ha señalado que la cuántica podría explicar la fotosíntesis.

En definitiva, numerosos biólogos con conocimientos en física cuántica se preguntan actualmente si el desarrollo de los organismos vivos, desde que existen hace 4.500 millones de años, no se ha beneficiado de una u otra forma de la interacción entre el mundo cuántico, llamado microscópico, y el mundo macroscópico.

Referencia bibliográfica:

Julia Mossbridge, Patrizio Tressoldi y Jessica Utts, Predictive physiological anticipation preceding seemingly unpredictable stimuli: a meta-analysis. Frontiers in Percepction Science, 17 de octubre de 2012.

Por Yaiza Martínez.
fuente/ tendencias21

viernes, 20 de septiembre de 2013

¿Tener sexo nos hace más inteligentes?


Sin duda alguna, es una pregunta un tanto curiosa, a la que los estudios científicos han respondido con un rotundo sí: tener sexo puede volvernos más inteligentes. Parece ser que, ante situaciones de estrés, el aumento de la hormona de estrés reduce la neurogénesis; sin embargo, las experiencias estresantes positivas como el ejercicio físico o el sexo mejoran nuestra capacidad cerebral. ¿Quieres saber más? Continúa leyendo.

Las ratas, el sexo y la inteligencia

Para saber si la hipótesis de que el sexo nos hace más inteligentes, los investigadores vieron si la actividad sexual influye en la estructura de las neuronas en el cerebro y la función del hipocampo experimentando con ratas. Se introdujeron mitad machos y mitad hembras; a una parte de los machos se les permitió tener relaciones sexuales una vez, al resto una vez al día durante 14 días.

Las ratas que tuvieron sexo una vez tenían niveles de hormonas de estrés elevados, así como también más neuronas. En las ratas que tenían sexo todos los días, se mostró un crecimiento pero más moderado.

Sin duda alguna, las ratas no son lo mismo que los humanos, por lo cual no se puede tomar como algo concluyente.

Tener-sexo-nos-hace-mas-inteligentes-2.jpg

El cerebro de los humanos

El factor de crecimiento nervioso, una neurotrofina relacionada al crecimiento de las neuronas, se encuentra en mayores cantidades en personas que recientemente se han enamorado –por el contrario de los solteros o aquellos que llevan en una relación larga–, así como también durante la excitación y al probar algo nuevo. Además, en aquellas personas que se enamoraron recientemente, también aumentan los niveles de estrés.

Por lo cual, se podría decir que el sexo nos hace más inteligentes, pero solo si es con una nueva pareja. En los estudios se veía que cuanto más tiempo se pasaba con una persona, los niveles de neurotrofina eran más bajos, por lo que el crecimiento neuronal descendía.

Las primeras etapas del amor nos hacen estar más atentos y alertas a las cosas que suceden a nuestro alrededor, y es el mejor momento de nuestro cerebro, ya que se estimula el crecimiento neuronal en el área del hipocampo, la zona del cerebro responsable de la memoria y el aprendizaje.

Otros datos sobre el cerebro y el sexo

El sexo provoca un aumento del flujo sanguíneo hacia el cerebro, mejorando los niveles de oxígeno. Además, durante el orgasmo las neuronas son más activas y necesitan más oxígeno.

En el caso de las mujeres, el aumento de determinadas hormonas mejora la agudeza mental, la concentración y el tiempo de reacción.

Más allá de que tener sexo nos hace más inteligentes, tiene múltiples beneficios para la salud: mejores niveles de testosterona, menos síntomas de menopausia, menor presión arterial, y en personas mayores sexualmente activas hay menores rangos de demencia. ¿Tú qué piensas? ¿Crees que el sexo nos hace más inteligentes?

fuente/ Ojo Científico

lunes, 12 de agosto de 2013

¿Qué es la inteligencia?


Interesante punto de vista sobre la inteligencia extractado de la autobiografía del Dr. Isaac Asimov. Una persona con un coeficiente intelectual bastante superior a la media y probablemente el escritor de ciencia ficción más importante que ha dado la literatura.

Dice de Doctor en sus memorias:

Cuando estaba en el ejército realice una de esas pruebas de aptitud intelectual, esas que todos los soldados realizan. Mi puntuación fue de 160, es decir, 60 puntos por encima del normal. Nunca antes alguien había obtenido un resultado así, y por esta razón durante dos horas hicieron un gran alboroto festejando mi logro (Esto no significo ninguna mejora para mi situación militar. Al día siguiente yo estaba en la cocina cumpliendo normalmente mi deber)."

Toda mi vida he registrado puntuaciones similares a la descripta, así que tengo la sensación interna de que soy muy inteligente. Sin embargo estos índices lo único que significan en realidad, es que soy muy bueno en contestar el tipo de preguntas académicas que se consideran dignas, y que fueron realizadas por las personas que "inventan" las pruebas de inteligencia (¿personas con inclinaciones intelectuales similares a los mías?)

Una vez conocí a un mecánico de automóviles que de acuerdo a mi estimación no podría superar los 80 puntos en esas pruebas de inteligencia. Siempre di por sentado que era mucho más inteligente que el. Sin embargo, cuando algo funcionaba mal, lo miraba con ansiedad mientras exploraba las entrañas de mi automóvil y escuchaba sus declaraciones como si fueran oráculos divinos.

Pues bien, supongamos que mi mecánico de automóviles hubiese diseñado las preguntas para una prueba de inteligencia. O supongamos que un carpintero las formule, o un agricultor, o, de hecho, cualquiera que no fuese un académico. Seguramente no podría superarlas.

Si en este mundo yo no pudiese utilizar mi formación académica, mi talento verbal, y tendría que realizar tareas complicadas con mis manos, seguramente lo haría mal.

Mi inteligencia, entonces, no es absoluta, sino que es una función de la sociedad en que vivimos y el hecho de que una pequeña porción de la sociedad ha logrado imponer a los demás, cuales son las "normas" como un árbitro de esos asuntos.

Retomando el tema de mi mecánico, el tenía la costumbre de contarme chistes cada vez que me veía. Una vez levanto la cabeza de debajo del capó del automóvil para decirme: "Doc, un chico sordomudo entró en una ferretería a pedir unos clavos. Puso dos dedos juntos sobre el mostrador y luego hizo un movimiento de martillar con la otra mano. El empleado le trajo un martillo. Sacudió la cabeza y señaló a los dos dedos que estaba martillando. El empleado le trajo los clavos. Escogió el tamaño que quería, y se fue. Bueno, doctor, el siguiente tipo que entró fue un ciego. Quería tijeras. ¿Cómo cree que le preguntó por ellas? "

Indulgentemente levante la mano derecha e hice un movimientos de tijeras los dos primeros dedos. Acto seguido mi mecánico se rió ruidosamente y dijo: "Él usó su voz y pidió por unas tijeras". Luego, con aire de suficiencia, dijo: "Durante todo el día me he burlado de mis clientes". ¿Lo han acertado muchos? le pregunté. "Muy pocos", dijo, "pero estaba seguro de que Ud. caería en la trampa." ¿Por qué esa suposición? le pregunté. "Porque eres tan educado, doc, que sabía que no podría ser muy inteligente ".

Y tengo la incómoda sensación de que en su afirmación había algo de cierto...

Isaac Asimov (1920 -1992 )
Imagen Flickr

martes, 4 de junio de 2013

HÉROES. Granjero chino fabricó sus propios brazos biónicos.

Al no poder costear la compra de las prótesis, pasó ocho años desarrollándolas.


El granjero chino Sun Jifa perdió sus dos manos en un accidente cuando un explosivo para pesca explotó antes de tiempo dentro de su casa hace nueve años.

Jifa luego pasó ocho años desarrollando sus propios brazos biónicos, al no poder costear la compra de prótesis de brazos ya fabricadas.

Sus brazos biónicos se construyeron desde cero y se dice que son más flexibles que los brazos de prótesis normales.

"Las manos artificiales del Sr. Sun se sienten bien", dijo un cliente, Li Yanzhong. "Cuando voy a casa, me ayuda mucho para operar la maquinaria de trabajo. Los brazos protésicos normales sólo tienen una función superficial al operar maquinaria. No tienen mucha fuerza. Pero esta mano artificial será de gran utilidad en el uso de máquinas y para hacer otros trabajos".

Jifa ha vendido alrededor de 1.000 de las extremidades a un valor aproximado de 490 dólares cada una.

Artículo original de lagranepoca.com

viernes, 24 de mayo de 2013

La inteligencia artificial finalmente se está haciendo inteligente.

Cuando en julio del año pasado Ray Kurzweil se reunió con el director general de Google, Larry Page, no estaba buscando trabajo. Kurzweil es un inventor respetado que se ha convertido en un futurista de la inteligencia de máquinas, y quería hablar de su próximo libro, How to Create a Mind. Le comentó a Page, quien había leído un primer borrador, que quería crear una empresa para desarrollar sus ideas sobre cómo construir un ordenador verdaderamente inteligente: uno que pudiera entender el lenguaje para después hacer inferencias y decisiones por sí mismo.
 
Pronto se hizo evidente que este esfuerzo requeriría nada menos que la escala de datos y potencia de cómputo que Google puede ofrecer. "Podría intentar darte algún tipo de acceso a todo ello", Page respondió a Kurzweil. "Pero para una empresa independiente, va a ser muy difícil hacerlo". Así que Page sugirió que Kurzweil, que nunca había tenido un trabajo excepto en sus propias compañías, se uniera a Google. 

 Kurzweil no tardó mucho tiempo en tomar una decisión: en enero comenzó a trabajar para Google como director de ingeniería. "Esta es la culminación de literalmente 50 años centrado en la inteligencia artificial", señala.

Kurzweil no solo se sintió atraído por los recursos informáticos de Google, sino también por el sorprendente progreso que la compañía ha hecho en una rama de la IA denominada aprendizaje profundo. El software de aprendizaje profundo intenta imitar la actividad de las distintas capas de neuronas en la corteza cerebral, el arrugado 80 por ciento del cerebro donde se produce el pensamiento. El software aprende, en un sentido muy real, a reconocer patrones en representaciones digitales de sonidos, imágenes y otros datos.
La idea de base, es decir, que el software pueda simular la gran variedad de neuronas del neocórtex en una 'red neuronal' artificial, tiene décadas de antigüedad, y ha dado lugar a tantas decepciones como avances. Sin embargo, debido a las mejoras en las fórmulas matemáticas y al uso de ordenadores cada vez más potentes, los científicos informáticos pueden hoy día modelar muchas más capas de neuronas virtuales que antes.

Gracias a esta mayor profundidad, se están produciendo avances notables en el reconocimiento del habla e imágenes. En junio pasado, un sistema de aprendizaje profundo de Google, al que se le habían mostrado 10 millones de imágenes de vídeos de YouTube, logró ser casi dos veces mejor que cualquier esfuerzo de reconocimiento de imagen anterior a la hora de identificar objetos como por ejemplo gatos. Google también ha utilizado la tecnología para reducir la tasa de errores en el reconocimiento de voz en su último software Android para teléfonos móviles. En octubre, el director de investigación de Microsoft, Rick Rashid, cautivó a los asistentes a una conferencia en China con una demostración de software de voz que transcribió sus palabras habladas a texto en inglés con una tasa de error del 7 por ciento, después lo tradujo a texto en chino, y más tarde simuló su propia voz para pronunciar el texto en mandarín. Ese mismo mes, un equipo de tres estudiantes de posgrado y dos profesores ganó un concurso realizado por Merck para identificar moléculas que pudieran conducir a nuevos fármacos. El grupo utilizó el aprendizaje profundo para centrarse en aquellas moléculas más propensas a unirse a sus objetivos.

Google, en particular, se ha convertido en un imán para todos los profesionales del aprendizaje profundo y la IA. En marzo, la compañía compró una start-up cofundada por Geoffrey Hinton, profesor de ciencias informáticas de la Universidad de Toronto (Canadá), que fue parte del equipo que ganó el concurso de Merck. Hinton, que dividirá su tiempo entre la universidad y Google, señala que planea "sacar ideas de este campo y aplicarlas a problemas reales", como el reconocimiento de imágenes, las búsquedas y la comprensión de lenguaje natural, asegura.

Todo esto hace que los investigadores dedicados a la IA, que normalmente son bastante cautelosos, tengan la esperanza de que las máquinas inteligentes puedan, finalmente, ir más allá de las páginas de ciencia ficción. De hecho, la inteligencia artificial está empezando a transformarlo todo, desde las comunicaciones y la informática hasta la medicina, la industria manufacturera y el transporte. Las posibilidades resultan evidentes en casos como el ordenador Watson de IBM, ganador del concurso americano de preguntas y repuestas Jeopardy!, que utiliza algunas técnicas de aprendizaje profundo y hoy día está siendo entrenado para ayudar a los médicos a tomar mejores decisiones. Microsoft ha incorporado el aprendizaje profundo a su teléfono Windows y la búsqueda por voz de Bing.

Extender el aprendizaje profundo a aplicaciones más allá del reconocimiento del habla e imágenes requerirá más avances conceptuales y de software, por no hablar de muchos más avances en potencia de procesamiento. Y es probable que no contemos con máquinas que todos consideremos capaces de poder pensar por sí mismas durante años, quizá décadas, si es que alguna vez logran crearse. Pero por ahora, según Peter Lee, director de Microsoft Research EE.UU., el "aprendizaje profundo ha reavivado algunos de los grandes retos de la inteligencia artificial".

La construcción de un cerebro
Se han dado muchos enfoques opuestos para superar esos desafíos. Uno de ellos ha consistido en aportar a los ordenadores información y reglas sobre el mundo, lo cual ha exigido a los programadores escribir laboriosamente un tipo de software que estuviera familiarizado con los atributos de, por ejemplo, un borde o un sonido. Eso ha llevado muchísimo tiempo y aún así los sistemas no pueden hacer frente a datos ambiguos. Se limitan a aplicaciones de corto alcance y controladas, como por ejemplo sistemas de menú de teléfono que te pidan que hagas consultas diciendo palabras específicas.

Las redes neuronales, desarrolladas en la década de los 50 poco después de los albores de la investigación en IA, parecía prometedora puesto que trataba de simular la forma en que el cerebro funcionaba, aunque de modo muy simplificado. Un programa traza un conjunto de neuronas virtuales y asigna valores numéricos aleatorios, o 'pesos', a las conexiones entre ellas. Estos pesos determinan cómo responde cada neurona simulada, con una salida matemática entre 0 y 1, ante una característica digitalizada, como por ejemplo un borde o un tono de azul en una imagen, o a un nivel de energía en una frecuencia particular de un fonema, la unidad individual de sonido en sílabas habladas.

Algunas de las redes neuronales artificiales de hoy día pueden ser entrenadas para reconocer patrones complejos.

Los programadores podrían formar una red neuronal para detectar un objeto o un fonema mediante el bombardeo de la red con versiones digitalizadas de imágenes que contengan esos objetos u ondas sonoras que contengan los fonemas. Si la red no reconoce con precisión un patrón particular, un algoritmo ajustaría los pesos. El objetivo final de este entrenamiento era conseguir que la red reconociera de forma consistente patrones de discurso o conjuntos de imágenes que nosotros los humanos conocemos como, por ejemplo, el fonema 'd' o la imagen de un perro. Esto se parece mucho a la forma en que un niño aprende qué es un perro mediante la observación de los detalles de la forma de la cabeza, el comportamiento y otras características en animales peludos y que ladran, conocidos por las personas como perros.

Sin embargo, las redes neuronales iniciales solo podían simular un número muy limitado de neuronas al mismo tiempo, por lo que no podían reconocer patrones de gran complejidad. Acabaron languideciendo a lo largo de la década de los 70.

A mediados de la década de los 80, Hinton y otros expertos contribuyeron a un renacimiento del interés en las redes neuronales con los llamados modelos 'profundos', que hacían un mejor uso de varias capas de neuronas de software. Sin embargo, la técnica todavía requería una gran cantidad de intervención humana: los programadores tenían que etiquetar los datos antes de dárselos a la red. Y el reconocimiento del habla o imágenes complejas requería más potencia informática de la que entonces estaba disponible.

Finalmente, sin embargo, en la última década Hinton y otros investigadores hicieron algunos avances conceptuales fundamentales. En 2006, Hinton desarrolló una forma más eficiente de entrenar a las capas individuales de neuronas. La primera capa aprende características primitivas, como un borde en una imagen o la unidad más pequeña de sonido del habla. Lo hace buscando combinaciones de píxeles digitales u ondas de sonido que se produzcan con más frecuencia de lo que deberían por casualidad. Una vez que esa capa reconoce con precisión esas características, son enviadas a la capa siguiente, que se entrena a sí misma para reconocer características más complejas, como una esquina o una combinación de sonidos del habla. El proceso se repite en capas sucesivas hasta que el sistema puede reconocer con seguridad fonemas u objetos.

Un ejemplo son los gatos. En junio pasado, Google hizo una demostración de una de las mayores redes neuronales creadas hasta ahora, con más de mil millones de conexiones. Un equipo dirigido por el profesor de informática de Stanford Andrew Ng y el Miembro de Google Jeff Dean mostró al sistema imágenes de 10 millones de videos de YouTube elegidos al azar. Una neurona simulada en el modelo de software se centró en las imágenes de gatos. Otras se centraron en rostros humanos, flores amarillas y otros objetos. Y gracias a la potencia del aprendizaje profundo, el sistema identificó estos objetos discretos a pesar de que ningún humano jamás los había definido o etiquetado.

Lo que sorprendió a algunos expertos de IA, sin embargo, fue la magnitud de la mejora en el reconocimiento de imágenes. El sistema clasificó correctamente los objetos y temas de las imágenes de YouTube el 16 por ciento de las veces. Esto quizá no suene demasiado impresionante, pero resultó ser un 70 por ciento mejor que los métodos anteriores. Además, Dean señala que se podía elegir entre 22.000 categorías. Asignar de forma correcta los objetos en algunas de ellas requería, por ejemplo, distinguir entre dos variedades similares de pez raya. Eso habría sido difícil incluso para la mayoría de los seres humanos. Cuando se le pidió al sistema clasificar las imágenes en 1000 categorías más generales, la tasa de precisión subió por encima del 50 por ciento.

Una gran cantidad de datos
El entrenamiento de las numerosas capas de neuronas virtuales en el experimento requirió 16.000 procesadores, el tipo de infraestructura de computación que Google ha desarrollado para su motor de búsqueda y otros servicios. Al menos el 80 por ciento de los recientes avances en IA se pueden atribuir a la disponibilidad de más potencia informática, estima Dileep George, cofundador de la start-up de aprendizaje de máquinas Vicarious.

Sin embargo, se requiere algo más aparte del enorme tamaño de los centros de datos de Google. El aprendizaje profundo también se ha beneficiado del método de división de las tareas de computación entre muchas máquinas, para así poder efectuarlas con mayor rapidez. Esa es una tecnología que Dean ayudó a desarrollar con anterioridad, a lo largo de su carrera de 14 años en Google. Acelera enormemente el entrenamiento de las redes neuronales de aprendizaje profundo, permitiendo a Google trabajar con redes más grandes y usar muchos más datos con ellas.

El aprendizaje profundo ya ha logrado mejorar la búsqueda por voz en los teléfonos inteligentes. Hasta el año pasado, el software Android de Google utilizaba un método que entendía mal muchas palabras. Sin embargo, durante la preparación de una nueva versión de Android en julio pasado, Dean y su equipo ayudaron a reemplazar parte del sistema de voz por uno basado en el aprendizaje profundo. Puesto que las múltiples capas de neuronas permiten un entrenamiento más preciso basado en las múltiples variantes de un sonido, el sistema puede reconocer fragmentos de sonido de forma más fiable, especialmente en entornos ruidosos como una plataforma de metro. Y puesto que es más probable que entienda lo que realmente se ha pronunciado, es más probable que el resultado que devuelva sea también preciso. En muy poco tiempo, el número de errores se redujo hasta en un 25 por ciento, y los resultados son tan buenos que muchos críticos consideran actualmente que la búsqueda de voz de Android es más inteligente que la del famoso asistente de voz Siri de Apple.

A pesar de todos los avances, no todo el mundo cree que el aprendizaje profundo pueda llevar la inteligencia artificial hasta un punto en que rivalice con la inteligencia humana. Algunos críticos señalan que el aprendizaje profundo y la IA en general ignora gran parte de la biología del cerebro en favor de la fuerza bruta de computación.

Uno de estos críticos es Jeff Hawkins, fundador de Palm Computing, cuya última empresa, Numenta, está desarrollando un sistema de aprendizaje automático que se inspira en la biología, pero no utiliza el aprendizaje profundo. El sistema de Numenta puede ayudar a predecir los patrones de consumo de energía y la probabilidad de que una máquina, como por ejemplo una turbina eólica, esté a punto de fallar. Hawkins, autor del libro On Intelligence en 2004, que trata sobre el funcionamiento del cerebro y la forma en que podría proporcionar una guía para la construcción de máquinas inteligentes, señala que el aprendizaje profundo no tiene en cuenta el concepto de tiempo. Los cerebros procesan flujos de datos sensoriales, asegura, y el aprendizaje humano depende de nuestra capacidad para recordar secuencias de patrones: cuando ves un vídeo de un gato haciendo algo divertido, lo que importa es el movimiento, y no una serie de imágenes fijas como las que Google utilizó en su experimento. "Para Google, usar una gran cantidad de datos lo compensa todo", afirma Hawkins.

Pero incluso si no lo compensa todo, los recursos informáticos que una empresa como Google ha dedicado a estos problemas no pueden ser ignorados. Son cruciales, afirman los defensores del aprendizaje profundo, ya que el cerebro es aún mucho más complejo que cualquiera de las redes neuronales actuales. "Se necesitan muchísimos recursos computacionales para que las ideas funcionen", afirma Hinton.

¿Qué es lo próximo?
Aunque Google da muy pocos detalles sobre aplicaciones futuras, las perspectivas son muy interesantes. Está claro que por ejemplo una mejor búsqueda de imágenes ayudaría a YouTube. Y Dean señala que los modelos de aprendizaje profundo pueden utilizar datos de fonemas en inglés para entrenar rápidamente a los sistemas y que reconozcan sonidos hablados en otros idiomas. También es probable que el uso de un reconocimiento de imagen más sofisticado pueda hacer que los coches autoconducidos de Google mejoren notablemente. Además están las búsquedas y los anuncios relacionados con todo ello. Ambas cosas podrían mejorar enormemente gracias a cualquier tecnología que sea mejor y más rápida a la hora de reconocer lo que la gente realmente esté buscando, tal vez incluso antes de que se den cuenta.

Sergey Brin ha dicho que quiere construir una versión benigna de HAL en 2001: Una odisea del espacio.

Esto es lo que intriga a Kurzweil, de 65 años, que desde hace mucho tiempo tiene su propia visión sobre las máquinas inteligentes. En la escuela secundaria, escribió un programa que permitió a un ordenador crear música original en varios estilos clásicos, y del que hizo una demostración en 1965 en el programa estadounidense de televisión I've Got a Secret. Desde entonces, entre sus inventos se encuentran varias primicias: una máquina de lectura de impresión a voz, un software capaz de escanear y digitalizar textos impresos en cualquier tipo de letra, sintetizadores de música para recrear el sonido de los instrumentos de una orquesta, y un sistema de reconocimiento de voz con un amplio vocabulario.

Actualmente tiene en mente un 'amigo cibernético' que escuche nuestras conversaciones telefónicas, lea el correo electrónico y realice un seguimiento de todos nuestros movimientos, si se lo permitimos, por supuesto, para que nos pueda decir cosas que queramos saber, incluso antes de preguntarlas. Este no es su objetivo inmediato en Google, pero coincide con el del cofundador de la empresa, Sergey Brin, quien afirmó durante los primeros días de la compañía que quería construir el equivalente al ordenador HAL en 2001: Una odisea del espacio, con la salvedad de que este no mataría a nadie.

Por ahora, Kurzweil tiene como objetivo ayudar a los ordenadores a entender e incluso hablar en lenguaje natural. "Mi misión es dar a los ordenadores suficiente comprensión del lenguaje natural para hacer cosas útiles: mejorar búsquedas, mejorar la respuesta a preguntas", señala. Esencialmente, espera crear una versión más flexible del ordenador Watson de IBM, que admira por su capacidad de entender frases de Jeopardy! tan singulares como "un largo y tedioso discurso pronunciado por un pastel de espuma batida". (La respuesta correcta de Watson: "¿Qué es una arenga merengue?")

Kurzweil no se centra exclusivamente en el aprendizaje profundo, aunque señala que su enfoque para el reconocimiento de voz se basa en teorías similares acerca del funcionamiento del cerebro. Quiere modelar el significado real de las palabras, frases y oraciones, incluyendo ambigüedades con las que suelan tropezar los ordenadores. "Tengo una idea sobre un modo gráfico de representar el significado semántico de la lengua", asegura.

A su vez, esto requerirá crear gráficos de la sintaxis de las oraciones de una forma más integral. Google ya está utilizando este tipo de análisis para mejorar la gramática en las traducciones. La comprensión de lenguaje natural también requerirá que los ordenadores entiendan lo que los humanos piensan como significado de sentido común. Para ello, Kurzweil hará uso del Gráfico del Conocimiento, el catálogo de Google sobre unos 700 millones de temas, lugares, personas y más datos, además de miles de millones de relaciones entre ellos. Se presentó el año pasado como forma de proporcionar a los buscadores respuestas a sus consultas, y no solo enlaces.

Por último, Kurzweil tiene previsto aplicar algoritmos de aprendizaje profundo para ayudar a los ordenadores a hacer frente a los "límites y ambigüedades del lenguaje". Si todo esto suena desalentador, es porque lo es. "La comprensión del lenguaje natural no es un objetivo que se alcance en algún momento dado, y lo mismo ocurre con las búsquedas", afirma. "No es un proyecto que creo que vaya a acabar jamás".

Aunque la visión de Kurzweil está todavía a años de convertirse en una realidad, es probable que el aprendizaje profundo impulse otras aplicaciones más allá del reconocimiento del habla y las imágenes a más corto plazo. Por un lado, está el descubrimiento de fármacos. La victoria por sorpresa del grupo de Hinton en el concurso de Merck demostró claramente la utilidad del aprendizaje profundo en un campo en el que muy poca gente esperaba que lograse crear algún tipo de impacto.

Eso no es todo. Peter Lee desde Microsoft afirma que las primeras investigaciones sobre los usos potenciales del aprendizaje profundo en la visión de máquinas son prometedoras. Estas tecnologías usan imágenes para aplicaciones tales como la inspección industrial y la guía de robots. También prevé la creación de sensores personales que las redes neuronales profundas podrían utilizar para predecir problemas médicos. Y sensores en toda la ciudad que enviarían datos a sistemas de aprendizaje profundos que podrían, por ejemplo, predecir dónde van a producirse atascos.

En un campo que trata de algo tan profundo como el modelado del cerebro humano, es inevitable que una técnica no vaya a resolver todos los problemas. Pero por ahora, esta está liderando el camino dentro de la inteligencia artificial. "El aprendizaje profundo", señala Dean, "es una metáfora muy potente para aprender sobre el mundo".

fuente/La Flecha
Vía/ TECHNOLOGYREVIEW.COM

miércoles, 15 de mayo de 2013

Cómo afecta la música a nuestro cerebro. Acompañados del violín de Taylor Davis lo entenderéis mejor, ya veréis. No somos el "Último Mohicano" pero "ahora si somos libres".



Escuchar una canción alegre puede subir nuestro animo , si oímos un tema deprimente, sentirnos pesimistas o, en el caso de una melodía suave, relajarnos y afrontar mejor el momento.

No hay duda de que la música afecta nuestro estado anímico y provoca una serie de sensaciones, pero ¿Sabes cómo afecta la música a nuestro cerebro? Un estudio de la Universidad de Florida, lo reveló.

Dónde se interpretan la música en la estructura cerebral

Como-afecta-la-musica-a-nuestro-cerebro-2.jpg
Todo lo que hacemos, responde a la acción de diferentes zonas del cerebro y, en el caso de la música, esta se descompone e interpreta de forma separada:

Ritmo: Corteza frontal izquierda, corteza parietal izquierda, cerebelo derecho.
Tono: Corteza pre frontal, cerebelo, lóbulo temporal.

Letra: Área de de Wemicke, Área de Broca, Corteza motora, Corteza Visual y las zonas correspondientes a las respuestas emocionales.

Como ven, la música despierta a casi todo el cerebro y, no por nada muchos de los genios más importantes, como Einstein, tenían una fuerte pasión por ella. Además, se cree que influye en el desarrollo de la inteligencia.



Qué efectos provoca la música en nuestro cerebro y salud

La música, demostró influir no sólo en el estado actual al momento de escucharla, sino que también en el desarrollo de las personas a largo plazo. Estudios, indican que puede ser beneficial para el tratamiento de algunas enfermedades.

Quienes escuchan música desde pequeños y de forma constante, tienen mejores habilidades de lenguaje, son mas creativos y felices.

El oír música, ayuda a bajar los niveles de ansiedad, disminuir el dolor, hacer más rápida la recuperación de los enfermos, además de convertimos en personas más optimistas.

Existen varios desordenes neurológicos que, si bien no tienen cura, utilizan la música como una forma de tratamiento. Entre ellos están el Alzheimer, enfermedad de Parkinson, síndrome de Tourette y las diferentes formas de autismo.

Un estudio en Estados Unidos comprobó que quienes tenían algún tipo de educación musical, ya sea en interpretación de instrumentos o apreciación, rendían mejor en los exámenes de ingreso a la universidad.

Quienes estudiaron apreciación musical, sacaron 61 puntos más que sus pares en pruebas verbales y 42 en las matemáticas. En el caso de quienes tocaban instrumentos, la diferencia fue de 53 y 39 puntos respectivamente.

Qué esperas. Mejora tu día a día y hasta tu salud, con agradables melodías que no sólo te hacen sentir mejor, sino que suben tu intelecto. ( fuente del texto/Ojo Científico)



jueves, 4 de abril de 2013

Entrelazamiento cuántico o “efecto de dios”: el pegamento entre el espíritu y la materia.



El entrelazamiento cuántico, descrito como el parteaguas entre la física moderna y la clásica y también llamado “el efecto de Dios”, parece servir como un cordón inmaterial que conecta todas las cosas del universo y tiende un puente entre la materia y el espíritu

Las cosas que han estado alguna vez en contacto entre sí siguen influyéndose mutuamente a distancia tras haberse cortado el contacto físico

En las últimas décadas la física cuántica ha tomado una enorme popularidad entre los no iniciados, principalmente por virar el materialismo característico de la ciencia hacia antiguas filosofías como el idealismo o religiones tan atractivas para la mente posmoderna como el budismo. Tiende un puente: la ciencia originalmente no se distingue de la filosofía: ambas buscan describir y entender la naturaleza (o el universo); la naturaleza, que en un inicio era concebida como la manifestación visible del espíritu. Es parte de la interpretación popular de la física cuántica (ampliamente criticada por científicos que en ocasiones no logran salir de la “caja”): hacer del mundo algo en lo que la mente participa o al menos algo que se parece más a lo mental que a lo inerte y meramente mecánico. A mi juicio atinadamente, el filósofo y físico de Yale Abner Shimony llamó a esta vertiente de la física “metafísica experimental”.

Una de las cosas que ha hecho a la física cuántica tan atractiva para la mente popular, con cierta inclinación a la espiritualidad, es que ha demostrado que el acto de observar un objeto afecta el estado de lo que se observa. Este “efecto del observador” se explica por la interacción inevitable entre un instrumento y el fenómeno que se observa. Por otra parte, el principio de indeterminación de Heisenberg señala que la posición y el momentum de una partícula no pueden determinarse hasta que no es medida —existe en un estado de superposición, está, por así decirlo, en todas partes antes de ser medida u observada. La interpretación popular, que extrapola el mundo micróscopico, espectral e implicado del quantum al mundo macroscópico, que se caracteriza por el dar sentido: la explicación, ha entendido esto como que al observar cualquier fenómeno, al percibir algo, lo modificamos: la mirada transforma e incluso, bajo cierta influencia del new age, al percibir (o al creer en) algo lo estamos (co)creando. El escritor Robert Anton Wilson desarolló toda una teoría de psicología cuántica agnóstica de la realidad bajo este principio:

Cada modelo que construimos nos dice más sobre nuestra mente que sobre el universo… el universo es más grande que cualquiera de nuestros modelos… cada descripción del universo es una descripción del instrumento que utilizamos para describir el universo (la mente humana).

Entre el tesoro de rarezas que descubrió la física cuántica al penetrar en el átomo, probablemente la más significativa y maravillosa sea el entrelazamiento cuántico. Desde 1935 el físico Erwin Schrödinger notó una propiedad peculiar en la materia subatómica que llamó ”entrelazamiento” (entanglement, en inglés). Esto es, cuando dos sistemas cuánticos entran en contacto entre sí permanecen conectados instantáneamente, como si fueran parte de un todo indivisible. Schrödinger rápidamente apuntó que esta era la diferencia fundamental entre la teoría cuántica y la física clásica.

Actualmente el entrelazamiento cuántico se entiende como un proceso en el que una sola función de onda describe dos objetos separados, los cuales comparten una misma existencia no obstante lo lejos que puedan estar entre sí, como si estuvieran unidos por un cordón umbilical invisible o una onda que, en teoría, se puede propagar por todo el universo. Dos partículas que se han entrelazado tienen una descripción definida juntas, pero cada partícula por separada yace en un estado completamente indefinido: podemos decir que no existe la una sin la otra (aunque una partícula pudiera estar en las Pléyades y la otra entrando a tu pupila en la Tierra: photons that did tango, can never untangle). El entrelazamiento cuántico, que ha sido observado principalmente entre fotones, ha sido descrito por Henry Stapp en los términos de “luz gemela”, una “disposición correlacionada a responder”.


Albert Einstein desdeñó este aspecto de la mecánica cuántica con su famosa frase de “acción fantasmal a distancia”. Einstein, por supuesto, había impuesto un límite de velocidad al universo y no concebía posible un efecto superlumínico. Sin embargo, el físico irlandés John Bell demostró con su famoso teorema que el entrelazamiento cuántico sí ocurre (algo que ha sido confirmado en repetidas ocasiones, como es el caso del famoso experimento de Aspect).

Ahora bien, este misterioso efecto de entrelazamiento a distancia difíicilmente se explica por una fuerza física que pueda viajar más allá de la velocidad de la luz para transmitir un estado cuántico entre dos partículas (de existir ciertamente se mantiene fantasmal). Bell describió esta conexión entre partículas como “no-local”, es decir que no tiene una ubicación en el espacio. Dice Nick Herbert:

Las interacciones no-locales, de existir, serían una especie de vudú de la física en el que una partícula influye en la otra, no a través de una fuerza de campo convencional, sino simplemente porque se han tocado alguna vez en el pasado distante.

Pese a observarse en el laboratorio repetidas veces este fenómeno que afecta a los bloques fundacionales de la materia que conforma a todas las cosas del universo, existe cierta reluctancia a darle importancia al entrelazamiento cuántico. Nuestra vida en el mundo macro discurre sin detenernos a pensar en lo que significa que todas las partículas que han estado en contacto entre sí tengan esta propiedad de conexión cuántica instántanea: no se nos ocurre pensar que estamos entrelazados con ciertas personas, con ciertos objetos, con ciertas ideas que siguen influyéndonos a distancia. Recientemente, sin embargo, científicos han notado que diversos fenómenos “macroscópicos” —como la fotosíntesis y la navegación de las aves— parecen estar ligados al entrelazmiento cuántico. Aún más interesante es la teoría de que nuestro ADN se mantiene unido debido a esta conexión cuántica.

Elisabeth Rieper y colegas de la Universidad Nacional de Singapur dicen que este entrelazamiento es lo que mantiene unida la doble hélice del ADN. Según el sitio Technology Review de MIT, Rieper y sus colegas usaron un modelo teórico del ADN en el que cada nucleótido consiste en una serie de electrones orbitando un núcleo cargado positivamente. 

El movimiento de la nube negativa es un oscilador armónico. Cuando los nucleótidos se unen para forma un par de bases, las nubes deben de oscilar en direcciones opuestas o la estructura no será estable. Rieper y sus colegas se preguntaron qué le sucedería a esas oscilaciones si los pares bases estuvieran apilados en una doble hélice. La hélice debería de vibrar y deshacerse, pero esto no sucede, ya que las oscilaciones ocurren como una serie de estados de superposición —lo que significa que oscilan en todos los estados posibles al mismo tiempo. Un entrelazmiento cuántico lo mantiene todo unido [Daily Galaxy].

Que el ADN esté unido por entrelazamiento cuántico es altamente significativo, y por otra parte algo que podría anticiparse bajo cierto entendimiento de la selección natural y la evolución. Siendo que el ADN es fundamentalmente un programa (bio)informático que ha logrado replicarse con éxito —una especie chip cósmico o libro orgánico (¿el axis mundi de la galaxia?)— y que la forma más efectiva de transmitir información de la cual tenemos conocimiento es el entrelazamiento cuántico, es lógico pensar que el código genético esté vinculado entre sí de esta forma: con el pegamento más potente del universo (curiosamente es esa “oscilación de todos los estados posibles al mismo tiempo” lo que le da cohesión, una especie de omni-potencia cuántica).

Además de la teoría expuesta por los investigadores de la Universidad de Singapur, el Premio Nobel de Química Luc Montagnier publicó el año pasado un trabajo en el que sugiere que el ADN emite señales electromagnéticas que imprimen su estructura en otras moléculas, algo similar a una teleportación de información, o en otras palabras entrelazamiento cuántico. 

El experimento realizado por Montagnier ha generado gran controversia y poca aceptación entre la comunidad científica, de cualquier forma avanza hacia una elegante intuición —que parece reflejarse en la naturaleza. Aún menos aceptado es el trabajo del científico ruso Pjotr Garjaje quien sostiene que el ADN es similar a un Internet cósmico. Lo siguiente del libro Vernetzte Intelligenz de Grazyna Fosar y Franz Bludor (traducción de fragmentos aquí):

De hecho, Pjotr y su equipo encontraron más paralelos aún entre la genética y la informática. Especulan que la estructura del “ADN basura” (el “segundo código” similar a la gramática del lenguaje humano) y su posibilidad de modificación, se deben a que el ADN no acumula toda la información necesaria en cada momento, sino que intercambia información permanentemente (la recibe, modifica y emite), de la misma forma que lo hace una computadora conectada a la web. Cada persona sería, siguiendo esta línea argumental, un nodo de una red o sistema (como Internet) que involucraría a muchos más individuos-nodos.

Hay que aclarar que Pjotr es una figura oscura, aparentemente miembro de la Academia de Ciencias de Moscú según algunos sitios web, de quien se tiene poca información y quien cree que el ADN no solo puede modificarse a través de la interacción de rayos de luz coherente (como lásers), también a través de las palabras —de manera similar a lo que sostiene Masuro Emoto con las moléculas de agua. Aclarando esto —que nos alejamos de la ciencia establecida— la posibilidad de que el ADN de un ser vivo no solo esté en un estado de entrelazamiento cuántico con cada una de sus células, sino con otros miembros de su especie (y quizás con todo el universo), es muy interesante. Es una forma de explicar la fascinante teoría de los campos mórficos del biólogo Rupert Sheldrake, quien sostiene que existen campos de información que organizan el desarrollo de una especie y sirven con una memoria de la naturaleza —de tal forma que se pueden transmitir hábitos y mutaciones de manera horizontal, sin tener que pasar de generación a generación.

En 1920 el embriólogo Alexander Gurwitsch descubrió que los seres vivos emiten fotones “ultra-débiles” dentro del espectro ultravioleta. Gurwitsch los llamó “rayos mitogénicos”, ya que creía que estos fotones tenían un papel importante en la división celular del campo morfogenético, es decir, en el desarrollo de la estructura morfológica de un ser vivo.

En la década de los 70 el profesor Fritz Albert Popp descubrió que esta emisión de luz, a la que llamó biofotones, se presentaba en un rango de entre 200 y 800 nm y que exhibía un patrón periódico y coherente. Popp teorizó que los biofotones son producidos por el ADN en el núcleo de las células. Esto fue demostrado en los años ochenta. El Dr. Jeremy Narby escribió en su libro The Cosmic Serpent:

Como el axis mundi de las tradiciones chamánicas, el ADN tiene una forma de escalera torcida (o una viña); de acuerdo a mi hipótesis, el ADN era, como el axis mundi, la fuente del conocimiento y las visiones chamánicas. Para estar seguro tenía que entender cómo el ADN podía transmitir información visual. Sabía que emitía fotones, que son ondas elctromagnéticas, y me acordé de lo que Carlos Perez Shuma me había dicho cuando comparó a los espíritus con ‘ondas de radio’. Una vez que prendes la radio, las puedes sintonizar. Es lo mismo con los espíritus; con la ayahuasca los puedes ver y escuchar. Así que investigué la literatura sobre fotones de origen biológico [...]

Narby formuló la hipótesis de que cuando los ayahuasqueros del Amazonas dicen comunicarse con los espíritus de las plantas, de sus ancestros o de la naturaleza, en realidad se están comunicando con el ADN de esas plantas o con su propio ADN (el cual tiene un campo holográfico) —y de esta forma obtienen información sumamente difícil de obtener por métodos de prueba y error, como fue en su momento el descubrimiento del curare. «Esta es la fuente del conocimiento: el ADN, viviendo en el agua y emitiendo fotones, como un dragón acuático escupiendo fuego».

Existe en la profundidad del misticismo humano una identidad entre el espíritu y la información, que ha sido recuperada con la física cuántica y con la era de la informática. Del gnosticismo al Internet. De Hermes a MSN. It from bit. Heisenberg escribió: “los átomos no son cosas, son solo tendencias, así que en vez de pensar en cosas, debes de pensar en posibilidades. Todos son posibilidades de conciencia”. 

Ervin Lazlo ha dicho que “la información es el software del universo“. Vemos hoy claramente que la información es lo que programa a la materia, lo que de alguna manera arde al interior del cuerpo (la manifestación más conspicua de aquello que llamamos alma —”el sol invisible”— es la información, el código). La versión de Erik Davis del Génesis:

En el principio era la Info, y la Info estaba con Dios, y la Info era Dios.

Davis, en su texto Images of Spiritual Information, añade: “El medio es el mensaje y el mensaje es el espíritu al interior que viene de fuera, señal y ruido cruzando las fronteras entre sí en el flujo feroz del desdoblamiento”.

Si el Logos o Espíritu en verdad es omnipresente, entonces debe de contar con los servicios de mensajería instantánea del entrelazamiento cuántico. No por nada el escritor Brian Clegg ha titulado su libro sobre el entrelazamiento cuántico “El Efecto de Dios“, como si este fuera el resultado de la materialización de la divinidad en el universo: el sello elástico de la unidad.


Según el físico Nick Herbert, el teorema de Bell revela que los hechos que experimentamos en el mundo “no pueden ser simulados por una realidad local subyacente. Cualquier realidad que se ajuste a los hechos debe de ser no-local [...]. El teorema de Bell muestra que debajo del mundanal ruido de nuestra existencia local yace oculta una realidad cuántica vudú conectada superlumínicamente que es necesaria para que este mundo ordinario opere”.

Esta realidad subyacente es lo que David Bohm llamó el orden implicado, un mar de energía del cual se desprende nuestra existencia apenas como la onda que se forma sobre la superficie de un lago cuando se lanza una piedra. Es también lo que Arthur Schopenhauer llamó el Mundo de la Voluntad (nuestra realidad explícita es el Mundo de la Representación: el Maia, la Matrix). Es también el mundo del Nagual, que expone Don Juan Matus según Carlos Castaneda y que podría ser parte de la tradición oculta tolteca. Es el mundo del Espíritu, el Brahman. 

El entrelazamiento cuántico parece ser el cordón umbilical (de luz comunicante) entre la dimensión de unidad divina absoluta y el mundo material de la multiplicidad, que es una falsa caída o división, ya que, por el mismo entrelazamiento cuántico, el Espíritu sigue irradiando, transmitiéndose a sí mismo a través de nosotros. In-formándonos.

Con información de Quantum Tantra y de MIT Technology Review
fuente/ Pijamasurf.com