sábado, 30 de mayo de 2015

La Teoría Cuántica, una aproximación al universo probable

Es un conjunto de nuevas ideas que explican procesos incomprensibles para la física de los objetos


La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Recoge un conjunto de nuevas ideas introducidas a lo largo del primer tercio del siglo XX para dar explicación a procesos cuya comprensión se hallaba en conflicto con las concepciones físicas vigentes. Su marco de aplicación se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica, en la física de nuevos materiales, en la física de altas energías, en el diseño de instrumentación médica, en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. La Teoría Cuántica es una teoría netamente probabilista: describe la probabilidad de que un suceso dado acontezca en un momento determinado, sin especificar cuándo ocurrirá. A diferencia de lo que ocurre en la Física Clásica, en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina. Por Mario Toboso.





La Teoría Cuántica, una aproximación al universo probable
La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Se trata de una teoría que reúne un formalismo matemático y conceptual, y recoge un conjunto de nuevas ideas introducidas a lo largo del primer tercio del siglo XX, para dar explicación a procesos cuya comprensión se hallaba en conflicto con las concepciones físicas vigentes. 

Las ideas que sustentan la Teoría Cuántica surgieron, pues, como alternativa al tratar de explicar el comportamiento de sistemas en los que el aparato conceptual de la Física Clásica se mostraba insuficiente. Es decir, una serie de observaciones empíricas cuya explicación no era abordable a través de los métodos existentes, propició la aparición de las nuevas ideas. 

Hay que destacar el fuerte enfrentamiento que surgió entre las ideas de la Física Cuántica, y aquéllas válidas hasta entonces, digamos de la Física Clásica. Lo cual se agudiza aún más si se tiene en cuenta el notable éxito experimental que éstas habían mostrado a lo largo del siglo XIX, apoyándose básicamente en la mecánica de Newton y la teoría electromagnética de Maxwell (1865). 

“Dos nubecillas” 

Era tal el grado de satisfacción de la comunidad científica que algunos físicos, entre ellos uno de los más ilustres del siglo XIX, William Thompson (Lord Kelvin), llegó a afirmar: 

Hoy día la Física forma, esencialmente, un conjunto perfectamente armonioso, ¡un conjunto prácticamente acabado! ... Aun quedan “dos nubecillas” que oscurecen el esplendor de este conjunto. La primera es el resultado negativo del experimento de Michelson-Morley. La segunda, las profundas discrepancias entre la experiencia y la Ley de Rayleigh-Jeans. 

La disipación de la primera de esas “dos nubecillas” condujo a la creación de la Teoría Especial de la Relatividad por Einstein (1905), es decir, al hundimiento de los conceptos absolutos de espacio y tiempo, propios de la mecánica de Newton, y a la introducción del “relativismo” en la descripción física de la realidad. La segunda “nubecilla” descargó la tormenta de las primeras ideas cuánticas, debidas al físico alemán Max Planck (1900). 

El origen de la Teoría Cuántica 

¿Qué pretendía explicar, de manera tan poco afortunada, la Ley de Rayleigh-Jeans (1899)? Un fenómeno físico denominado radiación del cuerpo negro, es decir, el proceso que describe la interacción entre la materia y la radiación, el modo en que la materia intercambia energía, emitiéndola o absorbiéndola, con una fuente de radiación. Pero además de la Ley de Rayleigh-Jeans había otra ley, la Ley de Wien (1893), que pretendía también explicar el mismo fenómeno. 

La Ley de Wien daba una explicación experimental correcta si la frecuencia de la radiación es alta, pero fallaba para frecuencias bajas. Por su parte, la Ley de Rayleigh-Jeans daba una explicación experimental correcta si la frecuencia de la radiación es baja, pero fallaba para frecuencias altas. 

La frecuencia es una de las características que definen la radiación, y en general cualquier fenómeno en el que intervengan ondas. Puede interpretarse la frecuencia como el número de oscilaciones por unidad de tiempo. Toda la gama de posibles frecuencias para una radiación en la Naturaleza se hallan contenidas en el espectro electromagnético, el cual, según el valor de la frecuencia elegida determina un tipo u otro de radiación. 

En 1900, Max Planck puso la primera piedra del edificio de la Teoría Cuántica. Postuló una ley (la Ley de Planck) que explicaba de manera unificada la radiación del cuerpo negro, a través de todo el espectro de frecuencias. 

La hipótesis de Planck 

¿Qué aportaba la ley de Planck que no se hallase ya implícito en las leyes de Wien y de Rayleigh-Jeans? Un ingrediente tan importante como novedoso. Tanto que es el responsable de la primera gran crisis provocada por la Teoría Cuántica sobre el marco conceptual de la Física Clásica. Ésta suponía que el intercambio de energía entre la radiación y la materia ocurría a través de un proceso continuo, es decir, una radiación de frecuencia f podía ceder cualquier cantidad de energía al ser absorbida por la materia. 

Lo que postuló Planck al introducir su ley es que la única manera de obtener una fórmula experimentalmente correcta exigía la novedosa y atrevida suposición de que dicho intercambio de energía debía suceder de una manera discontinua, es decir, a través de la emisión y absorción de cantidades discretas de energía, que hoy denominamos “quantums” de radiación. La cantidad de energía E propia de un quantum de radiación de frecuencia f se obtiene mediante la relación de Planck: E = h x f, siendo h la constante universal de Planck = 6’62 x 10 (expo-34) (unidades de “acción”). 

Puede entenderse la relación de Planck diciendo que cualquier radiación de frecuencia f se comporta como una corriente de partículas, los quantums, cada una de ellas transportando una energía E = h x f, que pueden ser emitidas o absorbidas por la materia. 

La hipótesis de Planck otorga un carácter corpuscular, material, a un fenómeno tradicionalmente ondulatorio, como la radiación. Pero lo que será más importante, supone el paso de una concepción continuista de la Naturaleza a una discontinuista, que se pone especialmente de manifiesto en el estudio de la estructura de los átomos, en los que los electrones sólo pueden tener un conjunto discreto y discontinuo de valores de energía. 

La hipótesis de Planck quedó confirmada experimentalmente, no sólo en el proceso de radiación del cuerpo negro, a raíz de cuya explicación surgió, sino también en las explicaciones del efecto fotoeléctrico, debida a Einstein (1905), y del efecto Compton, debida a Arthur Compton (1923). 

Marco de aplicación de la Teoría Cuántica 

El marco de aplicación de la Teoría Cuántica se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes electrónicos), en la física de nuevos materiales, (semiconductores y superconductores), en la física de altas energías, en el diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. De manera que la Teoría Cuántica se extiende con éxito a contextos muy diferentes, lo que refuerza su validez. 

Pero, ¿por qué falla la teoría clásica en su intento de explicar los fenómenos del micromundo? ¿No se trata al fin y al cabo de una simple diferencia de escalas entre lo grande y lo pequeño, relativa al tamaño de los sistemas? La respuesta es negativa. Pensemos que no siempre resulta posible modelar un mismo sistema a diferentes escalas para estudiar sus propiedades. 

Para ver que la variación de escalas es un proceso con ciertas limitaciones intrínsecas, supongamos que queremos realizar estudios hidrodinámicos relativos al movimiento de corrientes marinas. En determinadas condiciones, podríamos realizar un modelo a escala lo suficientemente completo, que no dejase fuera factores esenciales del fenómeno. A efectos prácticos una reducción de escala puede resultar lo suficientemente descriptiva. 

Pero si reducimos la escala de manera reiterada pasaremos sucesivamente por situaciones que se corresponderán en menor medida con el caso real. Hasta llegar finalmente a la propia esencia de la materia sometida a estudio, la molécula de agua, que obviamente no admite un tratamiento hidrodinámico, y habremos de acudir a otro tipo de teoría, una teoría de tipo molecular. Es decir, en las sucesivas reducciones de escala se han ido perdiendo efectos y procesos generados por el aglutinamiento de las moléculas. 

De manera similar, puede pensarse que una de las razones por las que la Física Clásica no es aplicable a los fenómenos atómicos, es que hemos reducido la escala hasta llegar a un ámbito de la realidad “demasiado esencial” y se hace necesario, al igual que en el ejemplo anterior, un cambio de teoría. Y de hecho, así sucede: la Teoría Cuántica estudia los aspectos últimos de la substancia, los constituyentes más esenciales de la materia (las denominadas “partículas elementales”) y la propia naturaleza de la radiación.

Albert Einstein
Albert Einstein
Cuándo entra en juego la Teoría Cuántica 

Debemos asumir, pues, el carácter absoluto de la pequeñez de los sistemas a los que se aplica la Teoría Cuántica. Es decir, la cualidad “pequeño” o “cuántico” deja de ser relativa al tamaño del sistema, y adquiere un carácter absoluto. Y ¿qué nos indica si un sistema debe ser considerado “pequeño”, y estudiado por medio de la Teoría Cuántica? Hay una “regla”, un “patrón de medida” que se encarga de esto, pero no se trata de una regla calibrada en unidades de longitud, sino en unidades de otra magnitud física importante denominada “acción”. 

La acción es una magnitud física, al igual que lo son la longitud, el tiempo, la velocidad, la energía, la temperatura, la potencia, la corriente eléctrica, la fuerza, etc., aunque menos conocida. Y al igual que la temperatura indica la cualidad de frío o caliente del sistema, y la velocidad su cualidad de reposo o movimiento, la acción indica la cualidad de pequeño (cuántico) o grande (clásico) del sistema. Como la energía, o una longitud, todo sistema posee también una acción que lo caracteriza. 

Esta acción característica, A, se obtiene de la siguiente multiplicación de magnitudes: A = P x L, donde P representa la cantidad de movimiento característica del sistema (el producto de su masa por su velocidad) y L su “longitud” característica. La unidad de esa “regla” que mencionábamos, con la que medimos la acción de los sistemas, es la constante de Planck, h. Si el valor de la acción característica del sistema es del orden de la constante de Planck deberemos utilizar necesariamente la Teoría Cuántica a la hora de estudiarlo. 

Al contrario, si h es muy pequeña comparada con la acción típica del sistema podremos estudiarlo a través de los métodos de la teoría clásica. Es decir: Si A es del orden de h debemos estudiar el sistema según la Teoría Cuántica. Si A es mucho mayor que h, podemos estudiarlo por medio de la Física Clásica. 

Dos ejemplos: partículas y planetas 

Veamos dos ejemplos de acción característica en dos sistemas diferentes, aunque análogos: 

1. El electrón orbitando en torno al núcleo en el nivel más bajo de energía del átomo de hidrógeno. 

Vamos a calcular el orden de magnitud del producto P x L. P representa el producto de la masa del electrón por su velocidad orbital, esto es P = 10 (exp-31) (masa) x 10 (exp 6) (velocidad) = 10 (exp-25) (cantidad de movimiento). El valor característico de L corresponde al radio de la órbita, esto es, L = 10 (expo-10) (longitud). Realizamos ahora el producto P x L para hallar la magnitud de la “acción” característica asociada a este proceso: A1 = Px L = 10 (expo-25) x 10 (expo-10) = 10 (expo-35) (acción). 

2. El planeta Júpiter orbitando en torno al Sol (consideramos la órbita circular, para simplificar). 

Para este segundo ejemplo, realizamos cálculos análogos a los anteriores. Primeramente la cantidad de movimiento P, multiplicando la masa de Júpiter por su velocidad orbital: P = 10 (expo 26) (masa) x 10 (expo 4) (velocidad) = 10 (expo 30) (cantidad de movimiento). Igualmente, la longitud característica será la distancia orbital media: L = 10 (expo 11) (longitud). La magnitud de la acción característica en este segundo caso será: A2 = 10 (expo 30) x 10 (expo 11) = 10 (expo 41) (acción). 

Si comparamos estos dos resultados con el orden de magnitud de la constante de Planck tenemos: 

h = 10 (expo-34) 
A1 = 10 (expo -35) 
A2 = 10 (expo 41) 

Vemos que para el caso 1 (electrón orbitando en un átomo de hidrógeno) la proximidad en los órdenes de magnitud sugiere un tratamiento cuántico del sistema, que debe estimarse como “pequeño” en el sentido que indicábamos anteriormente, en términos de la constante de Planck, considerada como “patrón” de medida. Al contrario, entre el caso 2 (Júpiter en órbita en torno al Sol) y la constante de Planck hay una diferencia de 75 órdenes de magnitud, lo que indica que el sistema es manifiestamente “grande”, medido en unidades de h, y no requiere un estudio basado en la Teoría Cuántica. 

La constante de Planck tiene un valor muy, muy pequeño. Veámoslo explícitamente: 

h = 0’ 000000000000000000000000000000000662 (unidades de acción) 

El primer dígito diferente de cero aparece en la trigésimo cuarta cifra decimal. La pequeñez extrema de h provoca que no resulte fácil descubrir los aspectos cuánticos de la realidad, que permanecieron ocultos a la Física hasta el siglo XX. Allá donde no sea necesaria la Teoría Cuántica, la teoría clásica ofrece descripciones suficientemente exactas de los procesos, como en el caso del movimiento de los planetas, según acabamos de ver.

Breve cronología de la Teoría Cuántica 

1900. “Hipótesis cuántica de Planck” (Premio Nobel de Física, 1918). Carácter corpuscular de la radiación. 

1905. Einstein (Premio Nobel de Física, 1921) explica el “efecto fotoeléctrico” aplicando la hipótesis de Planck. 

1911. Experimentos de Rutherford, que establecen el modelo planetario átomo, con núcleo (protones) y órbitas externas (electrones). 

1913. Modelo atómico de Niels Bohr (Premio Nobel de Física, 1922). Tiene en cuenta los resultados de Rutherford, pero añade además la hipótesis cuántica de Planck. Una característica esencial del modelo de Bohr es que los electrones pueden ocupar sólo un conjunto discontinuo de órbitas y niveles de energía. 

1923. Arthrur Comptom (Premio Nobel de Física, 1927) presenta una nueva verificación de la hipótesis de Planck, a través de la explicación del efecto que lleva su nombre. 

1924. Hipótesis de De Broglie (Premio Nobel de Física, 1929). Asocia a cada partícula material una onda, de manera complementaria a cómo la hipótesis de Planck dota de propiedades corpusculares a la radiación. 

1925. Werner Heisenberg (Premio Nobel de Física, 1932) plantea un formalismo matemático que permite calcular las magnitudes experimentales asociadas a los estados cuánticos. 

1926. Erwin Schrödinger (Premio Nobel de Física, 1933) plantea la ecuación ondulatoria cuyas soluciones son las ondas postuladas teóricamente por De Broglie en 1924. 

1927. V Congreso Solvay de Física, dedicado al tema “Electrones y fotones”. En él se produce el debate entre Einstein y Bohr, como defensores de posturas antagónicas, sobre los problemas interpretativos que plantea la Teoría Cuántica. 

1928. Experimentos de difracción de partículas (electrones) que confirman la hipótesis de de Broglie, referente a las propiedades ondulatorias asociadas a las partículas. El fenómeno de difracción es propio de las ondas. 

1932. Aparición del trabajo de fundamentación de la Teoría Cuántica elaborado por el matemático Jon von Neumann.

Aspectos esencialmente novedosos de la Teoría Cuántica 

Los aspectos esencialmente novedosos (no clásicos) que se derivan de la Teoría Cuántica son: 

a) Carácter corpuscular de la radiación (Hipótesis de Planck). 

b) Aspecto ondulatorio de las partículas (Hipótesis de Broglie). 

c) Existencia de magnitudes físicas cuyo espectro de valores es discontinuo. Por ejemplo los niveles de energía del átomo de hidrógeno (Modelo atómico de Bohr). 

Implicaciones de a): carácter corpuscular de la radiación. 

Tradicionalmente se había venido considerando la radiación como un fenómeno ondulatorio. Pero la hipótesis de Planck la considera como una corriente de partículas, “quantums”. ¿Qué naturaleza tiene, entonces, la radiación: ondulatoria o corpuscular? Las dos. Manifiesta un carácter marcadamente “dual”. Se trata de aspectos que dentro del formalismo cuántico no se excluyen, y se integran en el concepto de “quantum”. 

El quantum de radiación puede manifestar propiedades tanto corpusculares como ondulatorias, según el valor de la frecuencia de la radiación. Para valores altos de la frecuencia (en la región gamma del espectro) predomina el carácter corpuscular. En tanto que para frecuencias bajas (en la región del espectro que describe las ondas de radio) predomina el aspecto ondulatorio. 

Implicaciones de b): carácter ondulatorio de las partículas. 

Se comprobó en experimentos de difracción de electrones y neutrones. Lo que ponen de manifiesto estos experimentos es que una clase de onda acompaña el movimiento de las partículas como responsable del fenómeno de difracción. De manera que nuevamente tenemos un ejemplo de dualidad entre las propiedades corpusculares y ondulatorias, asociadas en este caso a las partículas. 

Pero la aparición del fenómeno ondulatorio no se produce únicamente a nivel microscópico, también se manifiesta para objetos macroscópicos, aunque en este caso la onda asociada tiene una longitud de onda tan pequeña que en la práctica es inapreciable y resulta imposible la realización de un experimento de difracción que la ponga de manifiesto. 

Implicaciones de c): existencia de magnitudes físicas discontinuas. 

Pone de manifiesto el carácter intrínsecamente discontinuo de la Naturaleza, lo que se evidencia, como ejemplo más notable, en el espectro de energía de los átomos. A partir de la existencia de estas discontinuidades energéticas se explica la estabilidad de la materia.

Dios no juega a los dados...
Dios no juega a los dados...
Un ejemplo concreto 

Analicemos para el caso del átomo de hidrógeno, según el modelo de Bohr, cómo se conjugan estos tres supuestos cuánticos anteriores, a), b) y c). El átomo de hidrógeno se entiende como un sistema estable formado por un electrón y un protón. El electrón puede hallarse en un conjunto infinito, pero discontinuo de niveles de energía [supuesto c)].

Para pasar de un nivel a otro, el electrón debe absorber o emitir un quantum discreto de radiación [supuesto a)] cuya energía sea igual a la diferencia de energía entre esos niveles. Los niveles posibles de energía de los electrones se representan matemáticamente por funciones ondulatorias [supuesto b)], denominadas “funciones de estado”, que caracterizan el estado físico del electrón en el nivel de energía correspondiente. 

Para conocer el valor experimental de cualquier propiedad referente a la partícula debe “preguntarse” a su función de estado asociada. Es decir, dicha función constituye un tipo de representación del estado físico, tal que el estado del electrón en el n-ésimo nivel de energía es descrito por la n-ésima función de estado. 

La función de onda 

La descripción más general del estado del electrón del átomo de hidrógeno viene dada por la “superposición” de diferentes funciones de estado. Tal superposición es conocida como “función de onda”. La superposición de estados posibles es típica de la Teoría Cuántica, y no se presenta en las descripciones basadas en la Física Clásica. 

En esta última, los estados posibles nunca se superponen, sino que se muestran directamente como propiedades reales atribuibles al estado del sistema. Al contrario, especificar el estado del sistema en la Teoría Cuántica implica tomar en consideración la superposición de todos sus estados posibles. Las funciones de onda no son ondas asociadas a la propagación de ningún campo físico (eléctrico, magnético, etc.), sino representaciones que permiten caracterizar matemáticamente los estados de las partículas a que se asocian. 

El físico alemán Max Born ofreció la primera interpretación física de las funciones de onda, según la cual el cuadrado de su amplitud es una medida de la probabilidad de hallar la partícula asociada en un determinado punto del espacio en un cierto instante. Aquí se manifiesta un hecho que se repetirá a lo largo del desarrollo de la Teoría Cuántica, y es la aparición de la probabilidad como componente esencial de la gran mayoría de los análisis. 

La probabilidad en la Teoría Cuántica 

La Teoría Cuántica es una teoría netamente probabilista. Nos habla de la probabilidad de que un suceso dado acontezca en un momento determinado, no de cuándo ocurrirá ciertamente el suceso en cuestión. La importancia de la probabilidad dentro de su formalismo supuso el punto principal de conflicto entre Einstein y Bohr en el V Congreso Solvay de Física de 1927. 

Einstein argumentaba que la fuerte presencia de la probabilidad en la Teoría Cuántica hacía de ella una teoría incompleta reemplazable por una hipotética teoría mejor, carente de predicciones probabilistas, y por lo tantodeterminista. Acuñó esta opinión en su ya famosa frase, “Dios no juega a los dados con el Universo”. 

La postura de Einstein se basa en que el papel asignado a la probabilidad en la Teoría Cuántica es muy distinto del que desempeña en la Física Clásica. En ésta, la probabilidad se considera como una medida de la ignorancia del sujeto, por falta de información, sobre algunas propiedades del sistema sometido a estudio. Podríamos hablar, entonces, de un valor subjetivo de la probabilidad. Pero en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina. 

En opinión de Einstein, habría que completar la Teoría Cuántica introduciendo en su formalismo un conjunto adicional de elementos de realidad (a los que se denominó “variables ocultas”), supuestamente obviados por la teoría, que al ser tenidos en cuenta aportarían la información faltante que convertiría sus predicciones probabilistas en predicciones deterministas. 



Mario Toboso es Doctor en Ciencias Físicas por la Universidad de Salamanca y miembro de la Cátedra Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas. Editor del Blog Tempus de Tendencias21 y miembro delConsejo Editorial de nuestra revista. Este artículo es la primera entrega de una serie de dos sobre Teoría Cuántica. Ver el siguiente: La Teoría Cuántica cuestiona la naturaleza de la realidad.

viernes, 29 de mayo de 2015

¿OVNI-UFO? ¿EBE?. ¿Qué es esta antropomórfica forma aérea filmada en Queenstown, New Zealand ( Nueva Zelanda).


Cómo decide el cerebro que su dueño se mueva.

Un experimento con ratones en un laberinto muestra cómo funciona el sistema de codificación.



Científicos de Noruega, entre ellos dos premios Nobel en 2014, han observado cómo codifica el cerebro los próximos movimientos de su dueño. Experimentando con ratones en un laberinto, han determinado qué áreas cerebrales se activan, y cómo, al tomar la decisión de moverse.



 acceder a la señalización en el cerebro para averiguar dónde irá una persona a continuación? Hiroshi Ito, un investigador del Instituto Kavli de Neurociencia de Sistemas de la Universidad Noruega de Ciencia y Tecnología (NTNU), puede decir que sí. Ito acaba de publicar una descripción de cómo sucede ésto en la edición de esta semana de Nature

Ito y sus colegas, incluyendo a sus supervisores, los Nobel de 2014 May-Britt y Edvard Moser, tomaron una muestra de una vía neural específica para averiguar si se trata de la ubicación del mecanismo que permite a los animales codificar su plan para ir de un lugar a otro. Su estudio confirma que esta vía, la corteza prefrontal medial a través de un núcleo talámico en el hipocampo, lo hace. 

Los investigadores diseñaron un estudio que ayudará a entender mejor cómo funciona esta vía de señalización. Entrenaron a ratas para moverse en un laberinto en T continuo. 

"Descubrimos que la diferencia de fuerza con que se activaban las neuronas específicas predecía con precisión la trayectoria que el animal elegía", dice Ito en la nota de prensa de la NTNU, recogida por AlphaGalileo

Mientras las ratas corrían por el laberinto, se les realizaban registros electrofisiológicos de la corteza prefrontal, el tálamo y el hipocampo. Los investigadores analizaron la actividad de las neuronas mientras la rata estaba en el tallo del laberinto, donde tenía que decidir si ir a la izquierda o hacia la derecha en el próximo cruce. 

La decisión 

Los investigadores saben que hay vías desde la corteza prefrontal a través del tálamo a la zona CA1 del hipocampo. Sin embargo, no hay un vínculo a la zona CA3 inmediatamente adyacente a CA1 (que está también en el hipocampo). Ante esto, los investigadores primero evaluaron si podían detectar una diferencia en la codificación entre las dos áreas que reflejara la trayectoria que la rata elegiría posteriormente. Hubo una clara diferencia. El CA1 mostró mucho más codificación para cualquier elección venidera que el CA3. 

El código era visible por la intensidad del disparado, aunque no en qué célula se producía. Para entender cómo funciona esto, hay que pensar, según los investigadores, en un coro en el que todos cantan la misma canción, pero donde las voces que son más fuertes en un mismo punto de la canción cambian durante las diferentes actuaciones. 

Las palabras, melodía, y cantantes son los mismos, pero el cambio en el volumen de cada voz cambia la actuación. Ya que están familiarizados con "el coro", los investigadores buscaron al director, que se encuentra en la corteza frontal.

El director 

Los investigadores ya sabían que el código para la elección de la trayectoria se podría encontrar en CA1. Los investigadores del Instituto Kavli mostraron que un código similar está presente en el núcleo reuniens (NR) del tálamo, así como en el cingulado anterior (CA) y la corteza prelímbica (PC), ambos en la corteza prefrontal medial (mPFC). 

Los investigadores continuaron buscando dónde surgen las señales, y probaron la contribución de la vía mPFC-NR. Los investigadores fueron capaces de demostrar que sin el aporte de mPFC través de NR, CA1 también pierde su código para la próxima elección de la trayectoria. Fueron capaces de confirmar esto mediante el bloqueo de la señalización en el NR, utilizando dos enfoques diferentes. Esto demuestra que el código necesita a mPFC y NR, como un coro necesita a su director. 

"Planificar nuestro movimiento a una ubicación deseada requiere algo más que un mapa de dónde estamos", dice la profesora May-Britt Moser. "Tenemos que tener una idea de dónde estamos en este momento, y de dónde queremos ir, al mismo tiempo. Parece que las células implicadas en la navegación usan tanto pistas internas como externas para localizar puntos exactos, y por encima de todo hay un código de intensidad diferencial en el disparo que contiene información sobre el próximo movimiento ". 

Moser explica que este patrón de intensidad parece estar bajo la dirección de la corteza prefrontal, un área del cerebro de los primates de la que se sabe que interviene en la toma de decisiones y la función ejecutiva. 

"Creemos que estos resultados en conjunto sugieren que la nueva vía a cargo del movimiento previsto es crucial para que los animales elijan moverse a un lugar deseado del mapa", dice Moser. "Los datos también proporcionan evidencia del papel del tálamo en la comunicación a larga distancia entre las regiones corticales."

Referencia bibliográfica: 

May-Britt Moser et al.: A prefrontal–thalamo–hippocampal circuit for goal-directed spatial navigationNature (2015). DOI: 10.1038/nature14396

fuente/Tendencias21

ÚLTIMA HORA.Un Calor Extremo azota la Índia

Trabajar en la India bajo el calor extremo: "Si no lo hacemos nuestros niños no comen"
La ola de calor ha causado ya la muerte de más de 1.700 personas
Andra Pradesh, Telangana y Odisha, los estados más afectados
Los expertos advierten que India debe prepararse para afrontar olas similiares


¿Sabes que son los Algoritmos Evolutivos?

Dos algoritmos permiten que un robot dañado siga funcionando

Un equipo multidisciplinar de ingenieros e informáticos franceses y estadounidenses ha creado un nuevo procedimiento, basado en un algoritmo evolutivo y otro de ensayo y error, que permite a los robots adaptarse a los daños imprevistos sufridos en el transcurso de una misión y continuar funcionando.

Esta técnica, cuyos resultados se han publicado en el último número la revista Nature, ya ha sido probada en un robot de seis patas con cinco tipos diferentes de lesiones, incluyendo roturas y la pérdida de alguna de estas extremidades.

El algoritmo evolutivo produce hasta 13.000 variaciones en la forma de desplazarse, con distinta actividad para cada extremidad

Según explica a Sinc Jean-Baptiste Mouret, investigador del Instituto de Sistemas Inteligentes y Robótica de la Universidad de Pierre y Marie Curie en París y uno de los autores de estudio, “los robots actúan de manera similar a como lo haría, por ejemplo, una persona con una rodilla dolorida: buscan rápidamente una manera de cojear para que les duela menos”.

El sistema se basa en la elaboración de un algoritmo evolutivo, llamado MAP-Elites, que puede producir hasta 13.000 variaciones en la forma de desplazarse. En cada una de ellas, cambia la actividad requerida de las extremidades.

Cuando sufre un daño imprevisto, el autómata recurre a esta base de datos para seleccionar los comportamientos que se adaptan mejor a la lesión sufrida. Pero como la evaluación procede de una simulación efectuada con el robot ‘sano’, es necesario comprobar cuáles de estas pautas son las más eficaces, señala este investigador.

La mejor opción

“El robot prueba con las distintas formas de desplazarse, descartando las que no funcionen. Por ejemplo, si caminando sobre las patas traseras no obtiene resultados, ensaya métodos que consistan en andar sobre las delanteras. La elección de la opción más idónea la realiza gracias a un segundo algoritmo de ensayo y error inteligente que hemos desarrollado”, indica Mouret.

De esta forma, los robots pueden completar su misión a pesar de las dificultades y sin necesitar asistencia humana, dice este investigador especializado en aprendizaje automático y computación evolutiva para el diseño de robots adaptables.

El nuevo sistema también ha sido probado en un brazo robótico con articulaciones rotas en 14 formas diferentes.

Los robots prueban varios métodos hasta encontrar el más idóneo para completar la misión

Útiles en catástrofes

“El método será especialmente útil para ser aplicado en entornos hostiles. Los robots podrán seguir trabajando, pese a resultar dañados en momentos en que cada segundo cuenta”, destaca el experto.

“Podrían ser enviados a buscar supervivientes tras un terremoto, a apagar incendios en los bosques o servir de apoyo para desactivar una central nuclear ante una crisis, como podría haber sido en el caso de Fukushima”, asegura.

Los algoritmos también se pueden aplicar en robots asistentes que ayuden a las personas mayores o enfermas. “Permitiría que fueran más efectivos y fiables, pues podrían seguir realizando sus tareas pese a sufrir algunas lesiones menores”, concluye.


fuente/laflecha.net

Biodiversity and Wildlife Solutions desarrolla Drones de protección de Elefantes.

Nuevos Refugios Móviles.

Una compañía estonia de defensa ha empezado a fabricar un refugio móvil con capacidad para doce personas que puede ser montado en menos de dos horas.

Este refugio es de polietileno y, según los responsables de la empresa, puede resistir tanto al agua como a temperaturas extremas, desde los 50 grados bajo cero hasta los 80 grados.




Historias que emocionan. Historias que te DESPIERTAN a la vida.

Su hijo nació sin ojos. ¡Pero cuando lo puso delante de un piano sucedió algo inesperado!


ES-pectacular.

Un Niño se curó del autismo al dejar lácteos y gluten.

Imagen

Las tasas de autismo globales están aumentando y muchos están empezando a hacer preguntas sobre la mejor manera de tratar o remediar los síntomas para mejorar la calidad de vida en general. En un caso concreto, un joven con el nombre de Ethan Fox comenzó a mostrar fuertes signos de recuperación de autismo cuando se cambió su dieta para no incluir gluten y los productos lácteos. Los padres de Ethan actuaron con el asesoramiento del Dr. Kenneth Bock, que es un especialista en autismo y autor de "Sanando las nuevas epidemias infantiles. Autismo, ADHD, asma y alergias." Se cree que el cambio de la dieta de un niño autista al no incluir gluten y los productos lácteos puede ayudar a 60% de los niños con autismo. 


Hay mucha preocupación de que el aumento en el autismo está directamente relacionado con el aumento de las vacunas desde la década de 1990. Aunque esta teoría se ha desmentido en varias ocasiones por los servicios ordinarios de salud,muchos estudios independientes confirman el vínculo, lo que sugiere que la integración de la salud tiene un beneficio personal en la continuación de sus prácticas. Muchos investigadores en el campo creen firmemente el horario actual vacuna no es segura y los profesionales de la salud están haciendo la vista gorda a los resultados reales y los hechos. Muchos argumentos en contra del enfoque convencional de esta investigación es que no se han estudiado adecuadamente ni probada la relación entre el autismo y las vacunas, por lo que están dibujando irresponsablemente conclusiones. 


El autismo en los EE.UU. ha aumentado en más de 2.700 por ciento desde 1991. Fue en ese momento que las vacunas para los niños se duplicaron, y aún hoy en día todavía vemos un aumento en el número de inmunizaciones. Antes de 1991, 1 de cada 2.500 niños fueron diagnosticados con autismo, mientras que ahora 1 de cada 91 niños son diagnosticados. Aunque la investigación por el epidemiólogo Tom Verstraeten y el Dr. Richard Johnston, inmunólogo y pediatra de la Universidad de Colorado, en tanto determina que el timerosal fue responsable del repentino aumento de casos de autismo, sus hallazgos fueron despedidos rápidamente por el CDC. 


Nuevas investigaciones sobre la relación entre una dieta libre de gluten que tiene resultados positivos para los niños autistas es fomentado por el estudio se centró exclusivamente en el tratamiento dietético de niños con autismo. He incluido un enlace al estudio de las fuentes, a continuación es un extracto del resumen del estudio.

"Se presenta la historia de un niño con autismo y epilepsia que, después de la respuesta limitada a otras intervenciones que siguieron a su regresión sobre el autismo, fue colocado en una dieta libre de caseína libre de gluten, tras lo cual mostró una marcada mejoría en los síntomas autistas y médicos . Posteriormente, tras la aparición de la pubertad convulsiones y después de no lograr el control convulsión farmacológicamente fue avanzado a una dieta cetogénica que se adapta a continuar con el régimen libre de gluten, caseína-libre ".

Al indagar sobre este artículo recibido, encuentro grupos de ayuda y padres con niños autistas cuentan la exitosa manera en que rescataron a sus pequeños del autismo, aunque no en el 100% de los casos. Las observaciones, investigaciones y evidencias varias datan desde el año 2,000, siendo invetigadores principales entre otros no menos importantes los Doctores Paul Shattock , Dr Karl Reichelt. Es recomendable que la dieta sea guiada por un profesional previos controles de laboratorio para determinar si existen exceso de péptidos. 


Robert Cade, MD, investigador de la Florida USA. y sus colegas han identificado una proteína de la leche, casomorfina, como la causa probable del trastorno por déficit de atención y autismo. Ellos encontraron beta-casomorfina-7 en altas concentraciones en la sangre y la orina de pacientes con diagnostico de esquizofrenia y autismo. (Autism, 1999, 3) (Autismo, 1999, 3) 


El ochenta por ciento de proteína de leche de vaca es caseína. Se ha documentado que la caseína se descompone en el estómago para producir una casomorphine péptido, un opiáceo. Otro investigador observó que casomorfina agrava los síntomas del autismo. (Panksepp, J. Trends in Neuroscience, 1979, 2) (Panksepp, J. Tendencias en Neurociencias, 1979, 2). Un tercer científico producido halla evidencia de niveles elevados de sustancias como la endorfina en el líquido cerebro-espinal de las personas con autismo. (Gillberg, C. (1988) Aspects of Autism: Biological Research Gaskell:London, pp. 31-37) (Gillberg, C. (1988)Aspectos de Autismo: Gaskell Investigaciones Biológicas: Londres, pp 31-37) 


La Unidad de Investigación de Autismo de la Facultad de Ciencias de la Salud refiere la siguiente información en su página web:

"Las cantidades de estos compuestos, tal como se encuentra en la orina, son demasiado elevados para ser de origen del sistema nervioso central. Las cantidades son tales que sólo puede haber sido derivado de la descomposición incompleta de ciertos alimentos."

La terapia nutricional sin gluten y sin caseína se basa en varios estudios realizados por médicos y científicos como los Drs. F.C. Dohan, Karl Reichelt, Paul Shattock y Robert Cade. Estos estudios han encontrado la existencia de niveles elevados de péptidos de las proteínas de la caseína y el gluten, en muchas personas con autismo. 


Para la mayoría de las personas, la digestión de las proteínas (proceso que las convierte en partículas mas pequeñas llamadas péptidos, y posteriormente en aminoácidos) es un proceso normal. Sin embargo, se ha encontrado que muchas personas con autismo tienen dificultad en digerir adecuadamente algunas proteínas, permitiendo que entren en la sangre en forma de péptidos.La razón de esta mala digestión suele ser una falta de enzimas que ayudan a la digestión, y una permeabilidad exagerada del intestino es lo que facilita que penetren en el torrente sanguíneo. 


El gluten se encuentra en el trigo, centeno, cebada, avena, espelta y malta, y la caseína en la leche de vaca, oveja, cabra y derivados de éstos como yogurt, mantequilla, helado, queso... 


En el caso de proteínas como el gluten y la caseína, algunos de los compuestos que entran en el torrente sanguíneo y cruzan la barrera hemato-cefálica tienen propiedades opiodes. Estos péptidos reaccionan con los receptores opioides del cerebro causando efectos similares a los que provocan las drogas opiaceas como la heroína y la morfina. Los péptidos procedentes del gluten se llaman gliadinomorfina y los de la caseína casomorfina. 

Se ha observado que estos componentes reaccionan en ciertas áreas del cerebro tales como los lóbulos temporales que participan en los procesos de integración del lenguaje y la audición. La eliminación del gluten y la caseína de la dieta de muchos niños y adultos autistas ha dado resultados muy positivos. Incluso, en algunos casos, se ha logrado la normalización completa del niño al combinar terapias nutricionales con terapias educacionales efectivas. 

Es recomendable antes de iniciar esta dieta, realizar un análisis de orina que permita determinar si existe o no un exceso de péptidos. En caso que se decidiera realizar la dieta, los expertos recomiendan eliminar primero la caseína y después de unas seis semanas retirar los alimentos con gluten. Es fundamental saber que si se eliminan los productos lácteos habrá que asegurarse que el niño ingiera la cantidad necesaria de calcio para evitar carencias.

Conoces o sabes de alguna persona o niños con autismo? Es posible que esta información les permita recordar el momento y circunstancias en que inicio el cambio de comportamiento, cuantos padres nos refieren "Era normal..empezo a aislarse...no sabemos...." Tal como describe la madre de Miles su caso, una de tantas historias con resultados positivos a la dieta sin glutén sin leche de vaca. 




fuente/es.sott.net/

¿Para que sirve el romero? - Propiedades curativas y beneficios del romero para la salud.


¿Para que sirve el romero? - Propiedades curativas y beneficios del romero para la salud. El romero ha sido aclamado desde la antigüedad por sus propiedades medicinales. Se ha utilizado tradicionalmente para ayudar a aliviar el dolor muscular, mejorar la memoria, estimular el sistema inmunológico y circulatorio, y promover el crecimiento del cabello.


Beneficios del romero para la salud

Rica fuente de antioxidantes y compuestos antiinflamatorios estos se cree que ayuda a estimular el sistema inmunológico y mejorar la circulación sanguínea. Los estudios de laboratorio han demostrado que el romero es rico en antioxidantes, los cuales juegan un papel importante en la neutralización de partículas dañinas llamadas radicales libres.

¿Para que sirve el romero? - Propiedades curativas y beneficios del romero para la salud

La mejora de la digestión - En Europa el romero se utiliza a menudo para ayudar a tratar la indigestión.

Mejora la memoria y la concentración, los niveles en sangre de un componente de aceite de romero se correlacionan con un mejor rendimiento cognitivo, según la investigación en avances terapéuticos en psicofarmacología.

Protección neurológica - los científicos han encontrado que el romero es también bueno para el cerebro. El romero contiene un ingrediente, el ácido carnósico, que es capaz de combatir los radicales libres en el cerebro.

Prevenir el envejecimiento del cerebro - Investigadores de la Universidad de Kyoto en Japón revelaron que el romero puede ayudar significativamente a prevenir el envejecimiento cerebral.

¿Para que sirve el romero? - Propiedades curativas y beneficios del romero para la salud

Cáncer - Una investigación publicada en informes Oncolocy encontrado que "el extracto de romero etanólico crudo (RO) tiene efectos anti-proliferativos diferenciales en las células de carcinoma de mama y la leucemia humana."


jueves, 28 de mayo de 2015

ALERTAS. Ola de calor Extrema en la India.

Cerca de 1400 personas han muerto en La India víctimas de la ola de calor de la última semana.






Vídeo sobre Realidad y Real. ¿En qué hilos te mueves tu?

Aunque no lo creas, ver personas enfermas dispara tu sistema inmune (FOTOS)

Si no tienes nada mejor que hacer, o si comienzas a sentir que te vas a enfermar, busca fotografías de personas claramente enfermas y dispara tu sistema inmune mientras lo haces. Aunque suene descabellado, la Sociedad Británica de Inmunología descubrió que lo anterior es altamente efectivo para generar defensas.
Así, tan sólo con ver a alguien estornudando, con ronchas de varicela en el cuerpo, con algún tipo de urticaria indefinida, con la piel amarilla de hepatitis o hinchado por alguna infección (y esto incluso visto en meras fotografías), tu sistema inmune comienza a enviar unas cosas llamadas citocinas. Estas pueden ser proteínas o péptidos, dependiendo de la función que cumplan; pero las que se liberan al ver este tipo de imágenes de personas enfermas son específicas para las bacterias, y estas comienzan a defender a tu cuerpo de la posibilidad de que algo como lo que está viendo le ocurra.
Por eso te preparamos un pequeño slideshow con imágenes de enfermos para tu bienestar general. Disfruta.

La oscuridad es aliada de tu salud: apaga la luz.

LA SOBREEXPOSICIÓN A LA LUZ ELÉCTRICA, Y LA CONSECUENTE FALTA DE OSCURIDAD, ESTÁN MERMANDO SEVERAMENTE NUESTRA SALUD.

Screen Shot 2015-04-09 at 11.45.06 AM

La afirmación que titula este artículo no es metafórica, existen razones fisiológicas para sustentarla. Al igual que la oscuridad es tan importante para el equilibrio del universo como la luz, nuestro organismo también está diseñado para alimentarse de la sombra –de hecho esta es fundamental para su correcto funcionamiento. 
El problema surge de nuestra dependencia cultural de la luz, lo cual se traduce en el hábito de rodearnos de luz eléctrica ya sea en forma de bombillas o de múltiples dispositivos que, con sus pantallas iluminadas, roban terreno a la oscuridad. Y ahora que la falta de sueño es ya considerada un mal epidémico, y que la medicina le ha prestado mayor atención que nunca a este asunto, nos damos cuenta que uno de los factores que incide en este problema es la falta de exposición a la oscuridad, algo que desequilibra nuestros ritmos circadianos y por lo tanto nos hace más propensos a condiciones como la diabetes, el sobrepeso o el desarrollo de un cáncer. 
La oscuridad está en peligro
Hace unos meses publicamos una nota advirtiendo sobre el uso indiscriminado de luz eléctrica en las ciudades y el cómo, a causa de esto, cada vez existen menos regiones de oscuridad plena en el planeta. En pocas palabras, la oscuridad está en peligro de extinción. Esto, como desarrollamos en aquella ocasión, conlleva numerosas consecuencias negativas para la dinámica del entorno, interfiriendo en la dinámica de los habitantes en estas zonas –plantas y animales incluidos– y desestabilizando el entorno como tal. En este sentido no sorprende que incluso hayamos tenido la necesidad de acuñar un término puntual para describir este problema: contaminación lumínica. 
Screen Shot 2015-04-09 at 11.46.42 AM
Nuestros procesos bio-oscuros
Uno de los procesos que ocurren en nuestro cuerpo durante la oscuridad es que se elevan los niveles de una hormona llamada leptina, la cual entre otras funciones regula el apetito. Al exponernos a la luz durante la noche se inhibe la secreción de leptina y por lo tanto se altera el apetito y, en general, nuestro sistema metabólico. Lo mismo ocurre con la melatonina, la cual se eleva durante la noche (originalmente cobijada por una oscuridad indisociable) y se acompaña de una disminución de la temperatura corporal y una desaceleración metabólica. Además, la oscuridad es imprescindible para mantener un óptimo funcionamiento circadiano, asociado a los genes que controlan desde la producción hormonal hasta la regulación celular.
Es simple; luz natural y oscuridad natural
Como muchas de las respuestas que buscamos para mejorar nuestra calidad de vida, la clave está en el rediseño de hábitos. Por ejemplo, el consultar dispositivos electrónicos con pantallas (teléfonos, tablets, laptops) justo antes de dormir es una pésima práctica ya que confunde a nuestro cerebro, sugiriéndole que debe mantenerse alerta. Pero también es importante proveer de luz a tu cuerpo (y tu cerebro) durante el día, preferiblemente luz solar. Luego, tras la puesta del Sol utilizar luz ligera (preferiblemente dentro de los espectros amarilla o rojiza) y finalmente durante la noche dedicarte a lo que estamos diseñados para hacer en ese momento, dormir.
La oscuridad es tu aliada. Trátala bien

fuente/Pijamasurf

Película. El Mundo del Mañana.








Avistamiento OVNI en Chile: El caso que no tiene explicación.


El siguiente reportaje emitido éste 6 de Mayo (2015) desde el noticioso 24horas de Chile tiene 3 años que permaneció en secreto. Se trata de hecho que involucra a efectivos de la Fuerza Aérea (FACh), quienes la tarde del 3 de septiembre de 2012 ingresaron al patio de la Academia de Guerra Aérea (AGA) para cargar combustible a una ambulancia del hospital de la institución.

Fue entonces que vieron cinco luces en formación. Inicialmente pensaron que se trataba de helicópteros, sin embargo, las vieron acercarse y descender hasta quedar a 50 metros de distancia, según consta en la investigación. Con un celular grabaron una especie de baile de las luces, que duró entre tres y cinco minutos, en los que se formó un triángulo y un círculo, siempre girando sobre su propio eje. un caso en extremo interesante.

OVNI-UFO. Tipo cilindrico filmado en Corea.

Marzo del 2015. Innegable actividad OVNI-UFO en México.

He aquí un interesante informe de El Tercer Milenio sobre una extraña actividad OVNI en el cielo sobre el volcán de Colima en México. 
¿Se abastecen de algún tipo de energía que emana del volcán? o ¿Son meros observadores de estos monstruos de lava adormecidos?

Recuerdos Inmortales.

ri1
Cómo guardar tus recuerdos para siempre y ser “inmortal”

La tarde antes de morir, mi abuela –Bobby, como la llamaban sus amigos- le envió una carta a uno de los viejos amigos de su esposo, ya fallecido. En el sobre incluyó algunas fotografías de mi abuelo y su amigo jugando cuando eran niños. “Debes tenerlas”, le escribió. Le pedía, pero quizás también le suplicaba, que no dejara que estas cosas se perdieran u olvidaran cuando, como ocurrió pocas horas después, se quedara dormida para siempre en su sillón favorito.
La esperanza de que nos recuerden después de que nos vayamos es, a la vez, elemental y universal. Desde que hicieron sus primeros rayones en las paredes de las cavernas, los seres humanos han buscado frustrar el desvanecimiento final del recuerdo.

ri0







Hoy almacenamos nuestras memorias en los enigmáticos servidores de internet. Hay la cronología de Facebook que registra los momentos más significativos de nuestra vida, la cuenta de Instagram en la que guardamos nuestros retratos, la bandeja de entrada de Gmail que documenta nuestras conversaciones y el canal de YouTube que transmite cómo nos movemos, hablamos o cantamos. Coleccionamos y conservamos nuestros recuerdos en forma mucho más exhaustiva que antes, intentado asir en cada caso una cierta forma de inmortalidad.

¿Es suficiente? ¿Qué pasa si dejamos de guardar algo crucial?

¡Cuánto mejor sería guardarlo todo! No sólo los pensamientos escritos y los momentos de la vida capturados por la cámara, pero la mente entera: las relaciones amorosas y las rupturas y decepciones, los momentos de triunfo y de vergüenza, las mentiras que dijimos y las verdades que aprendimos.


ri2Si pudieras conservar tu mente como guardas información en el disco duro de tu computadora, ¿lo harías?Ya hay ingenieros trabajando en la tecnología que permitirá crear copias completas de nuestra mente y de los recuerdos que persistan después de nuestros cuerpos sean enterrados o cremados.
Si tienen éxito, esta tecnología promete tener profundas, y quizás inquietantes consecuencias para la forma en que vivimos, las personas que amamos y cómo morimos.



Copia al carbón
La abuela de Aaron Sunshine, de la ciudad de San Francisco (EE.UU.), también murió recientemente.

“Una cosa que me impresionó fue lo poco que quedó de ella”, me dice Sunshine, de 30 años. “Sólo hay unas cuantas posesiones. Tengo una vieja camiseta que me pongo en casa. Está su herencia, pero sólo es dinero sin rostro”.

Su muerte lo inspiró a registrarse con Eterni.me, un servicio de internet que pretende asegurarse de que los recuerdos de una persona se conserven vía online después de su muerte.


ri4Funciona así: en vida, autorizas al servicio a tener acceso a tus cuentas de Twitter, Facebook y correo electrónico; a subir fotos, datos de localización y hasta grabaciones hechas con Google Glass de cosas que has visto.
Los datos son recopilados, filtrados y analizados antes de que ser transferidos a un avatar de inteligencia artificial que trata de emular tu apariencia y personalidad. El avatar aprende más de ti a medida en que interactúas con él, con el objeto de mejorar su reflejo de ti con el tiempo.

“Se trata de crear un legado interactivo, una forma de evitar ser olvidado completamente en el futuro”, dice Marius Ursache, uno de los creadores de Eterni.me.

“Tus tátara nietos usarán esto en vez de un buscador o una cronología para acceder a información acerca de ti, desde fotos de eventos familiares hasta tus opiniones sobre ciertos temas, pasando por canciones que escribiste y nunca diste a conocer”.


ri6
Para Sunshine, la idea de que poder interactuar con un avatar-legado de su abuela que refleje su personalidad y sus valores es reconfortante, pero aunque Ursache tiene grandes planes para el servicio de Eterni.me (“podría ser una biblioteca virtual de la humanidad”, dice), la tecnología todavía está en pañales.

El emprendedor ya ha recibido muchos mensajes de pacientes terminales que quieren saber cuándo estará disponible el servicio y si pueden “grabarse” a sí mismos de esta manera antes de morir. “Es difícil responderles, porque podría tomar años lograr que la tecnología llegue a un nivel que la haga utilizable y ofrezca valor verdadero”, dice.

Sin embargo, es optimista. “No me queda duda de que alguien será capaz de crear buenas simulaciones de la personalidad de la gente que sean capaces de mantener una conversación de manera satisfactoria”, dice. “Esto podría cambiar nuestra relación con la muerte, poniendo algo de ruido donde antes había sólo silencio”.
Es posible, supongo. ¿Pero qué pasa si la compañía quiebra? Si los servidores se apagan, la gente que se aloja en ellos sufriría una segunda muerte.


ri7
Aún más, cualquier simulación de una persona sólo puede ser aproximada. Y, como todo el que tenga una cuenta en Facebook sabe, el acto de registrar nuestra vida en redes sociales es un proceso selectivo. Los detalles pueden manipularse, los énfasis pueden alterarse, relaciones enteras pueden ser borradas.


Memoria fotográfica
¿Y qué tal si, en vez de elegir y descartar lo que queremos capturar en formato digital, fuera posible registrar la totalidad del contenido de la mente?

Esto no es cosa de ciencia ficción ni la aspiración de un minúsculo grupo de científicos irracionalmente ambiciosos.

Teóricamente, el proceso requeriría de tres avances fundamentales. Primero, los científicos deben descubrir cómo preservar, sin destruir, el cerebro de una persona después de muerta. Luego, el contenido preservado del cerebro debe ser analizado y capturado. Finalmente, esa captura debe ser recreada en un cerebro humano simulado.

El trabajo en la creación de un cerebro artificial en el que se pueda hacer una copia de respaldo de los recuerdos humanos está muy extendido.

El MIT dicta un curso en la ciencia emergente de los “connectomics”, que busca crear un mapa completo de las conexiones del cerebro humano.

El proyecto Brain (“Cerebro”) de Estados Unidos está trabajando en cómo registrar la actividad cerebral generada por millones de neuronas, mientras que el proyecto del mismo nombre de la Unión Europea trata de construir modelos integrados de esa actividad.


ri3















 “Ahora somos capaces de tomar muestras pequeñas de tejido cerebral y mapearlas en 3D. Podemos hacer simulaciones del tamaño del cerebro de un ratón en supercomputadoras, aunque no hemos logrado la conectividad total todavía”, dice Anders Sandberg, del Future of Humanity Institute de la Universidad de Oxford.

El dinero necesario para el desarrollo del área parece asegurado. Google ha invertido en forma importante en la emulación cerebral, a través de su Google Brain.

En 2011, un empresario ruso, Dmitry Itskov, fundó la “Iniciativa 2045″, así nombrada por la predicción de Kurzweil de que el año 2045 marcaría el punto en el que seríamos capaces de guardar una copia de nuestro cerebro en la nube. Mientras que el resultado de gran parte de este trabajo es, hasta ahora, secreto, está claro que hay un esfuerzo en marcha.

El neurocientífico Randal Koene, director de la Iniciativa 2045, insiste en que la posibilidad de crear una réplica funcional del cerebro humano está al alcance.
“El desarrollo de prótesis neurales demuestra ya que es posible (replicar) las funciones de la mente”, dice.

Ted Berger, profesor del Centro de Neuroingeniería de la Universidad de Southern California logró crear una prótesis funcional del hipocampo.

En 2011, una prueba de viabilidad para una prótesis de hipocampo fue aplicada con éxito en ratas vivas, y en 2012 la prótesis fue probada con el mismo resultado en primates no humanos. Berger y su equipo se proponen probarla en seres humanos este año.


Basurero de la memoria
Emular un cerebro humano es una cosa, pero crear un registro digital de los recuerdos de una persona es un desafío completamente diferente.
Sandberg responde con cinismo al preguntársele si este proceso simplista es viable. “Los recuerdos no se guardan como archivos en una computadora, creando índices en los que se pueden hacer búsquedas”, dice. De hecho, nuestras creencias y prejuicios, que cambian con el tiempo, les dan forma.

También está el pequeño problema de cómo extraer los recuerdos de una persona sin dañar el cerebro. “Todos los métodos que existen para escanear el tejido neural con la resolución requerida son invasivos, y sospecho que será muy difícil lograrlo sin hacerlo pedazos”, dice Sandberg.

Sin embargo, el especialista cree que subir digitalmente un recuerdo específico de una persona podría ser posible, siempre que pudiera hacerse “funcionar” el cerebro simulado en su totalidad.

¿Qué significaría para nuestro modo de vida que se logre preservar la mente humana?

Algunos creen que podría acarrear algunos beneficios imprevistos, como la posibilidad de estudiar cómo pensamos. Y sin embargo, hay una serie de implicaciones morales y éticas muy particulares que debemos considerar.
Definir los límites de la privacidad de una persona ya es un problema en 2015. Para un cerebro emulado, la privacidad y la propiedad de los datos se vuelve aún más complicado.

“Las emulaciones son vulnerables y pueden ser objeto de serias violaciones de la privacidad y la integridad”, dice Sandberg. A manera de ejemplo, sugiere que los legisladores podrían tener que considerar si debería ser posible llamar a “declarar” a los recuerdos ante los tribunales.

¿La posibilidad de guardar secretos es un derecho humano?


Leyes de propiedad
Estas preguntas sin respuesta están comenzando a tocar asuntos más fundamentales sobre lo que significa ser humano.
¿Podría un cerebro emulado considerarse humano? Y si es así, ¿la humanidad reside en los recuerdos o en el equipo –hardware- en el que funciona el cerebro simulado?

Y si la respuesta es lo último, está la cuestión de quién es dueño del equipo: ¿el individuo, una corporación o el Estado? Si una mente creada como respaldo de otra requiere cierto tipo de programas para funcionar (un hipotético Google Brain, por ejemplo), la propiedad del software podría formar parte de la ecuación.

Saber que tu cerebro puede quedar registrado por completo también podría llevarte a comportarte de forma diferente durante tu vida.

“Tendría el mismo efecto que saber que tus acciones van a ser registradas por una cámara de televisión”, dice Sandberg. “A algunas personas esto las lleva a cumplir con las normas sociales, en otras produce el deseo de rebelarse. Pensar que nuestro cerebro puede ser recreado como una emulación es equivalente a esperar una vida extra, post humana”.

Pero más allá de estas implicaciones innegablemente profundas y complicadas, está la cuestión de si se trata de algo que alguno de nosotros quiere en realidad.
Los seremos humanos deseamos conservar nuestros recuerdos (y algunas veces, olvidarlos), porque nos dicen quiénes somos.

Si los perdemos, dejamos de saber quiénes éramos, cuál era el significado de todo. Pero al mismo tiempo, alteramos nuestros recuerdos con el fin de crear una narrativa de nuestra vida que nos funcione en un momento determinado.

Registrarlo todo con igual peso e importancia podría no ser útil, ni para nosotros ni para quienes vengan después de nosotros.

Le pregunto a Sunshine por qué quiere que su vida quede registrada de esta manera. “Para ser honesto, no estoy muy seguro”, dice. “Una parte de mí quiere construir monumentos a mí mismo. Pero otra parte de mí quiere desaparecer completamente”.

Quizás eso sea cierto para todos nosotros: tenemos el deseo de que nos recuerden, pero sólo aquello de nosotros que esperamos sea recordado. El resto puede descartarse.


fuente/libertaliadehatali.wordpress.com