"La práctica médica no entraña solamente tejer, entretejer y tener activas las manos, sino que debe inspirarse en el alma, estar plena de conocimiento y tener como componente preciado la observación aguda y minuciosa; todo ello, junto con los conocimientos científicos exactos, son los requisitos para que la práctica médica sea eficiente."
Moisés ben Maimón (1135-1204)

Buscar en este blog

viernes, 27 de marzo de 2009

Crean un motor híbrido que funciona con aire comprimido en lugar de con una batería


Un nuevo tipo de motor híbrido ha sido desarrollado por ingenieros del Swiss Federal Institute of Technology, en Zúrich, Suiza. Esta tecnología puede ahorrar tanto combustible como los actuales coches híbridos gasolina-electricidad, pero a menor coste.

Los coches híbridos convencionales, como el ya famoso Prius del fabricante japonés Toyota, se componen de un motor de explosión y de una batería eléctrica que recoge la energía del frenado que, de otra manera, se perdería en forma de calor. El problema de esta tecnología, como es bien sabido, es que el coste de esas baterías es muy elevado, lo que hace que, por el momento, que los coches híbridos no terminen de ser competitivos en el mercado respecto a los de gasolina.

Según recoge un comunicado, el profesor de ingeniería mecánica Lino Guzzella está desarrollando un híbrido que no necesita una batería o un motor eléctrico. En su lugar, almacena energía usando los pistones del motor para comprimir el aire. Ese aire comprimido se usa después para hacer funcionar los pistones e impulsar el coche.

Según Guzzella, su sistema supondría sólo un 20% de coste extra a añadir al motor convencional, mientras que los componentes extra necesarios para un coche híbrido de los que ahora circulan por las carreteras del mundo llegan a ser de un 200%.

Su motor de aire comprimido tiene una gran ventaja: no requiere mucho equipamiento extra para ser usado con motores de gasolina existentes: sólo los controladores para una válvula de más para gestionar el aire comprimido y un tanque de aire. El motor hace el resto.

Por otro lado, las simulaciones de ordenador hechas hasta el momento sugieren que el consumo de gasolina usando este sistema se reduciría del orden de un 32%. Los experimentos iniciales han demostrado que el nuevo diseño puede llegar a ser construido.

Una idea con historia

La idea de usar aire comprimido en un coche híbrido no es nueva. El gran reto ha sido hacer el sistema lo suficientemente eficiente. Los taques de aire comprimido almacenan mucha menos energía que las baterías eléctricas, limitando mucho el ahorro energético. Este es uno de los grandes inconvenientes de un coche híbrido diseñado para funcionar sólo con aire comprimido.

La propuesta de este ingeniero aprovecha sistemas de control avanzados para controlar con más precisión el flujo de aire, mejorando la eficiencia total. Para superar la limitada capacidad de almacenamiento a la que antes hacíamos referencia, el diseño no se basa tanto en captar la energía del frenado, sino que apuesta por otro modo de ahorrar energía: la energía neumática. Gracias a ella, mejora el funcionamiento de motores de gasolina más pequeños y eficientes.

Los coches convencionales incorporan motores que pueden proporcionar más energía de la que necesitan para circular. Este exceso de energía se usa cuando se acelera o para sostener velocidades altas. Estos motores son poco eficientes, sobre todo porque la mayor parte del tiempo operan a una capacidad mucho menor para la que fueron diseñados.

Guzella reemplaza un motor de gasolina de dos litros por otro pequeño de 750 mililitros. Éste usa aire comprimido para acelerar. El aire denso proporciona el oxígeno para quemar mayor cantidad de combustible, una técnica llamada supercompresión.

Un motor pequeño

Cerca del 80% de la eficiencia alcanzada por el sistema de Guzella proviene del hecho de usar un motor tan pequeño. El resto se alcanza captando energía del frenado que se usa después para la aceleración. En pequeñas distancias, el coche se propulsa sólo con el aire comprimido, sin necesidad de quemar gasolina.

Este diseño también ahorra combustible ajustando la carga del motor para que queme sólo la gasolina necesaria, bien usando algunos de los pistones para comprimir aire o bien rebajando la carga usando algo de aire comprimido para dirigir esos mismos pistones. Finalmente, el aire comprimido puede ser usado para reiniciar el motor, haciendo que el sistema apague el motor por ejemplo siempre que el vehículo llegue a un stop, en lugar de dejarlo al ralentí.

La eficiencia y el comportamiento de su diseño han sido demostrados gracias a modelos informáticos. Además, ha probado sus componentes básicos en un motor de prueba. En él, usa aire comprimido para dirigir los pistones, para la supercompresión y al arrancar el motor. El siguiente paso es optimizar el motor para alcanzar los niveles de eficiencia que ya predicen los modelos informáticos.

El nuevo concepto ya ha despertado el interés de algunas marcas o de algunos fabricantes de componentes. Algunas de las ideas ya han sido patentadas. Guzella reconoce que no es un buen momento para mostrar esta tecnología, pero este ingeniero confía en que su investigación pueda llegar a buen puerto.

miércoles, 25 de marzo de 2009

II SIMPOSIUM DE GENÉTICA MÉDICA "DR. ENRIQUE CORONA RIVERA"

ImageHost.orgImageHost.org
El día de Hoy 25 de Marzo se llevó a cabo el II Simposium de Genética Médica "Dr. Enrique Corona Rivera" en el Auditorio de Patología del Centro Universitario de Ciencias de la Salud de la Universidad de Guadalajara.

Quieres leer más visita INSTITUTO DE GENÉTICA HUMANA.

II SIMPOSIUM DE GENÉTICA MÉDICA "DR. ENRIQUE CORONA RIVERA"

ImageHost.orgImageHost.org
El día de Hoy 25 de Marzo se llevó a cabo el II Simposium de Genética Médica "Dr. Enrique Corona Rivera" en el Auditorio de Patología del Centro Universitario de Ciencias de la Salud de la Universidad de Guadalajara.

El cuál fue dirigido a estudiantes y profesores de todas las licenciaturas y posgrados del Centro Universitario de Ciencias de la Salud y a toda la comunidad médica. Teniendo un valor curricular de 6 Horas/Curso.

El Simposium tuvo la Participación de los siguientes profesores:

DR. FELICIANO RAMOS FUENTES Catedrático de Pediatría, Universidad de Zaragoza, España.

DR. FABIO SALAMANCA GÓMEZ Unidad de investigación Médica en Genética Humana Hospital de Pediatría, Centro Médico Siglo XXI, México, D.F.

DR. MARCO ANTONIO MACÍAS FLORES Facultad de Medicina, Universidad de Zacatecas.

DR. J. ROMÁN CORONA RIVERA Institut de Genética Humana "Dr. Enrique Corona Rivera" Universidad de Guadalajara.

Crean pinzas nanométricas que manipulan objetos microscópicos con precisión


Investigadores de la Johns Hopkins University, de Estados Unidos, han realizado experimentos con dispositivos del tamaño de una partícula de polvo, con los que se pueden agarrar y quitar células vivas de sitios difíciles de alcanzar, sin necesidad de usar cables eléctricos o baterías.

Estos dispositivos tienen forma de micropinzas, se mueven con imanes y mediante señales térmicas y bioquímicas, y miden aproximadamente la décima parte de un milímetro de diámetro, publica la John Hopkins en un comunicado.

En las pruebas realizadas en laboratorio, los científicos utilizaron las micropinzas para realizar un procedimiento similar al de la biopsia, que consiste en extraer muestras de tejido orgánico para examinarlas en el microscopio.

Nanomáquinas autónomas

En concreto, los investigadores extrajeron muestras de un tejido animal colocado en el extremo de un estrecho tubo.

Según explica el director de esta investigación, el ingeniero David H. Gracias, profesor de química y de ingeniería molecular en la Escuela de Ingeniería Whiting, estas pequeñas herramientas son de bajo coste, y pueden ser dirigidas en masa por productos bioquímicos no tóxicos.

Por eso, y a pesar de que aún requieren de algunos refinamientos antes de poder ser usadas en humanos, suponen un gran paso hacia la creación de herramientas quirúrgicas de escala nanométrica, bioquímicamente sensibles y, quizá, en el futuro, incluso autónomas.

Dichas herramientas ayudarán a los especialistas de la salud a diagnosticar enfermedades y a administrar medicamentos de una forma más eficiente y menos invasiva.

Cómo funcionan

Hoy día, los médicos que deben recoger células o manipular tejidos en el interior del cuerpo de un paciente, a menudo usan micropinzas conectadas a finos cables o tubos. Pero estas conexiones dificultan las exploraciones, en especial en áreas de más difícil acceso o localización, explicaron los científicos en el Journal of the American Chemical Society.

Gracias y sus colaboradores consiguieron eliminar este problema, introduciendo níquel chapado en oro en las micropinzas. De esta forma, éstas pueden ser dirigidas mediante imanes situados fuera del cuerpo.

En las pruebas realizadas con este sistema, los científicos lograron mover así, a distancia, las micropinzas, a lo largo de una relativamente extensa porción de tejido.


Por otro lado, las micropinzas son inducidas a atrapar y extraer células de tejido también “a distancia”, mediante su exposición a ciertos productos bioquímicos o a altas temperaturas.

En concreto, el movimiento de cierre de estos dispositivos nanométricos se produce a partir de una capa de metal tensionada, que se mantiene abierta mediante segmentos de un polímero orgánico situado en cada articulación. Existen varias formas de reblandecer el polímero, y liberar así la tensión para cerrar la pinza.

Por ejemplo, se puede cerrar la micropinza aumentando su temperatura por encima de los 40 grados centígrados, al introducirla en una solución cáustica. Los investigadores descubrieron asimismo que algunas soluciones biológicas no tóxicas también pueden debilitar el polímero, y conseguir así que la pinza se cierre sobre su objetivo.

Resultados y posibles aplicaciones

En las pruebas realizadas en el laboratorio, los científicos usaron una micropinza, guiada por un imán, para atrapar y transportar una gota teñida de entre un grupo de gotas incoloras, dentro de una solución acuosa.

Asimismo, el equipo también logró capturar docenas de células de tejido animal, que seguían vivas tras 72 horas, lo que indica que el proceso de captura no las dañó.

Estos resultados demuestran, según los investigadores, que este sistema es viable y presenta un enorme potencial para aplicaciones médicas. Aún quedan algunos pasos para perfeccionarlo, por ejemplo de momento la micropinza sólo puede cerrarse una vez sobre un objetivo y luego no puede ser reactivada para reabrirla y que suelte su contenido, pero su funcionamiento actual resulta prometedor.

Las micropinzas fueron fabricadas con fotolitografía, el mismo proceso que se emplea para fabricar chips informáticos.

En el futuro, cuando estos dispositivos se inserten en el cuerpo y se muevan mediante los imanes, serán vistos por los médicos gracias a las más modernas tecnologías de imágenes, como la MRI o exploración por medio de resonancia magnética. De esta forma, los especialistas podrán guiarlos hacia su objetivo.

martes, 24 de marzo de 2009

México ante Dios



-->Libro interesante que atañe de manera directa a la historia de México del siglo XIX.

Al igual que con sus libros anteriores, el planteamiento histórico salta a la vista. En esta ocasión ante un enemigo colectivo. Su novela se ocupará de demostrar la injerencia de la Iglesia católica en el devenir nacional durante el siglo xix.

Ponciano, un caricaturista en contra del gobierno de Díaz, ha caído en la celda en que Valentín Altamirano paga sus culpas dentro de la fortaleza de San Juan de Ulúa. Las condiciones son menos que precarias. La oscuridad es total, las cucarachas y los roedores son inquilinos tan indeseables como la humedad y la idea de que no saldrán vivos de ahí. Es por ello que Valentín se confía de su compañero para contarle una historia que tiene documentada, escondida en el sótano de lo que, alguna vez, fue su negocio. Él sabe que no saldrá con vida y ve en Ponciano la única posibilidad de que su conocimiento salga a la luz.

Entonces inicia el recorrido histórico. De un modo casi panfletario y con la acidez propia de la crítica unilateral, Valentín le hará saber de los manejos de la más alta jerarquía eclesiástica para llevar a Iturbide al poder. Tras su caída, lo que hizo esta institución (poseedora de más de la mitad de los bienes inmuebles del país) por sostener, una y otra vez, a Santa Anna en el gobierno de una nación en la que los únicos privilegiados eran el clero, el ejército y otros cuantos. Si se considera el fuero y sus leyes reservadas, poco se podría haber hecho en contra de ellos. Mucho más, si son los que financian los golpes de Estado, los cuartelazos y una nueva ascensión de Su Alteza Serenísima dado que es un gobernante que se puede tener bajo control. Lo que menos importa es el bienestar del país mientras siga siendo la Iglesia quien detente el poder. Al parecer, las cosas habrían seguido por esos derroteros de no ser por un grupo de prohombres que se tomaron el trabajo de resquebrajar la estructura del país. Parece no haber duda de que fue el clero quien trajo a Maximiliano a gobernar con tal de deshacerse de Benito Juárez. La Guerra de Reforma fue financiada por ellos. Así, lo que salta a la vista es la deuda de esta institución para con el país.

Como muchas novelas históricas, México ante Dios padece el problema de su extensión. Aún más cuando las consignas vertidas por ambos personajes parecen no matizar y sus opiniones se repiten constantemente. Sin embargo, esta novela debe verse como la posibilidad de hacer un recorrido por el tortuoso siglo xix y aprender lo que no aparece en la historia oficial. Además de ello, se puede rescatar el fragmento novelístico que tiene que ver con la vida de algunos personajes de ficción en los que la pluma del autor demuestra que tiene los tamaños para narrar algo que, aunque impregnado de crítica, no sea una constante retahíla de ataques en los que Martín Moreno asume el papel del agraviado. Valdrá la pena leerlo; si no, que lo desmientan las varias decenas de miles de ejemplares vendidos.

Mexico ante Dios

domingo, 22 de marzo de 2009

La conciencia se extiende por el cerebro siguiendo un patrón


La conciencia es una propiedad emergente de la mente humana, pero cuestiones básicas acerca de ella, como sus tiempos, su localización o la dinámica de los procesos neuronales que permiten el acceso consciente a la información que nos rodea, aún no han sido determinadas.

Esta falta de información se ha subsanado en parte gracias al trabajo realizado por un equipo de neurocientíficos (Raphaël Gaillard, Stanislas Dehaene, Lionel Naccache y otros) de la unidad de “Neuroimaginería Cognitiva” del Institut National de la Santé et de la Recherche Médicale (INSERM).

Estos investigadores han demostrado, por vez primera, que el acceso a la conciencia se expresa, en el cerebro, mediante cuatro marcadores diferentes de actividad cerebral, informa el INSERM en un comunicado.

El hallazgo de dichos marcadores fue posible gracias a los electrodos implantados en los cerebros de un grupo de personas con epilepsia, que previamente habían sufrido esta intervención como consecuencia de su enfermedad, y que se prestaron a ayudar a los científicos en su investigación.

Oportunidad de conocer la conciencia

Según explica al respecto la revista New Scientist, las señales de actividad neuronal detectadas y recogidas por los electrodos parecen demostrar que la conciencia es producto de la actividad coordinada de todo el cerebro y que existiría una “marca de conciencia”, es decir, un patrón de actividad neuronal correspondiente a la conciencia y que vendría determinado por los cuatro marcadores antes mencionados.

En la revista PLOS Biology, donde se ha publicado el artículo que detalla el experimento, se explica que algunos neurocientíficos han argumentado que la conciencia se encuentra en un solo lugar del cerebro, pero que la idea predominante en la actualidad es que la conciencia sería una propiedad más global.

Pero, hasta el momento, probar cualquiera de estas teorías ha resultado un verdadero desafío, dado que las técnicas no invasivas, como la exploración de resonancia magnética o el electroencefalograma, pueden dar información espacial o temporal, pero no ambas.

La única manera de conseguir ambos datos simultáneamente es implantar electrodos en lo más profundo del cráneo, pero por razones éticas esta operación no puede realizarse con personas sanas. La oportunidad brindada por los enfermos de epilepsia ha abierto la puerta a los científicos.

Experimentando con palabras

En el experimento participaron 10 individuos a los que se habían implantado electrodos intracraneales para tratarlos para un tipo de epilepsia que es resistente a los medicamentos.

Mientras que se registraban las señales recogidas por dichos electrodos, los investigadores fueron proyectando palabras ante los ojos de los participantes, durante tan sólo 29 milisegundos. Estas palabras podían ser amenazadoras (matanza, ira) o emocionalmente neutras (primo, ver).

Los vocablos a veces iban precedidos y seguidos de “máscaras” visuales, que evitaban que las palabras fueran procesadas de manera consciente (percepción subliminal), y otras veces podían verse con claridad, esto es, que las palabras podían ser procesadas conscientemente.

Los participantes debían presionar un botón para indicar la naturaleza de cada vocablo, lo que permitió a los científicos confirmar si habían sido conscientes de él o no.

Cuatro marcadores

En total, los investigadores recibieron información de 176 electrodos, que cubrían casi la totalidad del cerebro de los participantes. Así, pudieron establecer que la conciencia de las palabras percibidas podía asociarse a los siguientes cuatro marcadores.

En primer lugar, durante los primeros 300 milisegundos del experimento, la actividad cerebral fue muy similar tanto durante las tareas conscientes como durante las tareas no inconscientes, lo que indica que el proceso de conciencia tarda más o menos ese tiempo en comenzar.

Inmediatamente después, diversos tipos de actividad cerebral se produjeron (oscilaciones tardías y prolongadas y aumento de la potencia en las frecuencias gamma), pero sólo con aquellas palabras de las que los participantes habían sido conscientes y no con las otras.

También se constató un aumento tardío y prolongado de las oscilaciones simultáneas (sincronías) de dos áreas cerebrales distantes, en las frecuencias beta. Por último, se reveló un aumento tardío y prolongado de la comunicación recíproca entre áreas cerebrales distantes.

Un proceso convergente y dinámico

Dado que estos marcadores sólo se registraron cuando los voluntarios fueron conscientes de las palabras, Gaillard y sus colaboradores señalan que los cuatro supondrían una “marca o patrón de la conciencia”.

Tal y como explican los investigadores en el comunicado del INSERM, estos cuatro marcadores, que aparecen 300 milisegundos después de la percepción de una palabra, reflejarían una cooperación cerebral intensa.

Esta convergencia de marcadores caracterizaría el proceso de la conciencia y aportaría una visión más moderna de ésta. En lugar de buscar un sitio específico donde encontrarla, la conciencia deberá ser considerada una dinámica general y distribuida de la actividad cerebral, concluyen los investigadores.

Bernard Baars neurocientífico del Neuroscience Institute in San Diego, California, que en 1983 propuso una teoría sobre la conciencia como un “lugar de trabajo global” (en lugar de que la conciencia esté localizada en único punto del cerebro), afirma en Newscientist estar “emocionado por estos resultados” que, según él, proporcionan la “primera evidencia realmente sólida y directa” de su teoría.

Baars apunta, además, que el hallazgo de esta “marca de conciencia” podría ayudar a buscar señales de conciencia en personas que sufran daño cerebral o en niños y animales con la ayuda de técnicas no invasivas, como el electroencefalograma.

viernes, 20 de marzo de 2009

Enfermedad de Gaucher


El día de hoy a las 12 de día se llevó a cabo en el Auditorio de Patología una ponencia sobre Enfermedad de Gaucher por parte de la Dra. Leticia Belmont, egresada de la UNAM. Quién impartió una verdadera CÁTEDRA sobre la enfermedad, así como su Diagnóstico y su tratamiento. Siempre enfocado al tratamiento y el diagnóstico en la vida real de los Hospitales Mexicanos, abriéndonos una invitación a investigar y darnos a conocer que en la actualidad EXISTE UN TRATAMIENTO EFECTIVO más no la cura.

Quieres leer más visita INSTITUTO DE GENÉTICA HUMANA

Enfermedad de Gaucher


El día de hoy a las 12 de día se llevó a cabo en el Auditorio de Patología una ponencia sobre Enfermedad de Gaucher por parte de la Dra. Leticia Belmont, egresada de la UNAM. Quién impartió una verdadera CÁTEDRA sobre la enfermedad, así como su Diagnóstico y su tratamiento. Siempre enfocado al tratamiento y el diagnóstico en la vida real de los Hospitales Mexicanos, abriéndonos una invitación a investigar y darnos a conocer que en la actualidad EXISTE UN TRATAMIENTO EFECTIVO más no la cura.

Y en verdad que es una maravilla el tratamiento basado a implementar externamente la enzima BETA-GLUCOCEREBROXIDASA, controlando al paciente y ofreciéndole una EXCELENTE calidad de vida.

Para leer respecto a esta enfermedad les dejo los siguientes documentos:
Manifestaciones Óseas
Presentación de Casos
Tres casos de EG tipo I

Después de hacernos jurar, término la ponencia y a todos nos quedó en la mente las palabras que ella nos invitaba a que formáramos como nuestro estandarte ...

"CAMBIEMOS LÁGRIMAS POR SONRISAS""

Llega el médico a casa, a través de Internet


Internet se está convirtiendo en un medio para diagnosticar, tratar y curar enfermedades. Ayudas para tratar la diabetes, para dejar de fumar e, incluso, para sanar la depresión pueden ya encontrarse en páginas web como HealthMedia.

Esta web, fundada en el estado de Michigan (en Estados Unidos) oferta numerosos programas. Algunos de ellos ayudan a resolver desórdenes alimenticios, a curar el estrés y los problemas del sueño o a superar la adicción al tabaco.

Pero no sólo eso, tal y como publica la revista New Scientist, por ejemplo, el programa U-Can-Poop-Too de HealthMedia se encuentra en periodo de pruebas médicas para saber si puede ayudar a niños de más de tres años que no controlan del todo sus esfínteres a superar su problema.

Por otro lado, HealthMedia también oferta el programa BGAThome que, según la revista DiabetesCare, consiste en una intervención psico-educativa que enseña a los individuos con diabetes del tipo 1 a detectar e interpretar las claves de su enfermedad.

Tratamientos más accesibles

Otra web que se oferta, en este caso para el tratamiento de la depresión, es MoodGym. Con base en Australia, esta web cuenta ya con 200.000 usuarios registrados, de un total de 203 países.

Las pruebas con MoodGym comenzaron a realizarse en 2006, con voluntarios que espontáneamente se apuntaron a la website dando su consentimiento para ser tratados, según explicaron hace un tiempo sus fundadores en The Health Report.

Inicialmente, se reclutaron nada menos que 15.000 personas, en tan sólo cuatro meses, de las que fueron seleccionadas sólo 2.700 para dichas pruebas, siguiendo diversos criterios de selección.

Según sus creadores, una de las claves para el funcionamiento y el éxito de este sistema radica en que alrededor del 60% de las personas con problemas de salud mental no buscan la ayuda de profesionales. Ser tratados por Internet resulta, por tanto, más fácil para algunas personas.

Remedios personalizados

Pero no sólo resulta más sencillo para la gente ponerse en las manos de un servicio en Red sino que, además, resulta más barato que un tratamiento convencional.

Victor Strecher, director del Center for Health Communications Research de la Universidad de Michigan, y fundador de HealthMedia, afirma que la e-salud abre la posibilidad de ofrecer cursos que costarían unos 400 euros por tan sólo 25 céntimos por persona, sabiendo que se puede llegar a millones de individuos. Lo único que necesita el “paciente” es un ordenador y un acceso de alta velocidad a Internet.

Los programas de tratamiento suelen comenzar con una evaluación del usuario, para determinar si éste puede beneficiarse de dichos programas o si, por el contrario, necesita acudir a un centro médico para un tratamiento en persona.

Mediante cuestionarios se miden posteriormente los progresos, y se actualizan la información y las instrucciones personalizadas en cada caso.

Gran aceptación

Los tratamientos por Internet suelen funcionar haciendo recomendaciones específicas basadas en las informaciones que los usuarios suministran. Éstos trabajan así siguiendo una serie de módulos educativos y de ejercicios adaptados a sus necesidades.

En todo momento, los usuarios pueden además visitar un foro de ayuda o acceder a vídeos explicativos para comprender su enfermedad, así como contactar por e-mail e incluso por teléfono con médicos o psicólogos.

El nivel de implicación médica varía evidentemente dependiendo de cada caso. La intervención humana encarece los tratamientos y, por tanto, reduce la cantidad de personas que se incorporan a ellos.

Aún así, la gran aceptación de estos programas ha llamado incluso la atención a gobiernos y compañías de seguros de salud, que comienzan a darse cuenta de que este sistema constituye una buena fórmula de aproximación a la salud pública, a un coste efectivo.

Método eficiente

Hace dos años, por ejemplo, el National Institute for Health and Clinical Excellence del Reino Unido lanzó por Internet el programa FearFighter, destinado a tratar el pánico y las fobias; y el Beating the Blues, que es una terapia cognitiva conductual informatizada destinada al tratamiento de la depresión y de la ansiedad.

Las pruebas previas a su aprobación descubrieron que este último sistema ayudó significativamente a los pacientes a paliar su depresión, incluso en el caso de aquéllos que no se estaban medicando.

En líneas generales, numerosos problemas de salud mental pueden tratarse vía Internet con un soporte médico mínimo, explican los promotores de estos métodos. Dos estudios realizados por la Unidad de e-Terapias de la Swinburne University, realizados con 86 participantes que sufrían de síntomas de pánico y que fueron tratados bien cara a cara bien con un programa informático on-line (en el que tenían contacto con un terapeuta vía e-mail), demostraron que ambos métodos resultaron ser igual de efectivos para los pacientes.

Según los especialistas, la e-salud funciona y tiene un gran futuro. De hecho, llegará a ser muy común dentro de 10 ó 15 años, y rivalizará con las grandes farmacéuticas dentro de 50.

En nuestro país esta implantación parece ir más lenta. Como referencias a este tema sólo hemos encontrado un artículo publicado en 2007 por el Departamento de Personalidad, Evaluación y Tratamiento Psicológicos de la Universidad de Valencia. En él se hablaba de dos programas de autoayuda usando Internet, “HÁBLAME” y “SIN MIEDO”, cuya finalidad era ofrecer una cura eficaz para fobias específicas. Ambos programas estaban pensados para que los pacientes pudieran auto-aplicarse el tratamiento, paso a paso.

Como e-salud, además de los tratamientos por Internet se entiende también cualquier otro servicio que esté apoyado en las nuevas tecnologías, como los historiales médicos electrónicos, la telemedicina, la difusión de información o los equipos virtuales de cuidados sanitarios.

miércoles, 18 de marzo de 2009

El gen que controla el esmalte dental puede revolucinar la odontologìa

Muchas personas tienen problemas con el esmalte dental y la mayoría de las caries se originan como un agujero en el esmalte que provoca el deterioro del diente. Entre las posibles ventajas estarán la reparación del esmalte dañado, un nuevo concepto en la prevención de las caries y la rehabilitación, o incluso la creación de dientes de sustitución.

QUIERES LEER MÁS VISITA INSTITUTO DE GENÉTICA HUMANA.

El gen que controla el esmalte dental puede revolucionar la odontología

Científicos estadounidenses han identificado el gen que controla la fabricación del esmalte de los dientes, un avance que abre nuevas posibilidades para la odontología.
A la izquierda, el diente de un ratón normal con el esmalte dental marcado en rojo. A la derecha, el de un ratón al que se ha suprimido el gen que controla la formación del esmalte dental.

Aunque el descubrimiento tardará en poder ser aplicado a los seres humanos, en el futuro debe ser posible utilizar células madre de los dientes para estimular el crecimiento de esmalte nuevo, según Chrissa Kioussi, de la universidad de Oregon, una de las autoras del estudio.

Entre las posibles ventajas estarán la reparación del esmalte dañado, un nuevo concepto en la prevención de las caries y la rehabilitación, o incluso la creación de dientes de sustitución, según el estudio publicado en "Proceedings of the National Academy of Sciences" (PNAS).

El gen, denominado Ctip2, es un "factor de transcripción" del que ya se conocían otras funciones en la respuesta inmunológica y el desarrollo de la piel y el sistema nervioso, a las que se añade ahora la de fabricar esmalte dental.

"Esta es la primera vez que se halla un factor de transcripción que controla la formación y la maduración de los ameloblastos, las células que secretan esmalte", afirma Kioussi.

Los investigadores utilizaron ratones de laboratorio a los que silenciaron ese gen.

Los ratones carecían de los sistemas biológicos necesarios para sobrevivir, pero permitieron a los científicos ver que tenían dientes rudimentarios listos para salir, aunque sin la necesaria capa de esmalte.

Muchas personas tienen problemas con el esmalte dental y la mayoría de las caries se originan como un agujero en el esmalte que provoca el deterioro del diente.

Hasta ahora, algunos científicos habían logrado reproducir la parte interna de los dientes en experimentos con animales, pero eran dientes sin esmalte porque se desconocía el material genético necesario para fabricar esta sustancia.

martes, 17 de marzo de 2009

HeLa: Las primeras células humanas inmortales

Muy conocidas en el ambiente científico, las células HeLa pueden considerarse la primera línea de células humanas inmortales. Llevan más de 50 años sirviendo de fuente de investigación en el campo médico y siguen tan frescas como el primer día. Entendiendo siempre lo que significa “ser inmortal” para una célula. Vamos a conocer a estas desafiantes muestras de la biología imperecedera y de la triste historia humana que hay detrás.

Quieres leer más visita INSTITUTO DE GENÉTICA HUMANA

HeLa: Las primeras células humanas inmortales

Se llamaba Henrietta Lacks. Nació el 1 de agosto de 1920 en Roanoke, Virginia (EEUU). De raza negra, esta mujer eligió una mala época para venir al mundo, pero tras una ajetreada vida, encontró un buen marido y una numerosa familia. Había logrado alcanzar una situación estable y las cosas parecían marcharle bien, hasta que le comunicaron la terrible noticia: cáncer de útero terminal. El tumor era tan maligno que su progreso dejó atónitos a los médicos y a Henrietta, con ocho meses de vida. Se intentaron todo tipo de terapias, pero con 31 años de edad y cinco hijos, tres de ellos aún en la cuna, Henrietta moría en el hospital Jonh Hopkins el 4 de octubre de 1951. Esta, que podría ser una historia de lo mas común, se vuelve un hito cuando el joven médico George Gey hace con un cultivo de las resistentes células extraídas del tumor de Henrietta y declara a los medios de comunicación que tiene en sus manos el cultivo continuo de un tejido tumoral humano, la primera línea celular inmortal de la historia. Gey y Henrietta ni siquiera habían llegado a conocerse. El material biológico perteneciente a la fallecida había pasado a manos de los médicos que la trataban y de éstos, a las probetas de Gey. Las observaciones de estas muestras celulares les habían llevado a una conclusión sorprendente: eran inmortales.


Las HeLa no conocen la apoptosis y se multiplican indefinidamente


Gey las bautizó como células HeLa, en principio creyendo que provenían de una mujer llamada Helen Lane, pero no fue hasta 20 años mas tarde cuando se supo que en realidad partían de una ciudadana negra pobre que había fallecido en 1950. Gracias a las investigaciones de Gey, estas células se conocieron en todo el mundo. Su particular característica las hacía muy atractivas para la investigación médica. No se conocía ningún tipo de célula que pudiera sobrevivir fuera del soporte vital humano y que, además, se multiplicara indefinidamente. Recordemos que las células normales se dividen hasta el llamado “límite de Hayflick” que en las células humanas es de unas cincuenta veces, pero las células HeLa se lo saltan a la torera. En cierto sentido, son inmortales. No envejecen. Mientras se les proporcione el entorno adecuado siguen creciendo y dividiéndose siempre que tengan nutrientes, oxígeno, espacio y algún medio de deshacerse de sus residuos. De hecho, decenas de laboratorios hoy día siguen trabajando con esta línea de células que partieron del tumor original hace ya 50 años. Las HeLa, además de poseer esta característica de multiplicarse eternamente, también presentan una resistencia inusual. Se dividen en 24 horas y doblan su número tan rápidamente que sorprenden. Son tan agresivas que pueden contaminar un cultivo cualquiera con una sola célula HeLa.

Hoy los investigadores sospechan que su crecimiento agresivo y su resistencia a la apoptosis se deben principalmente a una combinación de papilomavirus 18 que produce una proteína que degrada p53 sin mutarla, y de alteraciones varias en los cromosomas 1, 3, 5 y 6. Pero nadie sabe aún exactamente por qué las HeLa poseen estas características de supervivientes natas, sin permiso de la naturaleza.


La investigación de las células de Henrietta salvó muchas personas condenadas a una muerte segura


El trabajo de Gey revolucionó el mundo de la biomedicina. Equipos de todo el planeta desentrañan los procesos cancerosos y genéticos gracias a las células de Henrietta, y muchas de estas investigaciones relacionados con premios Nobel. Jonas Salk y sus colaboradores lograron por primera vez hacer crecer el virus de la poliomielitis en las prolíficas HeLa, lo que permitió desarrollar un test de diagnóstico y la vacuna salvadora. Las HeLa han estado presentes en destructivos ensayos atómicos y en los primeros vuelos al espacio, comprobando su resistencia a la gravedad cero. Hoy día, no hay un banco de tejidos donde no se almacenen viales congelados con la inscripción HeLa o un laboratorio de cultivos donde la herencia inmortal de Henrietta no ocupe algún frasco en el incubador. Quien no las emplea para estudiar el cáncer o la fisiología celular, las utiliza como línea de control por su facilidad de cultivo y su docilidad de manejo. Se calcula incluso, que la masa de células que existen en la actualidad podrían formar cientos de veces la masa del cuerpo de la propia mujer que las engendró. Y por supuesto, ventas billonarias de este “producto” que los laboratorios compran sin reparar en gastos. La familia de Henrietta jamás obtuvo ningun beneficio económico de todo esto.


Aquí yacen los restos olvidados de Henrietta, en un rincón perdido de Virginia


Estas células que Henrietta “donó” sin saberlo (su familia se enteró 24 años después) han contribuido a unos avances espectaculares en la medicina y la genética. Cientos de laboratorios de todo el mundo portan el estandarte genético de la que vivió y murió hace más de 50 años en una pequeña localidad llamada Lackstown, en Virginia. Allí se encuentra la tumba sin nombre, junto a la casa de su infancia, que entierra los restos de esta mujer excepcional, que la ciencia apenas recuerda y sin embargo, mientras lees estas líneas, sus células siguen creciendo y multiplicándose en aras de mejorar la calidad de vida de gente anónima que jamás conocerá ni el nombre de su benefactora. La venganza de Henrietta vendrá en la irónica idea de que cuando nosotros nos hayamos ido, ella aún seguirá viviendo en miles de probetas de todo el mundo.

Crean el mapa cerebral más completo de la inteligencia humana


Un equipo de neurocientíficos del Instituto de Tecnología de California (Caltech) ha realizado el mapeo cerebral más global de las habilidades cognitivas humanas realizado hasta la fecha.

Sus resultados han proporcionado una nueva comprensión sobre cómo diversos factores de nuestra inteligencia, mensurables con la puntuación de un “cociente de inteligencia” (IQ), dependen de regiones particulares del cerebro.

El neurocientífico Ralph Adolphs, profesor de psicología y neurociencias en el Caltech, y sus colaboradores reunieron mapas del cerebro realizados con dos tecnologías altamente avanzadas: las imágenes por resonancia magnética (MRI) (técnica que utiliza el fenómeno de la resonancia magnética para obtener información sobre la estructura y composición del cerebro); y la tomografía computerizada (CT) (que genera una imagen tridimensional del cerebro).

Todas estas imágenes fueron tomadas de un total de 241 pacientes neurológicos del registro de lesionados cerebrales de la Universidad de Iowa.

Relacionando el IQ con el cerebro

Estos pacientes presentaban algún grado de discapacidad cognitiva debido a infartos, resección de tumores o traumas en el cerebro.

Todos ellos fueron sometidos a un test de inteligencia denominado Wechsler Adult Intelligence Scale (WAIS), que es el test de inteligencia más usado en el mundo y que analiza la inteligencia global de los individuos, desde distintos aspectos.

El test WAIS refleja, en concreto, cuatro indicadores de inteligencia: el índice de comprensión (habilidad para entender y producir discursos y usar el lenguaje); el índice de organización perceptiva (procesamiento visual y espacial); el índice de memoria de trabajo (habilidad para guardar temporalmente información en la mente); y el índice de velocidad de procesamiento.

Después de transferir las imágenes cerebrales obtenidas a un marco de referencia común, desarrollado por la neurocientífico de la Universidad de Southern California, Hanna Damasio, y utilizando una técnica denominada voxel-based symptom-lesion mapping (mapeo de síntoma de lesión basado en voxel), donde cada voxel es una medida tridimensional de un volumen de un milímetro cúbico, Adolphs y sus colaboradores pudieron relacionar la localización de las lesiones cerebrales de los pacientes con las puntuaciones obtenidas por éstos en el test WAIS.

Mapeo de las habilidades cognitivas

Según declaró Adolphs en el comunicado del Caltech, con esta combinación de datos “la primera pregunta a la que hemos respondido es si había algunas partes del cerebro claves para la puntuación en los indicadores del test o si estas partes se encontraban distribuidas de una forma que no podían ser mapeada”.

Los resultados demostraron que sí podía mapearse la inteligencia: a excepción de la velocidad de procesamiento, que parece repartirse por todo el cerebro, el mapeo de las lesiones de los pacientes demostró que los otros tres indicadores de nuestra inteligencia dependen de áreas específicas del cerebro.

Así, las lesiones en la corteza frontal izquierda se asociaron con bajas puntuaciones en el índice de comprensión verbal; las lesiones en la corteza frontal izquierda y parietal (localizada detrás del lóbulo frontal) fueron asociadas con bajas puntuaciones en el índice de memoria de trabajo; y las lesiones en la corteza parietal derecha se relacionaron con las bajas puntuaciones en el índice de organización perceptiva.

El estudio reveló, por otro lado, que se suceden una gran cantidad de superposiciones en las regiones del cerebro responsables de la comprensión verbal y de la memoria de trabajo. Estas dos habilidades cognitivas, que aparecen como separadas en las mediciones del WAIS, podrían por tanto un solo tipo de inteligencia, puesto que tienen un lugar de origen similar en el cerebro.

Apoyo al diagnóstico

Según los científicos, los detalles sobre la estructura cerebral de la inteligencia suministrados por el estudio podrían resultar útiles en futuras revisiones del test WAIS, dado que diversas pruebas de éste están agrupadas en base a similitudes neuroanatómicas.

Además, el mapeo cerebral producido por el estudio podría ser utilizado como una herramienta de diagnóstico. Los especialistas podrían combinar el mapeo cerebral con los resultados de sus pacientes en el test de inteligencia WAIS para localizar áreas del cerebro lesionadas.

“Aunque insuficiente para servir como diagnóstico, el mapeo podría suministrar información que ayude a los médicos a establecer qué partes del cerebro son disfuncionales”, afirmó Adolphs. A la inversa, usar el mapeo cerebral para predecir el IQ de pacientes también sería posible, aseguran los científicos.

Estos descubrimientos proporcionan los mapas cerebrales de los factores de inteligencia y establecen recomendaciones específicas para la interpretación y la aplicación del WAIS al estudio de la inteligencia de personas sanas o con alguna deficiencia cognitiva, explican los investigadores en un artículo aparecido en Neuron.

viernes, 13 de marzo de 2009

Otra puntada más del Yunque...

Otra vez éste individuo atentando en contra de las garantías individuales de los Mexicanos
Total, que no se les hizo suficiente lo de la macrolimosna (que por cierto todavía no terminan de pagar), ni sus desenfrenados comentarios sobre política, no se diga los complejos temas de bioética a los que se han atrevido a meter (digase aborto) y la novedad (más p*ndeja) del macrobus, y ahora para demostrarnos de que aquí rifa el Yunque acaban hace unos días de quitarle el derecho a estudiar a algunos cientos de chavos del colegio Cervantes Colomos.
Que si Felipe Caledrón dice que la educación va para arriba, el narco para abajo y que el Chapo sale en Forbes, y que si Estados Unidos está comploteando en contra de México por el momento México y el mundo viene desconociendo lo que en Jalisco (tierra Yunquista) está pasando.
Es triste también ver cómo los medios de comunicación le dedican más tiempo al futbol, a los precios de la verdura en el mercado de abastos o más estupideces dónde el objetivo es burlarse de las personas concientes y solo perdida y perdida de tiempo.
Preguntome yo, ¿que los tienen muy bien comprados? ¿No les dará vergüenza tener tanto poder y usarlo para quemar a Santiago Creel o betar a López Obrador en lugar de usarlo para solucionar problemas como los que ocurren en el colegio Cervantes por ejemplo (por decir uno)?
Caro lector: ¡Eso es impunidad! ¿De qué privilegios goza la iglesia católica que puede nomás por nomás echar una escuela abajo? ¿Qué diantres tiene el Juez que falló a favor en la cabeza? (estiercol seguramente, como sus hijos no estudian ahí pues que agusto).
Y lo peor de todo.. ¿Qué no está pasando a nosotros que nos estamos dejando?.. independientemente de la religión que profeses.. ¡abre los ojos por favor!.. ¡vivimos el ahora aquí en México!.. ¡Aquí entre seres humanos con ego y con intereses soberbios!.. ¡No el mañana en el cielo con ángeles ni demonios!.. ¡Ya estuvo bueno de esa apatía!.. Reflexionemos lo que está pasando.. ¡¡Los medios están comprados y son el pan y circo de cada día!!..

Microesferas de látex detectan virus en sangre a concentraciones mínimas


Un equipo de científicos norteamericanos ha puesto a punto una técnica muy sensible para detectar materiales biológicos, por ejemplo, virus, en las muestras de sangre a concentraciones extremadamente bajas: de hasta una partícula de antígeno por un cuatrillón (1,000,000,000,000,000) de moléculas de agua.

El sistema ha sido patentado por el National Institute of Standards and Technology (NIST), de Estados Unidos.

Según publica este Instituto en un comunicado, el esquema básico del dispositivo consistiría en unas pinzas ópticas.

Una pinza óptica es un instrumento científico que usa un rayo láser para proveer una fuerza atractiva o repulsiva, destinada a sostener y mover físicamente objetos dieléctricos microscópicos (como microesferas de látex o células biológicas).

Las pinzas ópticas han sido particularmente exitosas en el estudio de una variedad de sistemas biológicos en los últimos años.

En qué consiste

Por otro lado, el uso del láser en biología y medicina no es algo nuevo, puesto que los rayos láser tienen hoy día múltiples aplicaciones en diferentes áreas, entre ellas la cirugía. Pero la técnica desarrollada por el NIST destaca por su alta sensibilidad.

El dispositivo está compuesto por los siguientes elementos. Para detectar agentes causantes de enfermedades, los investigadores fabrican en primer lugar microesferas de látex y las recubren con un anticuerpo o antígeno específico (como un virus u otro agente infeccioso).

Estas microesferas llevan una carga, por lo que su movimiento es manipulado mediante un campo eléctrico generado por rayo láser.

Por otro lado, sobre una lámina de vidrio se coloca una muestra de líquido, por ejemplo de sangre, que contenga antígenos. Cuando la microesfera entra en contacto con la muestra, los antígenos de ésta se insertan en los anticuerpos de las esfera, de manera similar a como se pega el velcro (sistema muy extendido de apertura y cierre rápido), en el que los lazos de una tira se combinan con los ganchos de la otra.

Futuro test altamente sensitivo


Determinando la cantidad de energía del láser necesaria para tirar de la microesfera hasta separarla de la superficie de la lámina de vidrio, los científicos pueden inferir el número de antígenos individuales que estaban atando a la esfera.

Es decir, que la cantidad de fuerza mínima aplicada a las pinzas ópticas para romper los lazos suministra información sobre la concentración de anticuerpos en la muestra observada.

El National Institute of Standards and Technology ha vendido bajo licencia (aunque sin exclusividad) esta tecnología a la compañía Haemonetics de Masssachussets (en Estados Unidos) para que a partir de ella se desarrolle un práctico método de ejecución de tests sanguíneos altamente sensitivos.

Haemonetics es una empresa especializada en cuidados sanitarios, que suministra tecnologías de gestión de sangre a hospitales y agencias de recogida de sangre y plasma.

Magia óptica

Las pinzas ópticas son una de las microherramientas más pequeñas del mundo, pero su uso resulta de gran importancia actualmente en laboratorios de biofísica, biotecnología, medicina reproductiva, nanotecnología y biología celular y molecular.

Por ejemplo, estas pinzas se han utilizado para examinar la cantidad de fuerza necesaria para estirar y enrollar moléculas individuales de ADN, estudiar el movimiento browniano (movimiento aleatorio que se observa en algunas partículas nanoscópicas que se hallan en un medio fluido), y para manipular las células.

En 2007, ingenieros del MIT las utilizaron para manipular células sobre un chip de silicio, y en 2006, físicos de la Universidad de Bonn usaron pinzas láser para ordenar y alinear hasta siete átomos, según publicó entonces la revista Nature.

jueves, 12 de marzo de 2009

miércoles, 11 de marzo de 2009

Un pequeño fragmento de ADN puede provocar el autismo o la esquizofrenia


Los científicos han conseguido establecer una relación entre un pequeño fragmento de ADN y la esquizofrenia, el retraso mental y el autismo, lo que podría cambiar la perspectiva desde la que se contemplan actualmente las enfermedades, señala un artículo publicado en la revista Technology Review, del Instituto Tecnológico de Massachussets (MIT).

Bajo el título “A hole in the genome” (“un agujero en el genoma”), el artículo explica que, entre los más de 200 millones de pares de bases o “letras” que contiene el cromosoma 1 (que es el cromosoma humano más grande, con más de 3.100 genes), existe un pequeño fragmento de ADN que es particularmente propicio a los errores: el llamado 1q21.1.

Cuando el cromosoma 1 se duplica durante la división normal de la célula, al parecer, este fragmento tiende demasiado a “replicarse mal”, generando copias extra o menos copias de lo necesario.

Estos errores minúsculos pueden tener un impacto enorme en la gente que los porta. Diversos estudios realizados en los últimos años han demostrado, de hecho, que los fragmentos extra o perdidos de ADN en la región del 1q21.1 suponen el riesgo de desarrollar una amplia gama de trastornos psiquiátricos y neurológicos, entre ellos, el autismo, la esquizofrenia y el retraso mental.

Cambio de dirección en las investigaciones

El descubrimiento de que una única pieza de ADN puede producir diversas consecuencias para la salud abre nuevas vías en el estudio de las enfermedades: ahora, los científicos en lugar de centrarse sólo en hallar un desperfecto genético común en las personas con una enfermedad particular, han empezado a buscar las diversas enfermedades que puede producir un solo defecto genético, en personas distintas.

Estos estudios sugieren que incluso pacientes con diagnósticos diversos podrían compartir un problema biológico común. Mark Daly, un genetista del Broad Institute de Cambridge explica en Technology Review que los especialistas se han dado cuenta de que, en la búsqueda de las bases moleculares de la enfermedad, resultaría provechoso analizar las conexiones entre fenotipos (manifestaciones del genotipo) aparentemente no relacionados.

Daly y sus colaboradores descubrieron el año pasado, por ejemplo, que un solo fragmento de ADN del cromosoma 16 (los humanos tenemos un total de 46 cromosomas) sería responsable del riesgo de varios trastornos cerebrales.

Aunque los médicos sabían desde hace tiempo que anomalías estructurales de nuestro genoma pueden provocar problemas de desarrollo y enfermedades (por ejemplo, una copia extra del cromosoma 21 provoca el síndrome de down), hasta hace sólo unos años la tecnología no ha estado preparada para profundizar en el ADN.
Cromosoma 1.

Avances tecnológicos

La llegada de los llamados chips de ADN ha cambiado mucho el panorama. Estos chips consisten en una superficie sólida a la que se unen fragmentos de ADN y se utilizan para averiguar la expresión de los genes estudiados, ya que pueden registrar los niveles de miles de ellos de manera simultánea.

Los chips de ADN han permitido a los científicos buscar desperfectos estructurales en el ADN que resultan invisibles al microscopio. Estos errores son distintos a los cambios en una letra particular, que son los cambios que hasta hace poco se estudiaban para encontrar el origen genético de las enfermedades. Su tamaño puede además variar, abarcando desde sólo una parte de un gen hasta genes enteros.

La región 1q21.1 está considerada hoy día, a partir de los estudios con chips de ADN, uno de los “puntos calientes” del genoma, por su tendencia a la inestabilidad estructural y, también, porque dicha inestabilidad, en su caso, puede dar lugar a múltiples problemas.

Heather Mefford, una genetista pediátrica de la Universidad de Washington en Seattle, ha recopilado datos de variaciones de esta región en laboratorios genéticos clínicos de todo el mundo. Así, ha podido constatar que 25 pacientes de una muestra de un total de 5.000 personas con autismo, retraso mental y otras anomalías congénitas habían perdido el mismo fragmento dentro de dicha región.

Es un porcentaje pequeño, ciertamente, pero nadie en un grupo de tamaño similar y de personas sanas era portador del mismo error genético, lo que significa que el fallo en el 1q21.1 sería la causa, al menos parcialmente, de los problemas de estos pacientes, explican los científicos.

Trabajo por hacer


La razón de que los errores genéticos en la región 1q21.1 tengan tantas consecuencias radicaría en que esta región del ADN se encuentra rodeada por secuencias repetitivas propensas a la re-disposición o recolocación. Contiene al menos ocho genes conocidos, cuyas funciones son en su mayoría desconocidas.

Sin embargo, Mefford señala que, claramente, esta región del genoma debe contener uno o más genes importantes para el desarrollo cognitivo normal. Los resultados de sus investigaciones aparecieron publicados, a finales de 2008, en el New England Journal of Medicine.

Los científicos esperan que entender los mecanismos subyacentes afectados por la pérdida o la duplicación de fragmentos de ADN permita desarrollar nuevos tipos de medicamentos. Pero parece que aún queda mucho trabajo por hacer para aclarar del todo la cuestión.

De momento, el descubrimiento de que ciertas enfermedades puedan tener el mismo origen biológico explicaría porqué, por ejemplo, los miembros de una misma familia pueden sufrir todos trastornos mentales, y también porqué estos trastornos no son siempre los mismos en los distintos miembros de un solo grupo familiar.

Identificar el desperfecto biológico común sería crucial, pero también quedan por definir otros factores detonantes de las enfermedades, como el entorno, las variaciones en otras partes del genoma, o la versión del gen heredada del otro progenitor.

Tratamientos específicos


Una mejor comprensión de las consecuencias moleculares de errores en la región 1q21.1 podría cambiar los diagnósticos de trastornos como el autismo o la esquizofrenia. Sin embargo, de momento, sería sólo en los contados casos en que la gente con estas enfermedades presenta errores en la duplicación de dicha región.

A pesar de eso, los científicos tienen la esperanza de que, a medida que se vayan relacionando más variaciones genéticas con estos trastornos, las caracterizaciones genéticas se conviertan en herramientas cada día más útiles, para la predicción del mejor tratamiento para cada paciente en particular.

lunes, 9 de marzo de 2009

Consiguen penetrar en la memoria a corto plazo


Un equipo de psicólogos de la Universidad de Oregón y de la Universidad de California en San Diego (UCSD) ha conseguido, mediante exploración de resonancia magnética funcional (fMRI), ver qué información guardan las personas en la memoria.

La fMRI es una tecnología que permite medir la respuesta hemodinámica cerebral (esto es, los flujos de sangre que se ponen en marcha en el cerebro) asociada a la actividad neuronal. Los patrones de dicha actividad “hablan” a los científicos, puesto que tienen una correspondencia con el tipo de información que el cerebro está procesando.

En concreto, los investigadores norteamericanos estudiaron los “datos” que una serie de personas grabaron en su “memoria a corto plazo”. La memoria humana, que genera recuerdos cuando las neuronas integradas en un circuito refuerzan la intensidad de las sinapsis (uniones entre ellas), puede ser a corto o a largo plazo.

Dos tipos de memoria

La primera es el tipo de memoria que usamos “sobre la marcha”, para recordar lo que tenemos que comprar en el supermercado o para memorizar un número de teléfono, por ejemplo.

La segunda, que es consecuencia de un reforzamiento permanente de la sinapsis gracias a la activación de ciertos genes y a la síntesis de las proteínas correspondientes, es la estructura en la que se almacenan recuerdos vividos, los conocimientos acerca del mundo, las imágenes, los conceptos, las estrategias de actuación, etc.

Se ha calculado que el cerebro humano puede almacenar tal cantidad de información como para llenar unos veinte millones de volúmenes, como las mayores bibliotecas del mundo.

En lo que se refiere a la memoria a corto plazo, explican los investigadores en un comunicado emitido por la Universidad de Oregón, los humanos somos capaces de elegir qué datos o qué información almacenamos en ella.

Por otro lado, el análisis de los flujos sanguíneos del cerebro mediante la fMRI, permite identificar colores específicos o la orientación de los objetos que los observadores guardan en este tipo de memoria.

Cómo se hace

En los experimentos realizados, los participantes visualizaron estímulos durante un segundo y, una vez desparecido éstos, almacenaron en su memoria un aspecto específico de ellos.

Durante diez segundos después de cada exposición, los investigadores registraron la actividad cerebral mientras dichos participantes almacenaban su selección en su memoria a corto plazo.

Este proceso se reflejó en la corteza visual del cerebro, concretamente, en un área que se cree ayudaría al mantenimiento de los detalles visuales de nuestros recuerdos. Pero de dos formas distintas, en función del tipo de información almacenada.

Así, si los participantes guardaban información acerca de la orientación de los objetos presentados, aparecía un patrón de actividad concreto en la actividad cerebral que no tenía nada que ver con el patrón de actividad relacionado con la información sobre el color.

Por el contrario, si los participantes elegían recordar el objeto por el color, la información (o patrón de actividad neuronal) relacionada con la orientación del objeto se perdía completamente.

Recuerdos descifrados


Este control voluntario en la selección de aspectos de los recuerdos está en concordancia con investigaciones previas que habían documentado la capacidad limitada de lo que puede ser almacenado en nuestra memoria cada vez. Las personas, explican los investigadores, eligen lo que es relevante para ellos a la hora de memorizar.

Utilizando algoritmos de aprendizaje automático (que permiten a los ordenadores “aprender”) para examinar los patrones de activación de la corteza visual anterior del cerebro, que está relacionada con el recuerdo de diferentes estímulos, se pudo predecir con exactitud los aspectos recordados por los participantes, explicaron los científicos.

¿Pero cómo? En primer lugar, los incrementos en el flujo sanguíneo del cerebro, visualizados gracias a la fMRI, fueron medidos en voxels, que son pequeñas unidades tridimensionales. Estas unidades fueron dispuestas en una cuadrícula también de tres dimensiones.

Diversos vectores de esta cuadrícula, correspondientes a cada neurona, respondieron cuando los sujetos veían y almacenaban los aspectos escogidos de cada estímulo u objeto presentado.

Estas respuestas presentaron un patrón de actividad neuronal, situado en la parte posterior del cerebro, a partir del cual se pudo precisar qué aspectos estaban siendo almacenados en la memoria a corto plazo de cada participante.

Confluencia de estudios

Recientemente, otro grupo de científicos, de la Universidad Vanderbilt, también en Estados Unidos, obtuvo resultados similares en una investigación sobre la que publicó recientemente un artículo la revista Nature.

En este caso, el neurocientífico Frank Tong y sus colaboradores, fueron capaces de predecir con una exactitud del 80% qué patrones almacenaba cada individuo en su memoria, 11 segundos después de que los participantes vieran un estímulo.

La diferencia con el trabajo de los investigadores de la UCSD, es que Tong y su equpo sólo consiguieron determinar la orientación de los estímulos, y no otros aspectos visuales de éstos.

La principal conclusión que se extrae de ambos estudios es que las mismas áreas cerebrales estarían implicadas tanto en la percepción de estímulos como en el almacenamiento de nuestros recuerdos.

viernes, 6 de marzo de 2009

CliniData

CliniData

Un extraño ruido detectado por el GEO 600 podría probar que vivimos en un holograma



En 2006, Tendencias21 publicaba un artículo en el que se aunciaba la puesta en marcha del GEO 600 de Hanóver, en Alemania, un detector de ondas gravitacionales que se creía podía revolucionar la astronomía. La misión del GEO 600 consistía en detectar de manera directa lo que nunca antes había sido detectado: las elusivas ondas gravitacionales, que son ondulaciones del espacio-tiempo producidas por un cuerpo masivo acelerado –como un agujero negro o una estrella de neutrones- y que se transmiten a la velocidad de la luz. Estas ondas gravitacionales fueron predichas por la Teoría de la Relatividad de Einstein, pero en realidad sólo se han podido recoger evidencias indirectas de ellas.

Tampoco el GEO600, en sus años de funcionamiento, ha conseguido detectar de forma directa las ondas gravitacionales pero, según publicó recientemente la revista Newscientist quizá, casualmente, se haya topado con el más importante descubrimiento de la física en los últimos 50 años.

Gigantesco holograma cósmico

Un extraño ruido detectado por el GEO600 trajo de cabeza a los investigadores que trabajan en él, hasta que un físico llamado Craig Hogan, director del Fermi National Accelerator Laboratory (Fermilab), de Estados Unidos, afirmó que el GEO600 se había tropezado con el límite fundamental del espacio-tiempo, es decir, el punto en el que el espacio-tiempo deja de comportarse como el suave continuo descrito por Einstein para disolverse en “granos” (más o menos de la misma forma que una imagen fotográfica puede verse granulada cuanto más de cerca la observamos).

Según Hogan, “parece como si el GEO600 hubiese sido golpeado por las microscópicas convulsiones cuánticas del espacio-tiempo”. El físico afirma que si esto es cierto, entonces se habría encontrado la evidencia necesaria para afirmar que vivimos en un gigantesco holograma cósmico.

La teoría de que vivimos en un holograma se deriva de la comprensión de la naturaleza de los agujeros negros y, aunque pueda parecer una teoría absurda, tiene una base teórica bastante firme.

Los hologramas de las tarjetas de crédito y billetes están impresos en películas de plástico bidimensionales. Cuando la luz rebota en ellos, recrea la apariencia de una imagen tridimensional. En la década de 1990, el físico Leonard Susskind y el premio Nobel Gerard ‘t Hooft sugirieron que el mismo principio podría aplicarse a todo el universo.

Unidades de información


Según esta teoría, nuestra experiencia cotidiana podría ser una proyección holográfica de procesos físicos que tienen lugar en una lejana superficie bidimensional. Desde hace algún tiempo, los físicos han mantenido que los efectos cuánticos podrían provocar que el continuo espacio-tiempo convulsionara descontroladamente a escalas muy pequeñas. A estas escalas, la red espacio-temporal podría granularse, y estar compuesta de diminutas unidades (similares a los píxeles) de un tamaño de aproximadamente cien trillones de veces el tamaño del protón.

Si el ruido captado por el GEO600 ha registrado estas hipotéticas convulsiones, según Hogan, la descripción del espacio-tiempo cambiaría radicalmente. Eso supondría considerar el espacio-tiempo como un holograma granulado, y describirlo como una esfera cuya superficie exterior estaría cubierta por unidades del tamaño de la longitud de Planck (distancia o escala de longitud por debajo de la cual se espera que el espacio deje de tener una geometría clásica).

Cada una de estas “piezas” del mosaico universal sería, asimismo, una unidad de información. Y, según el principio holográfico, la cantidad total de información que cubre el exterior de dicha esfera habría de coincidir con el número de unidades de información contenidas en el volumen del universo.

Detección posible o error de fondo

Teniendo en cuenta que el volumen del universo esférico sería mucho mayor que el volumen de la superficie exterior, este galimatías se complica aún más. Pero Hogan también señala una solución para este punto: si ha de haber el mismo número de unidades de información o bits dentro del universo que en sus bordes, los bits interiores han de ser mayores que la longitud de Planck. “Dicho de otra forma, el universo holográfico sería borroso”, explica el físico.

El rayo láser del detector de ondas gravitacionales sólo puede verse con un dispositivo especial. Fuente: Wolfgang Filser/Max Planck Society.


La longitud de Planck ha resultado demasiado pequeña para ser detectada hasta la fecha, pero Hogan afirma que el GEO600 ha podido registrarla porque la “proyección” holográfica de la granulosidad podría ser mucho mayor, de alrededor de entre 10 y 16 metros.

Lo que ha detectado el GEO600, en definitiva, podría ser la borrosidad holográfica del espacio-tiempo, desde el interior de este universo holográfico. Cierto es que aún está por demostrar que el extraño ruido captado, de frecuencias entre los 300 y 1.500 hertzios, no proceda de cualquier otra fuente, reconoce Hogan.

Esta posibilidad también ha de considerarse, dada la sensibilidad del detector para captar desde el ruido del paso de las nubes hasta el de los movimientos sísmicos terrestres. De hecho, los investigadores del detector se afanan continuamente en “borrar” ruidos de fondo detectados por el GEO600, para poder definir lo importante.

Nuevas pruebas


De cualquier manera, si el GEO600 hubiera descubierto el ruido holográfico procedente de las convulsiones cuánticas del espacio-tiempo, entonces ese ruido obstaculizaría los de detectar las ondas gravitacionales. Sin embargo, por otro lado, el hallazgo podría suponer un descubrimiento incluso más fundamental, sin precedentes en la historia de la física.

Según publicó recientemente la web del GEO600, para probar la teoría del ruido holográfico, la sensibilidad máxima del detector ha sido modificada hacia frecuencias incluso más altas.

Los científicos consideran que el GEO600 es el único experimento del mundo capaz de probar esta controvertida teoría, al menos en la actualidad.