Quantcast
Channel: Desayuno con fotones
Viewing all 198 articles
Browse latest View live

La IAEA, el PACT y la radioterapia en los países en vías de desarrollo (I)

$
0
0

Hace unos meses me topé por casualidad con la historia de una mujer etíope enferma de un cáncer cervical en Etiopía. Su caso me impresionó y me llevó a querer conocer cómo los países en vías de desarrollo abordan el control del cáncer, una enfermedad que es responsable de más de cinco millones de muertes al año en estos países. Poco después, Luzmile Daci se puso en contacto con nosotros y se ofreció a contarnos su experiencia como físico médico en el Servicio de Radioterapia de un hospital de Tirana en Albania. Nos habló de que habían recibido apoyo de la IAEA (International Atomic Energy Agency) y el PACT (Programme of Action for Cancer Therapy) para implementar una serie de proyectos con el objetivo de mejorar la infraestructura y elevar la calidad de los tratamientos y servicios prestados en Radioterapia.

Como comentó entonces Joaquín Cabrera, un compañero de Badajoz, me di cuenta de que yo también sabía muy poco de la IAEA, de la labor que hace y que tampoco tenía idea de qué era exactamente el PACT, que tanto protagonismo tiene en todos los artículos que he leído acerca del control del cáncer en los países en vías de desarrollo. Seguro que muchos de vosotros tampoco tenéis claro qué es la IAEA, cómo está estructurada, cuáles son sus objetivos y en concreto qué proyectos está llevando a cabo en los países en vías de desarrollo.

Vienna_International_Centre

La IAEA es una organización intergubernamental independiente dentro del sistema de las Naciones Unidas. El Organismo, con sede en Viena (Austria), se fundó en el año 1957 y en la actualidad cuenta con 162 Estados Miembros que trabajan en todo el mundo para promover el uso seguro y pacífico de las tecnologías nucleares.

En concreto, en el ámbito de la salud humana, el objetivo de la IAEA es mejorar las capacidades de los Estados Miembros y también de sus múltiples socios para hacer frente a sus necesidades relacionadas con la prevención, el diagnóstico y el tratamiento de las enfermedades a través de la aplicación de técnicas nucleares. El artículo II del Estatuto de la IAEA dice así: “La IAEA procurará acelerar y aumentar la contribución de la energía atómica a la paz, la salud y la prosperidad en todo el mundo. Velará, en la medida en que sea capaz, para que la asistencia proporcionada por ella o por petición suya bajo su dirección o control, no se utilice de manera que contribuya a fines militares”.

Cuando uno lee estas cosas (o al menos a mí me pasa) provenientes de organizaciones tan grandes, tan burocratizadas de las que tantos países forman parte y con estatutos tan rimbombantes y ambiciosos, no puede evitar mostrarse escéptico y pensar que podría tratarse de un montaje de venta de humo y que los intereses y esfuerzos van a ir dirigidos fundamentalmente a los países más influyentes y con más medios, como tantas veces ocurre. Sin embargo, si uno profundiza e investiga cuáles son las misiones y los proyectos de la IAEA, la sorpresa es realmente grata. Por supuesto que, como todo organismo, tendrá deficiencias y malas gestiones, pero no cabe duda de que la IAEA está haciendo una labor muy importante a favor de la salud, particularmente en los países en vías de desarrollo.

Y es que el promover y facilitar el uso de la radiación ionizante para el diagnóstico y tratamiento del cáncer es una de las prioridades de la Agencia. Por ello, siendo consciente de las necesidades sanitarias en sus estados miembros más desfavorecidos, la IAEA lleva trabajando desde hace casi cincuenta años en más de 100 países para desarrollar programas de Radioterapia, Radiodiagnóstico y Medicina Nuclear. Además, con el aumento de la incidencia de cáncer en estos países, en los últimos años hay una demanda creciente de la asistencia de la IAEA para introducir y expandir la radioterapia en los países en vías de desarrollo.

Los recursos de los que dispone la IAEA son muy insuficientes para afrontar semejante desafío y por ello está utilizando como plataforma la infraestructura existente en los propios países para combatir el cáncer y también ha establecido alianzas con otros organismos e instituciones. En el año 2004, su Departamento de Cooperación Técnica puso en marcha el Programa de Acción para la Terapia del Cáncer (PACT) con el objeto de ampliar y mejorar los programas que forman parte de las estrategias nacionales de control del cáncer en países en desarrollo.

Los objetivos del PACT son:

-Establecer alianzas mundiales de organizaciones relacionadas con el cáncer que se comprometan a abordar el reto del cáncer en los países en vías de desarrollo.

-Movilizar recursos de organizaciones benéficas, fundaciones y otros organismos públicos y privados para ayudar a los países en vías de desarrollo a poner en práctica sus capacidades de medicina de radiación dentro de un programa de control nacional del cáncer (PNCC).

-Asegurar la transferencia efectiva y sostenible de tecnologías médicas que utilicen radiaciones ionizantes así como del conocimiento necesario a todos los estados Miembros en los que existan deficiencias.

Ahora mismo el PACT tiene puestas en marcha varias iniciativas, cuatro en concreto (imPACT, PMD, VUCCnet y AGaRT), para cumplir con estos objetivos. Tengo intención de introducirlas en el próximo post, aunque podéis ir adelantándoos si tenéis muchas curiosidad. En la página web de la IAEA hay mucha información de cada una de ellas con unas fotos muy conmovedoras y gráficos muy elaborados que permiten acercarnos a la realidad que viven millones de personas. No dudo de que lo que vais a descubrir os va a resultar esperanzador aunque desgraciadamente está a años luz de poder cubrir las necesidades de estos países.


Lluvia de microondas

$
0
0

DrMWLEn el post anterior nos quedamos en los hornos microondas y en sus no-efectos en la salud, pero después de estos: ¿qué hay de los teléfonos móviles? Ésta es una tecnología mucho más nueva y que además irradia directamente a las personas.

El estudio de los efectos de los teléfonos móviles sobre la salud se ha centrado principalmente en la carcinogénesis, es decir, en la capacidad de estos en provocar la aparición de gliomas, meningiomas y neurinomas acústicos (diferentes tipos de cáncer cerebral, la zona más expuesta a la radiación de microondas debida a la telefonía móvil). Se dejan de lado los efectos de los campos electromagnéticos sobre otro tipo de trastornos cognitivos, nerviosos, conciliación del sueño… ya que, hasta la fecha, los estudios no han revelado ningún tipo de reacción real a nivel nervioso debida al campo electromagnético.

Para empezar a hablar de los efectos carcinogénicos es necesario empezar quizá por una pequeña explicación del funcionamiento de la red de telefonía móvil. La clave para esta red es tener un grupo de antenas que emiten radiación de microondas distribuidas en la región que se quiere cubrir, de forma que dentro de esta zona el móvil tenga conexión (cobertura). Lo curioso de esta estructura es que al contrario de lo que cree mucha gente, cuantas más antenas se introducen en la zona, menos potencia tienen que tener éstas y por lo tanto menos “puntos calientes” aparecen en la red, eliminando gran cantidad de contaminación electromagnética. Más antenas, menos radiación.

Además la antena grandota del tejado nos irradia mucho menos en promedio que la minúscula antenita de nuestro teléfono móvil. Esto es debido básicamente a que la distancia a la que se encuentra nuestro móvil es muchísimo menor que la distancia a la que se encuentra la antenota.

La idea (en términos de radioprotección no ionizante) al instalar una estación base (o antenota gorda), es muy similar a la que usamos los físicos médicos en una instalación radioactiva de radiaciones ionizantes. Tanto en un caso como en el otro se establecen unos límites máximos de exposición para el público y para el personal expuesto (trabajadores de la instalación). El del público en el caso de las radiaciones ionizantes es 20 veces inferior al del personal expuesto (en un promedio de 5 años y 50 veces inferior si es en un año) y en el caso de las microondas 5 veces inferior según las recomendaciones internacionales de los organismos ICNIRP, CENELEC, ANSI/IEEE, FCC, NRPB, Royal Society of Canadá y ACA. Para las radiaciones ionizantes los límites vienen marcados por el Real Decreto 783/2001 mientras que en las no ionizantes (microondas) por el Real Decreto 1066/2001.

Una vez fijados estos límites alrededor de la fuente emisora se establecen zonas de seguridad fuera de las cuales jamás de los jamases se podrá recibir, mientras no cambien las leyes de la física que gobierna el universo o algo en la antena funcione muy muy mal, una dosis mayor de la expuesta en esos límites. Lo que ocurre finalmente, teniendo en cuenta que las antenas instaladas tienen que ajustarse a la ley, es que la principal fuente de radiación de microondas que recibimos proviene de nuestros móviles y no de las antenas situadas en la cima de los tejados.

Un dato interesante es que en los mismos límites de exposición el cuerpo humano absorbe más eficazmente la energía de las ondas de radio (alrededor de 100 MHz) y de televisión (entre 300 y 400 MHz) que la de telefonía móvil (900 MHz y 1800 MHz para la clásica, 2100 MHz para el 3G y 2600 MHz para el 4G). Dado que la televisión y la radio llevan utilizándose más de 50 años sin mayores consecuencias para la salud pública que la telebasura, es de esperar que la telefonía móvil tampoco ocasione más daños que el aislamiento social que produce el WhatsApp.

En los mismos términos que para las antenas, podemos hablar respecto a otros emisores de microondas de alrededor de los 2,4 GHz como son el blue-tooth o las redes wifi. Este tipo de redes inalámbricas emiten radiación a potencias muy inferiores a la de la antena GSM/3G/4G del móvil y por lo tanto se podrán despreciar sus efectos respecto a la más importante.

MWGaiztuak

De acuerdo, y ¿qué sabemos realmente de la inocuidad de esta radiación no ionizante? ¿Mi móvil me podría causar un cáncer de aquí a 30 años? Pues lo cierto de esta pregunta es que a día de hoy (septiembre del 2014) no se sabe, aunque existen evidencias de que no es completamente descartable. Los cánceres cerebrales tienen un tiempo de latencia ( el tiempo entre que aparece el daño celular que origina el cáncer y el tiempo en el que el cáncer aparece en forma de masa perceptible) de entre 15 y 45 años dependiendo de la edad, del tipo de cáncer y de la intensidad de la exposición y no existen estudios que abarquen ese tiempo que contrasten de forma totalmente concluyente usuarios de móvil con cáncer frente a no usuarios de móvil sin cáncer. Tengamos en cuenta que, en caso de existir el efecto es muy poco probable, razón primera por la que no se ha podido detectar, pero que a pesar de ello al abarcar a tantísima cantidad de población podría causar daño a miles de personas.

¿Qué quieren decir estudios concluyentes? No me malinterpretéis, existen estudios muy serios al respecto impulsados por agencias muy importantes como el estudio INTERPHONE de la IARC (International Agency for Research on Cancer) o los trabajos del grupo Hardell de Suecia. Por estos resultados la IARC ha establecido, en una fecha tan cercana como el 2011, a las microondas en el grupo de los carcinogénicos de tipo 2B (entre los que se encuentra el café), es decir, “posiblemente carcinogénicos en humanos pero sin evidencias concluyentes al respecto”. En estos estudios se utiliza un factor, el OR (Odds Ratio), que divide el número de casos de cáncer entre personas expuestas y personas no expuestas. Esto quiere decir que cuando el estudio nos dé un OR >1 nos estará diciendo que se encuentran evidencias de que la exposición a las microondas causa cáncer, si es OR = 1 nada y si es OR < 1 que … ¡protegen contra la aparición del cáncer!

¿Cuáles son las conclusiones de estos estudios? El grupo Hardell en sus estudios realizados entre 1999 y 2011 encontró OR medios de 2.9 para  la aparición de gliomas,  1.6 para meningiomas y 3.0 para neuromas acústicos para sujetos expuestos a móviles por más de 10 años.  El estudio INTERPHONE, que se realizó en 13 países diferentes impulsado por la IARC, agencia independiente de la OMS (Organización Mundial de la Salud), se inició en el 2000 y se concluyó en el 2010. Entre los resultados que se han podido extraer es notable el de un OR de 3.74 para la aparición de neurinomas del acústico en las personas expuestas por más de 10 años para usuarios de móvil con más de 1640 horas de uso del móvil. Para que nos hagamos una idea del uso de móvil que representan estas 1640 horas, las compañías de telefonía muchas veces ofrecen contratos de “llamadas ilimitadas” que contienen realmente 1000 min/mes. Esto son 16 horas al mes, unas 200 horas al año, muy por debajo de las 1640 del estudio. Todo esto tiene su otro lado de la moneda. Es curioso notar también que los estudios de INTERPHONE para el glioma y el meningioma no han mostrado un OR > 1 y también que el resultado obtenido para el neurinoma acústico es criticado porque podría deberse a una desviación estadística ya que para niveles inferiores de exposición en horas no existe una tendencia al alza con el número de horas. Una crítica que existe sobre estos trabajos es que contienen muchos datos obtenidos mediante encuestas a terceros,  ya que en muchos casos el cáncer ha causado la mortalidad del encuestado. Y en general, el uso de encuestas en estos estudios, aunque no sean a terceros, añade un sesgo estadístico significativo. Otras críticas son relativas a cómo se escogen los grupos o si se han tenido en cuenta determinadas asociaciones como por ejemplo el hecho de que los más habladores por móvil puedan ser también los más fumadores, etc.

Otros informes como el del SCENIHR (Scientific Committe of Emerging and Newly Health Risks) de la Comisión Europea del 2009 basado en resultados parciales del estudio INTERPHONE no concluye nada y dice que hay que seguir investigando.

La mejor forma de hacernos una idea del riesgo que supone en estos momentos el uso del móvil es su clasificación como carcinogénico 2B. ¿Qué significa esta clasificación? La IARC creó esta clasificación de agentes que podían ser cancerígenos y generó cinco grupos. En el grupo 1 encontramos los agentes que son “establecidos” como cancerígenos en humanos. Algunos de éstos  son el tabaco, el humo de las máquinas diesel, la radiación ionizante o el amianto. Si pertenecen a este grupo es que existen suficientes evidencias de que producen cáncer en humanos. En el segundo grupo, el grupo 2A, encontramos los probablemente carcinogénicos, para los cuales existe una evidencia limitada en humanos pero una evidencia clara en animales. Algunos de estos agentes son exposición ocupacional al tinte de peluquería, trabajo por turnos que impliquen trastornos circadianos (interrupción de la normalidad de los patrones del sueño), etc. En tercer lugar está el grupo 2B, en el que se encuentra la telefonía móvil y exposición a microondas en general. Es interesante notar que en este grupo nos encontramos también con el café, como ya hemos avanzado más arriba, los polvos de talco y otros 246 agentes. En este grupo se incluyen aquellos que presentan una evidencia limitada en humanos y ninguna evidencia en animales. Por último estarían los grupos 3 y 4 para los que no existen evidencias.

Muchos consideran que esta clasificación es excesiva dado que el grupo Hardell realmente es un resultado puntual de la gran cantidad de estudios que existen. En su revisión de estudios Ahlbom, A. et al. en Epidemiolgy (vol. 20. 2009) indica cómo muchos otros estudios, 13 en concreto, aseguran que el OR no es significativamente mayor que 1 y que la media de estos es muy cercana a OR = 1, siendo el del grupo Hardell el único con  OR > 1. En concreto  para el glioma tenemos estudios de Muscat del 2000, de Inskip del 2001, de Christensen del 2005, de Lonn del 2005, de Schuz del 2006, de Hepworth del 2006, etc.  que muestran resultados para exposiciones cortas, los dos primeros de OR = 0.9 y para exposiciones largas los últimos de OR = 0.7, 0.9, 2.2, 0.9, etc.

Entonces, ¿en qué quedamos?, ¿móvil sí o móvil no? La política actual al respecto es el principio de precaución y lo más lógico es acogerse a éste mientras no se sepa algo más concluyente. Tanto las normas internacionales como la legislación vigente aplican límites de exposición muy por debajo de aquellos en los que se sospecha que puede haber algún riesgo. En ese mismo sentido de precaución se aconsejan para aquellos que usen demasiado el móvil el uso de auriculares o manos libres. Ambas formas de comunicación alejan el terminal móvil de la cabeza y con este acto tan sencillo disminuimos enormemente la cantidad de radiación que se recibe. Esto se aconseja sobre todo en menores, para los que sería mayor la probabilidad de aparición de efectos perjudiciales (en caso de existir) al ser más larga su esperanza de vida y por tanto el tiempo para que los que han de aparecer aparezcan.

En conclusión, móvil sí pero con precaución y sin excesos, como casi todo en la vida.

Si quieres saber más:

General:

http://www.who.int/peh-emf/publications/facts/fs304/es/

Normativa en instalaciones:

https://www.coit.es/web/servicios/tecnologia/emision/normativas.html

Estudio INTERPHONE:

http://interphone.iarc.fr/

Grupo Hardell:

L. Hardell et al. Mobile Phone use and brain tumor risk: early warnings, early actions?

Normativa Europea:

SCENIHR. Health Effects of Exposure to EMF

Revisión general de estudios, entre los que se incluyen Hardell e INTERPHONE:

http://www.ccst.us/projects/smart/documents/092009_Epid_Review_ICNIRP.pdf

La IAEA, el PACT y la radioterapia en los países en vías de desarrollo (II)

$
0
0

El otro día os contaba cómo el Departamento de Cooperación Técnica del Organismo Internacional de la Energía Atómica (IAEA) inició en el año 2004 un Programa de Acción para la Terapia del Cáncer (PACT) que a su vez ha puesto en marcha cuatro iniciativas (imPACT, PMD, VUCCnet y AGaRT) con el objetivo de mejorar la infraestructura del control del cáncer en los países en vías de desarrollo. Os las introduzco brevemente para que podáis haceros una idea de cuáles son los proyectos que está llevando a cabo la IAEA a través del PACT:

-imPACT (misión integrada del PACT):

El idear buenos planes estratégicos que sean eficaces para el control del cáncer es uno de los mayores desafíos a los que enfrentan los países en vías de desarrollo en la lucha contra el cáncer. Y es que el control del cáncer va mucho más allá que el diagnóstico y el tratamiento: incluye también la planificación, la prevención, la información, la detección temprana y los cuidados paliativos. Los Ministerios de Salud de estos países tienen recursos muy limitados y se encuentran con muchas dificultades para evaluar las iniciativas más eficaces para el control integral del cáncer

La IAEA colabora en la optimización de las inversiones realizadas en el control del cáncer a través del programa imPACT, una herramienta de evaluación del control del cáncer. imPACT ayuda a los países a responder con rapidez y eficacia a la crisis de cáncer ayudando a los países a poner en marcha programas de control del cáncer, a realizar una evaluación de la carga nacional de cáncer y a proporcionar recomendaciones sobre el desarrollo de la capacidad de control del mismo.

Hasta la fecha son 59 países miembros los que han recibido una “imPACT Review”. El primero fue Albania en el año 2005 y el último Perú en mayo de este año.

impactmap-large

Para conocer más detalles de imPACT os recomiendo la lectura del folleto elaborado por la IAEA, imPACT Brochure, en el que se explica la duración de los proyectos, las etapas de las que está formado, los objetivos principales, las áreas de evaluación, los resultados obtenidos y los retos futuros.

impact brochure

-PMDS (PACT Model Demonstration Sites):

A partir de los resultados de los informes derivados de las misiones imPACT, la IAEA junto con sus socios internacionales, la Organización Mundial de la Salud (WHO, por sus siglas en inglés) y la Agencia Internacional para la Investigación del Cáncer (IARC, por sus siglas en inglés), desarrolla proyectos de control del cáncer con la colaboración de donantes que los financian en sitios piloto que permitan demostrar la eficacia de las estrategias basadas en la evidencia así como los beneficios de las alianzas. Hasta la fecha han participado como PMDS ocho estados miembros de la IAEA: Albania, Ghana, Mongolia, Nicaragua, Sri Lanka, Tanzania, Vietnam y Yemen.

PMDS MAP

Desde 2006, se han invertido más de 18 millones de dólares en estos ocho países PMDS. Este dinero se ha utilizado para el desarrollo de los recursos humanos, provisión de equipos de radioterapia, visitas de expertos a los centros y la capacitación de más de 100 profesionales de estos países.

Luzmile nos contó hace algunas semanas su experiencia como físico médico en Albania, el único país de Europa que se ha beneficiado de esta iniciativa de la IAEA. En el folleto PMDS Brochure se detallan los proyectos que ha desarrollado el PACT en cada uno de los ocho países.

PMDS

-VUCCnet (Virtual University for Cancer Control):

En la mayoría de las regiones de los países en vías de desarrollo, los recursos para formar y orientar a los profesionales a menudo son insuficientes para garantizar unas estrategias adecuadas del control del cáncer y para contrarrestar los efectos de la “fuga de cerebros”. Por todo ello, la IAEA junto con sus socios internacionales está desarrollando la Universidad Virtual para el Control del Cáncer (VUCCnet, por sus siglas en inglés). Como primer paso, en el año 2010 se puso en marcha un proyecto innovador, VUCCnet Africa, que está ayudando a resolver la escasez de recursos humanos mediante el uso de una plataforma de “e-learning”. A través de las herramientas de VUCCnet, los alumnos y profesionales tienen acceso a materiales que les ayuden a formarse en sus especialidades y a actualizar sus conocimientos.
Los cuatro países piloto participantes en el VUCCnet Africa son Ghana, Uganda,Tanzania y Zambia. Egipto y Sudáfrica, donde la formación profesional en lo que respecta al control del cáncer es mucho más avanzada, están participando como países mentores.

vuccnet

En el folleto VUCCnet Africa Brochure se explican más detalles del proyecto, que se espera que esté en pleno funcionamiento para el año 2015 y que pueda desarrollarse también en otras partes del mundo.

VUCCnet africa

-AGaRT (Advisory Group on increasing access to Radiotherapy technology in low and middle income countries):

Junto con la cirugía y la quimioterapia, la radioterapia es una parte esencial del tratamiento del cáncer. La IAEA ha hecho la estimación de que en la actualidad existe un déficit de al menos 5000 equipos de radioterapia en los países en vías desarrollo, lo que implica que más de un 70% de los enfermos de cáncer no recibe ningún tratamiento de radioterapia, ni curativo ni paliativo.

IAEA-Worldwide_therapy_access-2010

Para hacer frente a la falta de servicios de radioterapia en los países en vías de desarrollo, la IAEA estableció en el año 2009 un Grupo Asesor para aumentar el acceso a la tecnología radioterápica en los países de bajos y medianos ingresos (AGaRT) con el apoyo técnico de la División de Salud Humana y de la División Radiológica, del Transporte y de los Desechos de la IAEA.

AGaRT actúa como un facilitador neutral en el que los proveedores, expertos y usuarios de los equipos de radioterapia en los países en vías desarrollo se reunen en un foro abierto con el objetivo de encontrar el camino que debe seguirse para ampliar las instalaciones de radioterapia en estos países. AGaRT ofrece una plataforma para:

  • Evaluar las oportunidades actuales de radioterapia y capacidades, para aumentar el acceso a la tecnología de la radioterapia
  • Identificar las brechas en el acceso a los servicios de radioterapia y las limitaciones en el suministro, operación y mantenimiento de equipos de radioterapia en los países en vías de desarrollo
  • Revisar y recomendar criterios para los equipos de radioterapia que sean asequibles, eficaces y adecuados para las condiciones de los países en vías de desarrollo, así como establecer los requisitos mínimos para operar en una instalación de radioterapia con seguridad y asegurar su sostenibilidad.

En el folleto AGaRT Brochure se explican los objetivos del proyecto.

AGaRT

Todo lo que os he contado lo he extraído a partir de la página web de la IAEA, tanto de los folletos como de los artículos que enlaza. Si alguno de vosotros tiene información de primera o segunda mano sobre estas iniciativas, estaría fenomenal que lo compartiera con nosotros porque de esa manera nos enriqueceríamos todos.

Tim Bowers, radiofísico espacial

$
0
0

Noto un cosquilleo en los pies, pero no siento mis piernas, no sé qué me ocurre. Empiezo a sentir otro cosquilleo en las yemas de mis dedos, pero no puedo mover las manos. ¡Qué me ocurre! Una cefalea enturbia mi mente, no sé dónde estoy.

Ha pasado un tiempo y comienzo a tener destellos de luces en mis ojos, los abro, veo borroso, ya puedo encoger ligeramente mis extremidades, empiezo a oír sonidos, no los identifico, todo es muy confuso…

Empiezo a recordar datos. Me llamo Tim Bowers, doctor en Ciencias Físicas por la Universidad de Sydney, especializado en física médica. Trabajé durante siete años en el Northern Cancer Institute (NCI) de Sydney. Allí desarrollamos y patentamos un material que protegía de la radiación, alternativo al plomo, el ausradd. Qué tiempos aquellos, cuando hacia finales del 2015 decidí someterme al programa de criogenización del equipo del NCI junto con la Universidad. Tenía 39 años. Dejé claro que me reanimasen dentro de ocho mil millones de años, cuando el Sol se hubiera convertido en una enana blanca, tras pasar por gigante roja y reventar como una nova.

Fuente: The Encyclopedia of Earth

Fuente: The Encyclopedia of Earth

Para mi desgracia no se ha cumplido el contrato y me han despertado antes, justo una madrugada de abril de 2121. Apenas han transcurrido más de cien años, ¡qué demonios! Además sé que el proceso no es reversible, así que no podré volver a mi letargo. Me citan a una entrevista con el responsable de mi despertar, que me pondría al corriente de lo hechos.

-Hola, doctor Bowers. Por favor, tome asiento–dice mi entrevistador, un señor de unos sesenta años ataviado con una camiseta y pantalón celestes, ambos ceñidos al cuerpo, y con una amplia sonrisa-Soy el doctor Barham, director de la unidad de criogenización interplanetaria.

A mí eso de interplanetaria me suena bien, pero quiero saber más.

-Gracias, Dr. Barham, estoy ansioso por ponerme al día –digo intentando sentarme cómodamente en eso que él dijo asiento.

-Según su contrato firmado con esta Sociedad en el año 2015, se sometió al tratamiento experimental de criogenización, con una fecha deseada de reanimación de 8.000 millones de años más tarde. Le hemos reanimado antes de dicha fecha según la cláusula 21.1.3 –dice Barham, y levanta la vista tras acabar de leer el informe.

-Ahora vienen los esperados detalles –digo con curiosidad. Me moría de ganas.

-Efectivamente. En estos 106 años la investigación y los recursos se han volcado en la conquista espacial, buscando nuevos recursos minerales, energía y colonias espaciales. El hábitat de la Tierra ha sido definitivamente dañado y por tanto nos hemos visto obligados a buscar otro planeta al que mudarnos. Debo contarle que actualmente se está terraformando Europa –una luna de Júpiter- utilizando los recursos naturales de nuestra Luna. Hay una colonia espacial estable que orbita con el sistema Tierra y Luna, la cual ya  hemos colonizado exitosamente.

-Madre mía, ¡en sólo un siglo! –Estoy alucinado de todo lo que me había perdido en tan poco tiempo- Pero, exactamente, ¿por qué se me ha reanimado? Yo aún no deseaba estar en este mundo.

-Ejem –carraspea y acto seguido se sube las mangas de la camiseta y se recuesta en el asiento- Todo esto ha conllevado a la creación de un único gobierno, con jurisprudencia en todos los hábitats con humanos, la Confederación del Sistema Solar (CSS). Según su legislación, a todas las personas que han sido criogenizadas se las puede reanimar si su utilidad es requerida en situaciones de emergencia. La necesidad de buscar nuevos hábitats y desalojar la Tierra es una prioridad. El programa espacial es costoso, pero obtiene sus frutos. Actualmente el blindaje frente a la radiación cósmica tiene sus deficiencias, por eso necesitamos de genios como usted en el equipo de investigación.

-¡Vaya! –exclamo un tanto asombrado por tanta información y por el halago-Creo que se me fuerza a volver a trabajar. Pero, ¿qué se espera de mí?. Con lo bien que estaba hibernando…

-Ahora nos encontramos en la colonia espacial denominada Pangea, en el punto L2 de Lagrange. Aquí se asignará un alojamiento y medios para que centre y forme. Somos conscientes del grave “jet-lag” por el que está pasando, jejejeje –añade graciosamente Barham. Me siento desubicado y a la vez excitado, es extraño.

-¿No tienen un audiovisual para hacerme un resumen?–digo con cierta angustia.

-Jajajajaja, tranquilo. Tómese su tiempo, tras el cual se deberá incorporar en uno de los escenarios que le he descrito. Su nuevo contrato depende directamente de la CSS y su categoría profesional se denomina “radiofísico espacial”. Bienvenido a Pangea, Dr. Bowers –se pone en pie y me tiende la mano con una medio sonrisa.

**********************************************************

Todo lo anterior ocurrió hace justo dos meses, durante los cuales me dediqué en exclusiva a ponerme al día del escenario actual del Sistema Solar, de los avances científicos, de las relaciones con los humanos y de mi situación personal. Ahora tenía que decidir dónde empezaba a trabajar, en qué proyecto. El paradigma había cambiado, estaba viviendo una película de ciencia ficción y la CSS requería de mis conocimientos.

El detonante de la conquista espacial fue la producción industrial del experimento de Pons y Fleischmann de 1989, la conocida fusión fría. ¡Por fin lo consiguieron! En la Tierra no hay problema para encontrar átomos de deuterio pero sí de helio-3. Pero en nuestra Luna el helio-3 se deposita en la superficie, transportado por el viento solar, y con mayor concentración en la zona ecuatorial. Así que una vez resuelto el problema de la colonización espacial, que luego explicaré, se produjo la “ocupación” de la Luna.

Esquema de la fusión fría, donde un núcleo de Deuterio (Hidrógeno-2) se fusiona con otro de Helio-3 para dar lugar un núcleo estable de Helio-4, un protón y una generosa energía. Fuente: Green Science Image Gallery.

Esquema de la fusión fría, donde un núcleo de deuterio (hidrógeno-2) se fusiona con otro de helio-3 para dar lugar un núcleo estable de helio-4, un protón y una generosa energía. Fuente: Green Science Image Gallery.

El primer lugar donde hubo un asentamiento humano en la Luna fue en el Polo Norte, cerca del cráter Peary, ya que la luz solar era más o menos constante y la temperatura rondaba los -50ºC, temperatura similar que soportaban las antiguas bases científicas en la Antártida. En el interior de dicho cráter había una gran reserva de agua congelada, además de significativos depósitos de hidrógeno; y lo mismo en sus vecinos cráteres. Simétricamente, en el Polo Sur lunar, se daban las mismas condiciones, de forma que dos colonias estables viven en ambos polos. En el ecuador se desarrolla la actividad industrial de fusión fría, siendo éste el motor energético de la actual civilización expandida por el sistema solar.

Aprovechando que la Luna no tiene atmósfera, se construyó una catapulta magnética, similar a los antiguos trenes de levitación magnética terrestres, pero a lo bestia. Ahora era más fácil que nunca poner satélites en órbita, enviar sondas no tripuladas al espacio exterior, transportar materiales para construir estaciones espaciales o edificios lunares, lanzar proyectiles dirigidos hacia algún asteroide que se nos acerque peligrosamente o contra una posible nave alienígena invasora.

Como es sabido, la Luna es un astro “congelado”, en su interior no hay ningún fluido en movimiento que origine un campo magnético, tal como lo disfrutamos en la Tierra, por ejemplo, responsable de  la magnetosfera, la conocida capa de la atmósfera. Las ideas de poder activar el núcleo lunar no prosperaron, así que se creó un campo magnético activo alrededor de la Luna, gracias a la ingente energía fabricada en el ecuador. De esta forma las partículas cargadas de la radiación espacial eran desviadas. Parece fácil, ¿no?

Pero esto no es todo, puesto que no hay atmósfera que atenúe la radiación exterior, ¿qué ocurre con los rayos X y los rayos gamma?, ¿qué hacemos con las partículas no cargadas, como los neutrones? Inicialmente se pensó en excavar túneles para tener un hábitat natural ya blindado a la radiación. Sin embargo ocurre que, al impactar los rayos cósmicos en la Luna, se generan reacciones nucleares que liberan radiación en forma de neutrones. ¡La propia superficie lunar es radiactiva! Así que ambas radiaciones son perjudiciales. Adicionalmente se reforzaban las bases lunares con un blindaje estructural, de forma que mantenía a raya la radiación. Este blindaje es un hormigón lunar, ideado en la Universidad de Alabama, que utiliza azufre líquido en lugar de agua como conglomerante. Soporta presiones de hasta 17 atmósferas y endurece en sólo una hora. Para fabricarlo se extrae el azufre del suelo lunar y posteriormente se calienta a temperaturas superiores a 130ºC. Justamente ahí estaba una de mis labores como radiofísico, mantener controlada la radiación en los hábitats lunares.

En color rojo las zonas más radiactivas, en azul las menos, provocadas por los neutrones.  Fuente: Lunar Prospector, NASA.

En color rojo las zonas más radiactivas, en azul las menos, provocadas por los neutrones.
Fuente: Lunar Prospector, NASA.

Otro proyecto interesante era el blindaje y mantenimiento de la propia colonia Pangea, donde ahora me encontraba. Estaciones espaciales había una cuantas, pero colonizar el espacio era una obra faraónica -por cierto, ya nadie se acuerda de Egipto-. Aún recuerdo al físico irlandés John D. Bernal que en 1929 publicó la obra “The World, the Flesh and the Devil”, donde se describieron por primera vez hábitats espaciales en esferas de 16 kilómetros con capacidad para 20 ó 30 mil personas. Luego en 1959 R. MacDougall dirigió la película con ese nombre, pero ni se os ocurra verla. En 1956 Darrel Romick propuso una colonia de forma cilíndrica, de 1 km de largo por 300 metros de diámetro.

Pero esta idea no se extendió hasta la década de los 70, cuando un profesor de física de Princetown, llamado Gerard K. O’Neill, creó un auténtico movimiento social para fomentar la evolución de la humanidad y la exploración del espacio. Y parecía que el desarrollo de las colonias había prosperado con la idea de Wohnrad de Potočnik, con forma toroidal. La rotación estaba ajustada para que fuese como en la Tierra (1 g) a lo largo del recinto habilitado en el toro. En el centro, por mecánica, la rotación es nula y, por consiguiente, la gravedad, de forma que se usa como muelle o puerta de entrada y salida. No obstante este concepto de colonia fue acuñado como Toro de Stanford, ya que mejoró sustancialmente el diseño original.

toro stanford02

Vista exterior e interior de un Toro de Stanford. Fuente: Wikipedia

Vista exterior e interior de un Toro de Stanford. Fuente: Wikipedia

Yo aún recordaba la pésima película de “Elysium”, dirigida en 2013 por Neill Blomkamp que, ¡qué poco rigor científico! Ahora era ya una realidad, la recreación de una atmósfera y hábitat artificiales estaban muy conseguidos, pero aún así tenía que mejorar en cuanto a radioprotección. El exterior del toro entero es un vidrio especial de un grosor de 3 cm con una ligera composición de Pb y un recubrimiento de parafina que termaliza los neutrones. Y el escudo antirradiación está construido de regolito lunar (capa de materiales poco compactos de fragmentos rocosos del suelo que descansa sobre un fondo también rocoso sólido), que supone la mayor parte de la masa de la nave. Dicho escudo se construye en la Luna y se catapulta hasta la nave, donde se ensambla.

La ubicación de Pangea es el punto L2 de Lagrange del sistema Sol-Tierra. ¿Por qué? Pues porque de esta manera se obtenía una protección natural del viento solar y de sus temibles erupciones de masa, que tanto daño hicieron antaño a los sistemas de comunicación.

Los 5 puntos de Lagrange o de libración son 5 posiciones en un sistema orbital donde un objeto pequeño, sólo afectado por la gravedad, puede estar teóricamente estacionario respecto a dos objetos más grandes. Fuente: http://madmantalks.blogspot.com.es/2013_02_01_archive.html

Los 5 puntos de Lagrange o de libración son 5 posiciones en un sistema orbital donde un objeto pequeño, sólo afectado por la gravedad, puede estar teóricamente estacionario respecto a dos objetos más grandes. (Fuente: http://madmantalks.blogspot.com.es/2013_02_01_archive.html)

Pangea dispone de campos magnéticos para desviar las partículas cargadas de la radiación espacial, de forma similar a lo elaborado en la Luna. ¿Cuál la función aquí de Tim Bowers como radiofísico espacial? Como he dicho antes, el sistema de blindaje pasivo era muy pesado y el material que un siglo atrás habíamos patentado, el ausradd, ahora resultaba muy útil.

El proyecto que más me fascinaba era el de la terraformación de Europa, es decir, crear un ambiente como el de la Tierra de forma artificial, modificando su atmósfera, presión, temperatura y concentración del agua líquida, para finalmente colonizarlo. Yo ya sabía que era un buen candidato, de hecho elegí mi fecha de reanimación pensando que para entonces ya sería realidad, ¡qué ingenuo! El uso de esferas para contener planetas ya lo había propuesto Bernal, pero la idea del ingeniero Ken Roy lanzada durante el Congreso Starship de Dallas en 2013, tenía ahora más fuerza que nunca. Se volvía a hablar de planetas en cáscara pero sin necesidad de estar en la zona habitable para los humanos. La misma cáscara lo hacía habitable, en palabras del propio Roy, “era un mundo envuelto”. El material usado para la cáscara era el kevlar, un tipo de fibra resistente al calor, corrosión y ruptura. Además se añadía una capa de regolito y acero, pero no lo suficientemente efectiva como para protegernos de la radiación solar y del espacio en general.

Ahí entraba yo, el ausradd había dado sus frutos. Roy había añadido este material al kevlar, dando lugar a una fibra con poliestireno, capaz de actuar como un blindaje primario muy efectivo sin necesidad del pesado regolito y acero. Además se había provisto a Europa de una magnetosfera inducida, al modificar el campo magnético de Júpiter, de forma que ahora Europa quedaba en una zona segura dentro de los cinturones de Van Allen jupiterianos. Toda una proeza, pero inestable. Para mantener dicha situación, se detonaban bombas de hidrógeno que modificaban la rotación de Júpiter y alteraban la convección de sus corrientes internas lo necesario. Pero debido a su gran inestabilidad, los físicos encargados debían estar al corriente y analizar los sensores continuamente. Ahora parecía que se iba a potenciar esta actividad, poniéndoles esas cáscaras a los planetas candidatos de ser terraformados, así que Europa era el primero pero no el último.

Cuerpo espacial dentro de una “cáscara” en proceso de terraformación. Fuente: Novus Aeterno.

Cuerpo espacial dentro de una “cáscara” en proceso de terraformación. Fuente: Novus Aeterno.

**************************************************************************************************************************

Entonces llega mi turno, abro los ojos, despierto de mi reflexión y me dirijo hacia la puerta del despacho del Dr. Barham, donde él me espera.

-Hola, Dr. Barham –le digo mientras le tiendo la mano con una sonrisa.

-Bienvenido, Dr. Bowers, espero que haya descansado bien. Le presento al Dr. Mitts, el coordinador de proyectos espaciales del CSS –un hombre grandote con rasgos indios que veste igual que Barham.

-Me alegro de conocerle, Dr. Bowers. Creo que por fin tendremos una conversación de largo alcance. Siéntese por favor –me dice con exquisita amabilidad.

-Bueno –empieza Barham- ¿Se ha decidido ya?

…..

Los dos hombres me miran con condescendencia, toman sendos vasos y me invitan a celebrarlo.

 

Nota del autor: la elección que tome Tim Bowers la dejo a criterio de los lectores. Podéis dejar vuestros comentarios.

 

 

Las matemáticas del cáncer: entrevista a David Basanta

$
0
0

David Basanta es una de las jóvenes promesas en un campo que empieza a ver la luz: la modelización matemática del cáncer. Desde hace 9 años ha estado investigando modelos matemáticos y computacionales aplicados al cáncer en el Departamento de Oncología Integrada en el Moffitt Cancer Center en Tampa (Florida, Estados Unidos) y ha publicado en revistas como Cell proliferation, Cancer research, The European Physical Journal B-Condensed Matter and Complex Systems y Physical biology.

El propósito de su investigación es “comprender la dinámica evolutiva del cáncer mediante aproximaciones integrales, para que algún día podamos llegar a tener un control sobre la progresión de esta enfermedad”.

David Basanta ante su pizarra en el Moffitt Cancer Center

David Basanta ante su pizarra en el Moffitt Cancer Center

P: David, ¿qué pinta Darwin en la investigación del cáncer?

R: Es una buena pregunta Ines. Llevamos muchas décadas (y muchos euros/dolares/libras/yenes) tratando de encontrar una cura para el cáncer y con un éxito más bien modesto. El problema es que el cáncer es una enfermedad mucho más compleja que otras para las que hemos encontrado una cura. Y esa complejidad viene, en buena parte, de la naturaleza evolutiva del cáncer. Muchos investigadores se dedican a estudiar las mutaciones genéticas que dan lugar y explican la progresión de cánceres como el de próstata, el de pulmón o el de mama. Pero esas mutaciones genéticas dan lugar a células tumorales con propiedades distintas. Algunas se dividen más rápido, otras son capaces de generar moléculas como VEGF que inducen la creación de vasos sanguíneos, otras son capaces de moverse e invadir otros tejidos. Sabemos que los tumores más avanzados (y los más difíciles de tratar) contienen una gran diversidad de células tumorales. Las células que se adaptan mejor a las condiciones que resultan del proceso de iniciación y crecimiento tumoral son las que más probabilidades tienen de proliferar y crear células hijas con las características más adecuadas para continuar ese proceso. Si te fijas esas son exactamente las condiciones necesarias para un proceso de evolución Darwiniana: individuos con diferentes propiedades, propiedades hereditarias que se pueden pasar de padres a hijos, y propiedades que hacen que unos individuos estén mejor adaptados que otros y que, por lo tanto, tengan más probabilidades de producir descendencia a largo plazo.

Es realmente un proceso fascinante pero al mismo tiempo explica por qué el cáncer es tan difícil de curar cuando llega a un determinado nivel de desarrollo: la diversidad de tipos celulares es tal que lo más probable es que encuentres algún tipo que sea inmune al tratamiento que estés pensando utilizar.

P: Estudiaste Ciencias de la Computación en la Universidad de Oviedo y continuaste en el Kings College de Londres. ¿Qué es lo que te motivó a estudiar en Londres, y a elegir el Kings College en particular? ¿En qué punto de tu trayectoria orientaste tus esfuerzos hacia el estudio del cáncer?

R: Estudié Ingeniería Informática en la Universidad de Oviedo. Ingeniería, es una carrera muy aplicada y con mucha vocación profesional. Sin embargo, mi vocación desde pequeño era la de ser científico, así que cuando acabé la carrera pasé un tiempo pensando que camino seguir: trabajar en una empresa o hacer un doctorado. Al final me decidí a probar el mundo empresarial, y conseguí un trabajo como ingeniero de software en una multinacional de las telecomunicaciones, Nortel Networks, establecida en una pequeña ciudad al oeste de Londres. Este interés empresarial duró poco y en unos meses me encontré enviando currículums a universidades del Reino Unido buscando becas pre-doctorales.

Llegué a King’s de casualidad. Mi suerte fue encontrarme con Mark Miodownik, profesor de ciencia de materiales en King’s. La ciencia de materiales nunca fue mi tema favorito, pero siempre es un privilegio trabajar con gente inteligente, y Mark es una de las personas más inteligentes y con más ideas que conozco.

Con mi tesis sobre el uso de evolución darwiniana aplicada a la reconstrucción de materiales en 3D y con pocas ganas de continuar estudiando materiales, me puse a estudiar cómo aplicar lo que había aprendido al estudio de la evolución darwiniana en biología y resulta que en cáncer, hay mucho que investigar aún.

P: Actualmente trabajas en el Moffitt Cancer Center en Tampa (Florida), en los Estados Unidos, y eres miembro del Grupo de Investigación de la Dinámica Evolutiva del Cáncer en el mismo centro. ¿Cómo llegaste hasta aquí?

R: Después de acabar el doctorado y decidir dedicarme a estudiar la evolución darwiniana en cáncer encontré trabajo en departamentos de matemáticas dedicados a la biología matemática (en las universidades de Dresde en Alemania y Dundee en Escocia). Aprendí muchísimo, pero me di cuenta de que el trabajo que hago es mejor y tiene más impacto cuando es en conjunción con biólogos y médicos. Tuve la fortuna de que Sandy Anderson, el director del departamento de Matemática Oncológica Integrada en Moffitt me contrató hace más de 6 años, y aquí sigo.

P: ¿Nos puedes contar cómo se trabaja en el Moffitt Cancer Center, y cómo está organizada la investigación? ¿Cómo valoras tu experiencia hasta el momento?

R: Moffitt es un sitio bastante especial. Es el único hospital y centro de investigación del cáncer que conozco con un departamento de matemáticas. Moffitt es relativamente joven comparado con otros centros como MD Anderson y Sloan Kettering y sabe que si quiere estar al nivel de esos centros en poco tiempo tiene que hacer las cosas de forma diferente. Por eso crearon el departamento de matemática oncológica integrada, del que están muy orgullosos. Gracias al departamento es posible explorar biología del cáncer más rápidamente y también trasladar más rápidamente esos descubrimientos en nuevas formas de tratar a los pacientes que llegan al hospital.

P: David, ¿para qué son útiles los modelos matemáticos del cáncer?

R: Hay muchas formas en las que un conocimiento de las matemáticas pueden tener utilidad en la investigación contra el cáncer. Campos como la bioestadística, la bioinformática o la biología de sistemas (systems biology) han demostrado que se puede descubrir cosas sobre la biología del cáncer sin tener que hacer nuevos experimentos. El enfoque que mi grupo usa es diferente de estos tres que he mencionado y, aunque requiere una comprensión más detallada de los principios biológicos del problema a modelar, su potencial es también mayor. La idea consiste en que si conocemos los principios biológicos que determinan el cómo ciertas células tumorales crecen y se relacionan con su entorno, podemos crear modelos computacionales que pueden recrear esos principios y predecir cómo va a crecer el tumor, qué propiedades es probable que adquiera, y cómo va a  responder a los tratamientos disponibles en el hospital. Gracias a este tipo de modelos podemos comprobar con rigor el mérito de un hipótesis biológica sin tener que gastar apenas recursos (animales y tiempo). Podemos sugerir mejores experimentos, acelerar la forma en la que se investiga el cáncer (los experimentos en un ordenador son mucho más baratos y rápidos que con ratones), y trasladar los resultados experimentales al hospital.

Los miembros del grupo CancerEvo (de izquierda a derecha):Jake Taylor-King, David Basanta, Arturo Araujo y Artem Kaznatcheev. Tomada durante el Congreso: Ecology and Evolution of Cancer (15-19 september 2014). Link http://mbi.osu.edu/event/?id=495

Los miembros del grupo CancerEvo (de izquierda a derecha):Jake Taylor-King, David Basanta, Arturo Araujo y Artem Kaznatcheev. Tomada durante el Congreso: Ecology and Evolution of Cancer (15-19 september 2014). Link http://mbi.osu.edu/event/?id=495

P: ¿Quiénes formáis parte de tu grupo de investigación, CancerEvo? (Ver fotografía abajo) ¿A qué se dedica cada uno?

R: Me temo que la foto no muestra a todo el grupo. Falta Ziv Frankenstein que, desafortunadamente no pudo atender este congreso. Ziv trabaja con Sandy Anderson y conmigo, y se dedica a estudiar cómo las interacciones entre las células del entorno del cáncer de próstata (fibroblastos y monocitos por ejemplo) contribuyen a explicar el fenotipo de las células tumorales que resultan de la evolución darwiniana en el cáncer de próstata. Clínicamente los patólogos utilizan la escala de Gleason para determinar la agresividad de un cáncer de próstata, pero esa escala toma en consideración, casi exclusivamente, las células tumorales. La investigación de Ziv demuestra que una escala que incluya la reactividad del estroma sería mucho más precisa.

En la foto, a la izquierda esta Jake Taylor-King, que acaba de empezar su doctorado y se dedica a investigar las interacciones entre células tumorales y el estroma utilizando un enfoque de redes. A mi derecha y con pajarita, Arturo Araujo que lleva unos años trabajando conmigo y el equipo de mi colaborador, Conor Lynch, investigando cómo un cáncer de próstata puede metastatizar al hueso y crecer allí. Aunque la prognosis de un paciente con cáncer de próstata es normalmente relativamente buena, el problema son los pacientes con metástasis. En ese caso casi nadie llega a curarse. En el 90% de los casos en los que un paciente muere de cáncer de próstata hay evidencia de metástasis en los huesos. Entender cómo las células de un cáncer de próstata pueden crecer a costa de las células y el microentorno del hueso es un problema muy interesante y de utilidad evidente. Gracias a ese trabajo estamos investigando cómo nuevos inhibidores pueden incorporarse al tratamiento de pacientes con cáncer de próstata con metástasis en el hueso. Por último y a la derecha de Arturo, está Artem Kaznatcheev, recientemente incorporado al grupo y cuya misión es el desarrollo de nuevas herramientas matemáticas basadas en teoría de juegos evolutiva para poder modelar cómo los cambios de entorno de las células tumorales constituyen cambios en los procesos de selección Darwiniana.

P: ¿Existen otros enfoques alternativos al vuestro?

R: Por supuesto, y todos son válidos. Moffitt (igual que muchos otros centros) tiene departamentos de bioestadística y de bioinformática. Otros centros, aun careciendo de departamentos como el nuestro cuentan con investigadores individuales que emplean enfoques matemáticos diferentes al nuestro. Estos enfoques están orientados a entender los resultados de experimentos en genética o en proteómica, pero son un instrumento menos apropiado para explorar los aspectos de la dinámica evolutiva del cáncer que me interesan y que son cruciales si queremos entender cómo un cáncer es capaz de desarrollar resistencia a los tratamientos que empleamos en el hospital.

P: ¿Qué criterios se emplean para dar por válido un modelo matemático? ¿Se pueden llevar los resultados a la práctica clínica: generan estos modelos predicciones comprobables experimentalmente?

R: Modelos matemáticos hay muchos y algunos de ellos son elegantes y dan lugar a sofisticados análisis matemáticos. Pero en sitios como Moffitt el interés es en modelos matemáticos que den lugar a nuevas aplicaciones biológicas y clínicas. Por eso es tan importante para nosotros trabajar con los biólogos experimentales y médicos. Gracias a ellos se que la forma en la que desarrollamos el modelo, los parámetros que empleamos y los resultados que generamos son relevantes tanto para explicar la biología del cáncer, como para explicar por qué ciertos tratamientos dan lugar a tumores resistentes al tratamiento, y cómo evitarlo. Si un modelo matemático es consistente con lo que sabemos, y al mismo tiempo es capaz de predecir algo nuevo, entonces el modelo es útil.

P: En el Moffitt Cancer Center, ¿qué grado de colaboración existe entre diferentes disciplinas relacionadas con el estudio del cáncer (biólogos, médicos,…)? ¿Qué grado de interconexión existe entre los distintos modelos que se plantean en cada disciplina?

R: Diversos grados, y por eso tenemos diferentes tipos de modelos matemáticos. Hay enfoques matemáticos que se traducen más fácilmente en resultados de aplicacion clínica, mientras que otros son más apropiados cuando se sabe bien poco de ciertos aspectos de la biología del cáncer. Los modelos basados en autómatas celulares son muy apropiados si quieres poder predecir, de forma cuantitativa, cómo van a cambiar las diferentes poblaciones de células tumorales cuando pruebas un tratamiento nuevo. Los modelos basados en teoría de juegos  son más cualitativos en cuanto a que son algo más abstractos, pero son una buena forma de empezar a modelar biología cuando sabemos muy poco de lo que tenemos que modelar. Cuanto más sofisticado es el modelo, cuanto menos abstracto, más estrecha tiene que ser la colaboración entre nuestro grupo y los biólogos con los que trabajamos. Más son los parámetros que necesitamos en el modelo y más experimentos para validar los resultados. La ventaja es, y alguna tiene que haber, que obtenemos más resolución en los resultados y una comprension más detallada de los factores del hábitat del cáncer, o de las características de las células tumorales responsables de la progresion del cancer. Respondiendo a tu pregunta: en Moffitt he encontrado a más colaboradores y a más gente abierta a las ideas que me investigación representa que ningún otro sitio que conozco. Pero no todos los modelos matemáticos o los problemas en los que los empleamos son iguales. Personalmente prefiero empezar con el modelo matemático más simple que pueda producir (por ejemplo, los basados en teoría de juegos) y una vez que se lo bastante pasar a modelos como los basados en autómatas celulares y emplear en ellos lo que descubrimos antes.

P: ¿Conoces alguna aplicación de modelos matemáticos a la radioterapia, por ejemplo, algún modelo que sirva para determinar la mejor forma de administrar radioterapia (fraccionamientos o dosis distintas, etc) en base a las características del tumor?

R: La radioterapia es uno de los tratamientos más estudiados en modelos matemáticos del cáncer. Uno de mis colaboradores en Moffitt, Jacob Scott, es no sólo un matemático sino que trabaja como especialista en radioterapia en el hospital de Moffitt. En Europa estamos empezando a colaborar con un grupo en Oxford que incluye a David Robert Grimes. Esperamos poder descubrir más sobre cómo el patrón de crecimiento de glioblastomas heterogéneos afecta la distribucion de oxigeno, y por tanto la eficacia de los tratamientos basados en radioterapia. Otros grupos como el de Kristin Swanson en Northwestern o el de Franziska Michor (Dana Farber y en colaboración con Kevin Leder en Minnesota) están estudiando cómo optimizar la aplicación de radioterapia en gliomas usando modelos matemáticos. Por último, aquí en Moffitt, el grupo de Heiko Enderling está empleando modelos matemáticos con autómatas celulares para predecir cómo la radioterapia afecta la composición de un tumor caracterizado por la presencia de células madre cancerosas.

Escritorio de David Basanta .

Escritorio de David Basanta.

P: ¿Qué tipo de herramientas (hardware y software) utilizáis para desarrollar vuestra investigación?

R: A veces papel y lápiz. Es una sensación especial cuando puedo trabajar en un modelo nuevo utilizando únicamente mi libreta y un lápiz. Hay muchos casos en los que esto no es posible, y entonces es cuando uso mi iMac. En el departamento los Apple predominan y mi grupo no es una excepción. En ellos, utilizamos todo tipo de herramientas para programar nuestros modelos: Java, Python, Matlab, etc.

P: ¿Crees que las publicaciones científicas deberían acompañarse de los datos en bruto o del código, de tal forma que permitan reproducir los cálculos? ¿Utilizáis GitHub o alguna plataforma similar en vuestro grupo de investigación?

R: Hemos publicado nuestro código utilizando plataformas como SourceForge pero, quizás con demasiada lentitud, estamos empezando a usar GitHub. Estoy completamente de acuerdo contigo: no debería haber excusa alguna para no publicar el código y los datos correspondientes a una publicación. La ciencia, si no es abierta, no es ciencia.

P: ¿Crees que es necesario revisar el paradigma actual de investigación científica de la medicina basada en la evidencia – esto es, optar por mecanismos más dinámicos que los ensayos clínicos tradicionales para investigar enfermedades como el cáncer?

R: No llevo trabajando tanto tiempo en Moffitt como para haber participado en ensayos clínicos, pero mi aspiración (y la de otros matemáticos en oncología) es participar en un ensayo clínico donde un modelo matemático sea la clave que dirija el estudio. Estamos trabajando en ello y con la colaboración del equipo clínico de Julio Pow-Sang esperamos poder empezar a cambiar la forma en la que pacientes con cáncer de próstata con metástasis en los huesos reciben su tratamiento en Moffitt. Es el sistema actual basado en “lo que funcionó en el pasado” no es idóneo, yo creo se pueden mejorar. De hecho creo que a la medicina le falta más ciencia, no menos. Muchas prácticas médicas parecen estar más ligadas a la tradición que a la evidencia científica.

P: ¿Nos puedes indicar qué otras personas o grupos de investigación están trabajando en tu línea? ¿Cuáles serían las referencias clave (personas, centros) para alguien nuevo en este campo?

R: Hay una buena tradición de modelado matemático del cáncer en Europa, pero en lo que se refiere a grupos como el nuestro trabajando dentro de un hospital creo que EEUU está muy por delante. Moffitt probablemente tenga el departamento más grande pero hay grupos importantes en otros hospitales y universidades. Kristin Swanson en Northwestern (en Chicago), Franziska Michor en Dana Farber (Boston). En europa el Institute of Cancer Research en Londres está haciendo trabajo interesante.

P: ¿Hasta qué punto es importante dar a conocer el proceso de la investigación científica (en vuestro caso, cómo se llega a idear un modelo matemático)?

R: La divulgación de la ciencia creo que es parte del contrato (no escrito) que los cientificos tenemos con la sociedad. El método científico es la herramienta más poderosa con la que contamos para poder comprender la realidad de nuestro universo. Ese conocimiento no sólo supone que podemos mejorar nuestra calidad de vida, pero también que podemos contar con esa información a la hora de tomar decisiones. Podemos dejar que nuestras opiniones definan la política que seguimos (cambio climático por ejemplo), pero siempre basadas sobre la evidencia científica más sólida que podamos adquirir.

P: David, también estás involucrado en la serie de podcasts Pint of Science US, y tienes cuentas activas en ResearchGate, Twitter y Google+. ¿Crees que las herramientas sociales, además de servir como canales para la divulgación científica, son también importantes para conectar a investigadores trabajando en los mismos o distintos temas?

R: Pint of Science es mas que una serie de podcasts, es tambien un festival de la ciencia internacional que me gustaría que llegase a España en algún momento. Mi mujer lleva Pint of Science en EEUU y forma parte de ese esfuerzo que estamos haciendo para interesar a la gente en la ciencia y el método científico, y en interesar a los cientificos en la divulgación de su trabajo.

Mi relación con Twitter y Google+ es diferente y mucho más centrada en mi campo que es el estudio de la dinámica darwiniana del cáncer. Twitter es una herramienta muy útil para mantenerme en contacto con otros cientificos y colaboradores. Quizás el hecho de que un tweet sea un mensaje tan breve hace que a la gente le suponga un menor esfuerzo utilizar twitter de forma habitual. Gracias a Twitter, y en menor medida, Google+, me es más facil compartir noticias, enlaces e ideas con gente que vive y trabaja a miles de kilometros de mi.

P: ¿Alguna vez piensas en la posibilidad de volver a investigar a España o a Europa? ¿Cómo ves la situación de la investigación científica en España?

R: Nada haría más felices a mis padres que yo volviera a España (a ser posible Asturias) … y a mi me gustaria mucho pero si las posibilidades hace unos años eran escasas, las cosas hoy en día, en 2014 son peores. No sólo la falta de recursos financieros, sino también centros donde se haga y se valore la investigación interdisciplinar.

P: ¿Te atreves a hacer un pronóstico sobre el futuro del cáncer?

R: Como dijo Yogi Berra, hacer pronósticos es muy difícil, sobre todo si son sobre el futuro. Voy a evitar la tentación de predecir pero lo que es seguro es que va a seguir habiendo mejoras no sólo en lo que se refiere a nuevos tratamientos, sino también en la forma en la que esos tratamientos se usan en el hospital. Lo que no veo a corto plazo (o medio) es una “cura” del cáncer, pero sí una constante mejora en lo que se refiere a los cánceres que se pueden curar y en aquellos en los que podemos mejorar la calidad de vida del paciente. La clave consiste en poder trasladar todo lo que hemos descubierto (y lo que estamos descubriendo) sobre la biología del cáncer.


David, esta entrevista ha sido una experiencia muy enriquecedora, y confío en que lo será también para nuestros lectores. Espero que en un futuro podamos seguir manteniendo el contacto.

Principios físicos del láser para todos los públicos

$
0
0

Desde que mis líneas de investigación y de trabajo han virado hacia las aplicaciones biomédicas, he tenido la oportunidad de compartir congresos y discusiones con muchos médicos, biomédicos, expertos en radioterapia, etc. En casi todas estas reuniones se reconocía la importancia que la tecnología láser estaba teniendo el campo de la medicina, y sus más que excitantes aplicaciones tanto presentes como futuras (ver por ejemplo mis anteriores entradas en Desayuno con fotones: Aceleración de partículas cargadas por láser: presente, futuro y aplicaciones, 1 y 2). Pero siempre una idea me rondaba la cabeza: “estos profesionales saben usar un láser, pero ¿de verdad saben qué es un láser?” Vamos a ver si consigo responder a esta pregunta de forma sencilla con esta entrada.

Todos tenemos presente que un láser es luz. Pero ¿qué es la luz? Si atendemos a la definición:

La luz es una onda electromagnética

Vayamos por partes: la luz es una onda. Y una onda es:

una perturbación que se propaga en el espacio transportando energía

Un ejemplo de onda lo tenemos cuando lanzamos una piedra a un estanque. Al chocar la piedra con la superficie del agua se produce una perturbación de ésta que se propaga de forma radial. El caso de la luz es un poco más complejo porque tenemos una oscilación del campo eléctrico y del campo magnético, pero la analogía es totalmente válida.

onda

Las magnitudes que definen una onda son:

parámetros onda

  • Amplitud: mide como de grande es la perturbación.
  • Longitud de onda: distancia entre dos puntos de una onda que se propagan de la misma forma.
  • Frecuencia: número de oscilaciones por segundo. En el caso de la luz se corresponde con el color de la radiación.
  • Velocidad: rapidez con la que se propaga una onda. Es igual a la longitud de onda multiplicada por la frecuencia. La velocidad de la luz en el vacío es c que es igual a 300.000 km/s.

Ya tenemos más o menos claro qué es una onda. Vayamos ahora con la palabra electromagnética: ¿qué es una onda electromagnética?

Una onda electromagnética es aquella que se puede propagar en vacío

Por ejemplo el sonido, aunque es una onda, no es una onda electromagnética porque necesita de un medio material para propagarse. Es por esto que en el espacio al estar en condiciones de vacío las explosiones ¡no suenan!, aunque en “Star Wars” a todos nos hicieran creer lo contrario.

espectro electromagnéticoEn la figura anterior podemos ver algunos ejemplos de ondas electromagnéticas junto con su longitud onda y su frecuencia. Como la longitud de onda multiplicada por la frecuencia es la velocidad de la onda, a mayor longitud de onda menor frecuencia y viceversa. Para las ondas electromagnéticas la energía de la onda es proporcional a la frecuencia siendo la constante de proporcionalidad la constante de Planck (h=6.62.10-34 Js), por tanto a mayor frecuencia mayor energía.

En este punto espero que más o menos todos tengamos claro qué es la luz, pero ¿qué es un láser? Para responder a esta pregunta lo mejor de nuevo es atender a la definición e ir paso por paso.

Láser es el acrónimo de:

Light Amplification by Stimulated Emission of Radiation

…o lo que viene a ser lo mismo,

Amplificación de luz por emisión estimulada de radiación

En la definición de láser, “light”, “amplification” y “radiation” están más o menos claras, pero ¿qué es “stimulated emission”? Para entenderlo tenemos que viajar a 1917 cuando Einstein, ¡cómo no!, publicó su famoso artículo Zur Quantentheorie der Strahlung [On the Quantum Theory of Radiation] en el que describió teóricamente los procesos de interacción de la luz con la materia: absorción estimulada, emisión estimulada y emisión espontánea.

EinsteinPero vayamos paso a paso. Imaginemos un átomo con su núcleo atómico y sus electrones “orbitando”alrededor. Esta imagen es muy simplista y a veces incluso confusa, pero en este caso ilustra muy bien los conceptos necesarios. Si el átomo recibe energía, uno de sus electrones pasará a una “órbita” más alejada del núcleo que en la que se encontraba inicialmente. Con este “salto” del electrón a órbitas más alejadas del núcleo, el átomo pasa de un estado de mínima energía (o estado fundamental) a un estado de mayor energía (o estado excitado). Pero, y aquí está el quid de la cuestión, estas “órbitas” no son cualesquiera sino que están cuantizadas y sólo son posibles un número discreto de ellas. Por tanto, para pasar de una “órbita” a otra, la energía que tenemos que aportar al átomo tiene que ser exactamente igual a la diferencia de energía entre órbitas. Es importante señalar que la distribución de estas órbitas, o de estados electrónicos si hablamos con propiedad, son características de cada elemento, siendo como su huella de identidad.

órbitasYa tenemos casi todas las herramientas. Supongamos un átomo en su estado fundamental, es decir en su estado de mínima energía. Supongamos también que incide sobre el átomo luz con una energía exactamente igual a la diferencia de energía entre el estado fundamental y el estado excitado. En esta situación, el átomo absorbería la luz y un electrón pasaría del estado fundamental al estado excitado. Estamos ante el proceso de Absorción Estimulada.

absorción estimuladaSi el átomo en vez de partir de su estado fundamental parte de su estado excitado, de forma espontánea puede decaer al estado fundamental emitiendo luz. La energía de esta luz es exactamente igual a la diferencia de energía entre el estado excitado y el estado fundamental. Este proceso se conoce como Emisión Espontánea.

emisión espontáneaPor último, si partimos de un átomo en un estado excitado y lo iluminamos con luz cuya energía sea exactamente igual a la diferencia de energía entre el estado excitado y el fundamental podemos estimular la desexcitación: Emisión Estimulada. En este caso el átomo pasará al estado fundamental emitiendo luz idéntica a la que ha inducido el proceso. Es decir hemos amplificado la luz inicial.

emisión estimuladaSi en vez de un átomo juntamos muchos y los llevamos todos a un estado excitado, conseguiremos una amplificación mucho mayor. Este medio amplificador es el corazón del láser y se conoce como medio activo.

medio activo¡Ya podemos montar nuestro láser! Lo primero que necesitaremos es un medio activo. Uno de los medios activos más usados actualmente se conoce como Ti:Sa, que es un cristal de zafiro dopado con iones titanio.

cristal Ti-SaTambién necesitaremos una fuente de energía para excitar los átomos del medio activo. Esta fuente de energía puede ser por ejemplo una descarga eléctrica de alto voltaje u otro láser.

amplificaciónSi hacemos pasar luz por el medio activo como indicábamos antes,  logramos amplificarla, pero para conseguir grandes amplificaciones son necesarios medios activos muy grandes. Es más inteligente colocar el medio activo entre dos espejos teniendo uno de ellos una pequeña perdida. Es decir, insertar el medio activo en una cavidad o resonador. Así la luz se amplificará de forma constante siendo la pequeña perdida del resonador la luz láser que utilizamos para las distintas aplicaciones.

resonador láserLas características de la luz láser son:

1.- Monocromaticidad

Por la forma en la que se genera la luz láser, la energía (o lo que es equivalente la frecuencia) de la radiación es muy definida. Esta frecuencia de emisión es intrínseca a la configuración energética del material que se use como medio activo, ya que corresponderá a la diferencia de energía entre el estado fundamental y el estado excitado que se elija. Esto contrasta con otras fuentes de luz, como por ejemplo el sol,  que son muy policromáticas.

luz coherente vs incoherente

Como mencionábamos antes la elección del medio activo determina tanto las características del láser, como las posibles aplicaciones de éste. En este artículo de Wikipedia hay una tabla extensa sobre los distintos tipos de medios activos así como sus longitudes de onda de emisión. Como curiosidad, mencionar que de forma general cuanto más al azul esté la emisión del láser que queramos más difícil es conseguir un medio activo, ver por ejemplo el reciente premio Nobel por el LED azul, y más caro resultará. La emisión más habitual es en la banda rojo-infrarrojo cercano. De hecho los habituales punteros láser para dar conferencias emiten en el infrarrojo (alrededor de 1064 nm) pero un cristal no lineal convierte mediante un proceso que se llama Second Harmonic Generation dos fotones de infrarrojo en un fotón verde (532 nm) que es la emisión que finalmente vemos.

2.- Direccionalidad

La luz láser es muy direccional, pudiéndose propagar grandes distancias sin divergir de forma importante. Esto contrasta con otras fuentes de luz, por ejemplo la de una bombilla, cuya emisión se produce en todas las direcciones, es decir, de forma isotrópica. Esta característica hace que con un láser sea posible concentrar una alta cantidad de energía en un punto concreto.

3. – Coherencia

Mientras que los distintos emisores de una fuente incoherente no emiten en fase, es decir, no emiten de una forma coordinada, en una fuente coherente como son los láseres todos los emisores están coordinados.

incoherente coherentePodemos hacer una analogía si comparamos un centro comercial en hora punta donde todas las personas se mueven de forma aleatoria con un ejército marchando en una dirección determinada. Esta coherencia intrínseca de la luz láser, diferente a otras fuentes de luz, hace que la interacción laser-materia esté lejos de ser intuitiva, ya que presenta sorprendentes características, algunas de ellas aún no entendidas. Pero eso es otra historia.

incoherente coherente 2Si habéis llegado hasta aquí espero que ahora tengáis una idea de cómo funciona un láser y de todo el abanico de posibilidades tanto científicas como tecnológicas que ofrece. De todas formas si tenéis alguna duda intentaré contestaros en los comentarios de esta entrada.

PD: En este link podéis intentar construir vuestro propio láser y hacerlo funcionar. ¡Suerte!

Edith Stoney, científica guerrera y pionera de la física médica.

$
0
0

Hace justo un siglo empezó la Primera Guerra Mundial, uno de los conflictos bélicos más devastadores de la historia de la humanidad. En los cuatro años que duró  hubo destrucción, horror, sufrimiento y miles de muertes, aunque también muchas personas que dieron lo mejor de sí mismas para contribuir a paliar en la medida de sus posibilidades tanto dolor. Y éste fue el caso de Edith Stoney, una mujer anónima para la mayoría del mundo, pero que con su entrega y valentía llevó sus conocimientos de física médica a la primera línea de batalla.

Edith Stoney nació en Dublín en 1869 dentro de una familia de científicos. Su padre, G. Johnstone Stoney, un físico muy eminente, acuñó en 1891 el término electrón como “la unidad fundamental de electricidad” cuatro años antes de que J.J. Thomson demostrara experimentalmente su existencia. Su hermana Florence fue una médico radióloga galardonada con el OBE (Order of the British Empire) y tuvo también un hermano ingeniero y un primo físico, ambos miembros de la Royal Society. Se dice que también estaba lejanamente emparentada con Alan Turing, el padre de la informática.

Edith y Florence con su padre, Johnstone Stoney

Edith y Florence con su padre, Johnstone Stoney

Desde muy pequeña Edith demostró un talento especial para las matemáticas y con 24 años consiguió una beca en el “Newnham College” de Cambridge, aunque no llegó a graduarse porque las mujeres estaban excluidas, situación que se mantuvo durante aún 50 años más. Llevó a cabo junto a Charles Parsons, el inventor de la turbina de vapor, cálculos muy complejos de turbinas y después estuvo varios años enseñando matemáticas en la universidad femenina de Cheltenham (Inglaterra). En 1899 Edith consiguió una plaza de profesora de física en el Colegio de Medicina para Mujeres de Londres, donde su hermana Florence estudiaba radiología. Allí las dos hermanas pusieron en marcha un equipo de rayos X en el departamento de electricidad, lo que, aunque entonces lo desconocía, le sería de gran utilidad en los próximos años. Durante esa época Edith apoyó de forma muy activa el movimiento del sufragio de las mujeres, aunque también se opuso públicamente a la violencia con la que el movimiento actuó después.

El 4 de agosto de 1914, el mismo día que Gran Bretaña se declaró en guerra, las dos hermanas Stoney se ofrecieron voluntarias a la Cruz Roja inglesa para dar servicio radiológico a las tropas europeas. No se les permitió alistarse por ser mujeres. A finales de ese mismo año Edith contactó con el Hospital Escocés de Mujeres, con el que colaboraría fuera de Inglaterra durante los siguientes cuatro años. La primera tarea que le fue encomendada fue poner en marcha y dirigir las instalaciones de rayos X de un hospital de batalla en Troyes (Francia). Allí estableció la técnica estereoscópica para localizar balas y metralla y fue también la primera en introducir el uso de rayos X para el diagnóstico de la gangrena gaseosa, ya que la presencia de gas era la señal de la necesidad de amputación del miembro afectado a fin de poder salvar la vida del herido.

Placa de rayos X de la mano de un soldado herido durante la I GM (Fuente: wikimedia)

Placa de rayos X de la mano de un soldado herido durante la I GM
(Fuente: wikimedia)

Aunque Edith se encontraba ya muy entrada en los cuarenta y había pasado toda su carrera como profesora de matemáticas y de física, unos meses trabajando con heridos de guerra en primera línea de batalla en unas condiciones muy duras y con jornadas laborales interminables, no hicieron más que fortalecer su carácter y darle un sentido más profundo a su vida como persona comprometida y cuyos conocimientos tenían mucho que aportar.

A finales de ese mismo año, bajo la amenaza del frente que avanzaba, la ciudad fue evacuada y la unidad fue enviada a Serbia. Su miedo era que allí no tuvieran suministro eléctrico y que por tanto sus equipos de rayos no funcionaran. Solicitó un generador que le fue denegado, pero en una visita a París se “encontró” con una dinamo y haciendo uso, según sus palabras, “de la mala reputación de la sangre irlandesa que corría por sus venas” se hizo con ella, porque “a fin de cuentas, la guerra no está hecha para la honestidad”. Con ella volvió a poner en marcha en Serbia un departamento de rayos X que atendía diariamente a muchos pacientes. También consiguió una furgoneta dotada de un equipo de rayos X portátil que ella misma conducía por toda la región de Salónica.

 

En octubre de 1917 Edith fue enviada de vuelta al norte de Francia para dirigir los departamentos de rayos X de los hospitales de Royaumont y Villers Cotterets. Durante los últimos meses de la guerra la lucha se intensificó en la zona y hubo un gran incremento de la carga de trabajo. Además, ante la escasez de placas radiográficas y la urgencia de los diagnósticos, se vieron obligados a utilizar fundamentalmente la fluoroscopia que hizo que mucho del personal que trabajaba con Edith tuviera graves quemaduras radioinducidas.

Los compañeros de Edith de aquella época la describían de esta manera: “Uniforme gris, pelo gris, ojos azul pálido, siempre concentrada en su trabajo, sin amigos especiales, sin otros intereses, dentro y fuera de las salas de rayos X y de las de revelado siempre como una polilla” o de esta otra: “Una científica competente, un mero fantasma de mujer, pero su resistencia física parecía ser infinita; ella podía cargar con un montón de equipos pesados, reparar cables eléctricos sentada a horcajadas en el tejado en medio de un vendaval y trabajar sin descanso llevando una dieta a todas luces insuficiente”.

Y es que, trabajadora infatigable y luchadora muy entregada, esperaba también de sus colegas una respuesta consecuente a sus propias altas normas de compromiso y rendimiento. A menudo se molestaba ante la falta de profesionalidad y muchas veces era ninguneada por no tener cualificación médica, a pesar de sus cuatro títulos universitarios y sus años de experiencia trabajando en el ámbito hospitalario.

Edith_Stoney_Hospitals_WWI

Mapa que muestra los hospitales de campaña en los que Edith Stoney trabajó durante la I GM. (Fuente: wikipedia)

Al terminar la guerra, volvió a Inglaterra donde se dedicó a dar clases de Física en el “King´s College for Women” hasta 1925. Tras retirarse viajó mucho, porque era una amante de la aventura a la que le encantaba conducir y andar en bicicleta. En 1934 se dirigió a la Federación Australiana de Mujeres Universitarias en Adelaida para hablar del papel de la Mujer en la Ingeniería y remarcó especialmente la contribución de las mujeres trabajadoras durante la Guerra. Periódicos de esa época la describen “caminando con un palo, con su cabello plateado y dulces ojos azules, pequeña y ligera, hasta el punto de la fragilidad, parece que se hubiera dedicado toda su vida al estudio de la literatura celta”.

Edith Stoney (centro) en 1921 en el “King´s College for Women” de Londres

Edith Stoney (centro) en 1921 en el “King´s College for Women” de Londres

Edith Stoney murió el 25 de junio de 1938. Fue una mujer austera y muy dura que mostró una gran valentía y mucha imaginación para aplicar sus conocimientos de física a la atención clínica en primera línea de batalla. Además fue una firme defensora de la educación para las mujeres y pasó gran parte de su vida dedicada a conseguir oportunidades científicas y profesionales para ellas. Legó dos fondos, uno para permitir a mujeres universitarias que investigaran en el extranjero y otro para que las mujeres graduadas en física entraran en la formación médica.

En un momento en el que la física médica estaba sólo empezando a definirse como profesión, Edith Stoney merece ser destacada sin duda como uno de sus pioneros más capaces.

Bibliografía:

-Edith (1869-1938) and Florence (1870-1932) Stoney, two Irish sisters and their contribution to radiology during the World War I Journal of Medical Biography 2013; 21: 1000-1007

-http://www.ipem.ac.uk/Portals/0/Documents/Publications/SCOPE/SCOPE_DEC2013_LR.pdf

PD: Mientras escribía la historia de Edith Stoney me di cuenta de que ella y Marie Curie coincidieron en Francia en las mismas fechas durante la I Guerra Mundial. Jugué a imaginarme que las dos incluso pudieron llegar a conocerse en París, aunque no he encontrado ningún dato que me indique que fuera así. Sin embargo, ha sido una sorpresa para mí descubrir la labor tan impresionante que Marie Curie hizo durante la guerra junto con su hija Irène. Os recomiendo leer un post precioso que escribió Laura Morrón hace dos años, “Físicas en el frente”.  En él se habla además de otra científica guerrera, Lise Meitner, que también usó los rayos X para, en palabras de Marie Curie, “salvar la vida de muchos soldados heridos y librarles a muchos otros de un largo sufrimiento”.

El desayuno… de los campeones

$
0
0

Ya es público. Ya podemos decirlo (que ganas teníamos): nuestro blog, el de Naia Pereda, que lanzó la idea, el de nosotros los editores, el de nuestros colaboradores, y sobre todo, el de nuestros lectores, ha sido premiado. Y no es un premio cualquiera. Nos ha premiado CPAN, el Centro Nacional de Física de Partículas, Astropartículas y Nuclear, una iniciativa que promueve la participación coordinada de los grupos científicos españoles en las investigaciones punteras en esas áreas de la física: el CIEMAT (aun recuerdo los meses que pasé allí realizando el curso superior de protección radiológica), el IFIC (al que conocí cuando él era casi sólo un proyecto de instituto en el campus de Burjasot y yo apenas un embrión de físico), todos los departamentos universitarios del área (entre ellos el de Granada, que fue mi casa cuando aquel embrión era ya un polluelo calculando elementos de matriz, y que lo siguió siendo después, cuando mis inquietudes investigadoras encontraron allí el cobijo del mejor maestro que pudo darme la suerte, Antonio Lallena), el CNA (Centro Nacional de Aceleradores, de Sevilla, cuyos comienzos conocí de primera mano gracias a mi colega y amigo Celestino Sánchez, que allá se fue para ejercer, si no recuerdo mal, de Jefe de Protección Radiológica)… en fin, la flor y nata de la investigación en Física de partículas y nuclear, teórica y experimental, de este país. Si a esto añadimos que nuestro coeditor Gaspar Sánchez se puso chaqueta (ver foto), ya podéis entender que me merecieran la pena los 2000 kms de coche que me metí en 36 horas, incluyendo el desvío por Burgos para recogerle y retornarle.

Premios de Divulgación CPAN Inauguración Jornadas CEPAN

Bueno, pero vayamos a lo que hemos venido con este post, que es agradecer, que es de bien nacidos, dicen.

En primer lugar queremos agradecer a todos los colaboradores el esfuerzo que habéis realizado. La calidad de vuestros escritos es la parte principal de este éxito pues son esos contenidos los que hacen este blog ameno e interesante para el gran público, sin renunciar al rigor y la completitud que lo hace también útil para los profesionales. Un equipo así es garantía de éxito.

Tenemos que dar las gracias, especialmente, a Antonio Lallena, uno de nuestros más asiduos colaboradores (mucho más que eso para mí) pues él fue quien nos advirtió de la convocatoria del CPAN y quien nos animó a presentarnos. Su confianza en las posibilidades del blog fue, por sí sola, un motivo de orgullo. De hecho, él mismo se encargó de realizar las gestiones necesarias para presentar la candidatura. Muchas gracias.

También a los miembros del jurado, en general a todos los miembros del CPAN, y en particular a Isidoro García, un perfecto anfitrión. Un verdadero placer compartir esas escasas horas con todos ellos y tener además la oportunidad de reencontrarme a viejos amigos y colegas a los que no veía desde hacía algunos años.

Hay muchos concursos y premios en este mundo, y muchos son concursos de blogs, pero el de CPAN no es uno más, no puede serlo para un blog dedicado a la física, y especialmente si se dedica a un área que ha sido tradicionalmente desconocida, no sólo por el gran público si no, lo que resultaba más doloroso, por la mayoría de nuestros más inmediatos colegas físicos. Quiero pensar que este premio significa un reconocimiento hacia nuestra especialidad que merecíamos. Parafraseando al joven Mozart de la película “Amadeus”, yo puedo ser vulgar, pero os aseguro que mi especialidad no lo es.

Yo he vivido en primera persona el desarrollo que la especialidad ha tenido desde 1990 hasta hace pocos años (parezco el replicante de Blade Runner diciendo eso de “Yo… he visto cosas que vosotros no creeríais…” ), y el frenazo sufrido en los últimos cinco (parón acompasado con el de prácticamente todos los campos de actividad, no debemos quejarnos en exceso). Conocí los tiempos en los que era muy difícil acceder a los departamentos universitarios de física para poder desarrollar una investigación homologable, más allá de los esfuerzos individuales que algunos realizaban en sus hospitales, con escasez de medios y tiempo.

Aquella situación mejoró en los años posteriores (y sigue mejorando), gracias al compromiso personal de algunos que, hoy tal vez sea difícil imaginarlo, dedicaron su tiempo y su energía, más allá de la obligación, a un proyecto que para nada tenía entonces visos de llegar a buen puerto, estableciendo vínculos personales y puntuales que el tiempo transformó en colaboraciones duraderas y fructíferas y en algunos casos, el mío al menos, en amistades inquebrantables. Todos, la universidad y los profesionales de la radiofísica, podemos sentirnos orgullosos.

Poco a poco, en estos años, el trabajo serio de todos ha ido ganando para la profesión el respeto de los ciudadanos, de los servicios asistenciales y de las autoridades. Se logró el reconocimiento como especialidad sanitaria y la figura del radiofísico cobró un papel protagonista en gran parte de la legislación relacionada con el uso médico de las radiaciones. Poco a poco, nuestro impacto internacional ha ido creciendo y gracias a colegas como José Pérez Calatayud (que ha sido reconocido como uno de los 50 físicos más influyentes de la especialidad en el mundo, y al que nuestro colaborador Damián Guirado entrevistó para el blog) y otros, el prestigio de la radiofísica española ha alcanzado los centros neurálgicos internacionales de este campo de conocimiento. Ellos están allí en su calidad de individuos excepcionales, que lo son, pero dan fe de que en España se trabaja a un buen nivel y se crea conocimiento. Quizás no estemos en producción al nivel de los países más punteros, con una larga tradición en radiofísica, y tal vez tampoco al de algunas otras especialidades de la física en nuestro país, pero ni en un caso ni en el otro creo que pueda nadie avergonzarnos con la comparación. El nivel de la especialidad en España es mucho más que digno. Pero a pesar de esa “revolución”, la que, para mi, va desde aquella tesina que leí en Granada en 1997 (y que solo la firmeza de mi mentor salvó de que fuera rechazada con la sentencia “eso no es física nuclear”) hasta los últimos cinco años, cuando una parte importante de las tesis leídas y los artículos publicados en el departamento lo fueron de radiofísica, la especialidad como tal, a nivel nacional, no había recibido aún el reconocimiento institucional de la vanguardia de la investigación en física.

Estoy convencido de que, en los tiempos que corren, todos, y los líderes de esos brillantes centros de investigación los primeros, hemos entendido que, si bien la investigación en física fundamental merece la pena y no puede estar supeditada a la rentabilidad inmediata que difícilmente podrá garantizar, no podemos ignorar y dejar de aprovechar las pocas oportunidades que tengamos de que esa inversión revierta en el bienestar de la sociedad que la nutre, sobre todo si esas oportunidades están relacionadas con el tratamiento de una enfermedad tan devastadora para esa sociedad como es el cáncer. Creo que hemos perdido, todos, un tiempo muy valioso por ese desencuentro. Por desgracia, me temo que la complejidad de esa enfermedad nos dará aún tiempo para recuperar el que ya perdimos. Empecemos esta misma mañana.


Para: Tía María Asunto: Radiaciones ionizantes

$
0
0

monstruos SA 1

Querida tía María:

Ya sé que estás muy preocupada tras la reciente detección de tu enfermedad. Pero confía en tus médicos ya que la mayoría de mujeres que tienen esta enfermedad la acaban superando. También sé que te asusta un poco eso de tener que hacerte mamografías, tomografías computarizadas (TC) y recibir tratamiento de radioterapia. Eso de las radiaciones ionizantes (RI) te inquieta. Ahora que te has unido a las nuevas tecnologías y ya que los de mi generación no escribimos apenas cartas, te voy a explicar por e-mail qué son esas RI y cómo interaccionan. Te prometo que otro día te contaré algo más sobre sus efectos biológicos. Ya sabes, el conocimiento es poder… Para que no nos pase como a Jimmy Carter que cuando leyó en el periódico que llegaban del Sol menos neutrinos de los esperados  le pregunto a su asesor científico (el físico Frank Press) “¿podemos hacer algo, Press?”

Bueno, vamos al tajo…

Al hablar de radiación nos referimos, normalmente, a la emisión de energía en forma de ondas electromagnéticas. Son ondas electromagnéticas: las ondas de radio, las microondas, la radiación ultravioleta, los rayos X, los rayos gamma y la luz visible. Todas ellas se propagan a la velocidad de la luz (300.000 km/s) y de todas ellas, el hombre solo puede ver, afortunadamente, la luz visible. Digo lo de afortunadamente porque sería una locura si pudiéramos ver o percibir todas las radiaciones. Para detectar la  presencia de lo no visible se necesitan instrumentos especiales, lo que llamamos detectores de  radiación.

También usamos la palabra “radiación” para designar a algunas partículas que se mueven a gran velocidad, como electrones, protones y neutrones. Estas partículas se encuentran en el átomo, que es la parte más pequeña en que podemos dividir una sustancia. Los átomos tampoco los podemos ver a simple vista ya que son mas pequeños que la longitud de onda de las radiaciones que componen el espectro visible. Sabemos cómo son a través de las investigaciones y experimentos que nos dan una idea de su funcionamiento y ahora los podemos fotografiar gracias a los microscopios de efecto túnel… Cosas del ingenio humano…

Cuando la energía de la radiación es muy grande puede arrancar electrones de los átomos de una sustancia y por eso se llama “radiación ionizante”. Algunas ondas electromagnéticas, como los Rayos X y la radiación gamma, son radiaciones ionizantes  y también lo son algunas partículas, como electrones, neutrones, partículas alfa… cuando tienen la energía suficiente…

Ionizacion

El ser humano vive en un mundo con radiactividad natural: tu propio cuerpo contiene pequeñas cantidades de sustancias radiactivas: polonio en los huesos, etc. También está expuesto a  la radiación cósmica, procedente del espacio y a la radiación del radón, procedente de la tierra. La radiación también se puede inhalar. Esta vía tiene un agravante, porque el elemento químico entra en el cuerpo, puede metabolizarse y permanecer durante mucho tiempo irradiando nuestros órganos internos. El plutonio, por ejemplo, se puede fijar en los huesos y pulmones, pudiendo dar lugar a efectos biológicos no deseados.

Como los físicos, y en general los científicos, tenemos la manía de cuantificar todo, definimos una magnitud que mide la “cantidad” de radiación recibida. Se llama dosis absorbida y su unidad es el gray (Gy), representa la energía impartida por unidad de masa. Dependiendo del tipo de radiación, una misma dosis absorbida puede dar lugar a diferentes efectos biológicos en los seres vivos, por lo cual definimos otra magnitud llamada dosis equivalente, cuya unidad es el sievert (Sv). No es lo mismo que te golpeen 200 pelotas de ping-pong de 5 gramos cada una con una determinada velocidad que recibir el impacto de una bola de billar de 1 kilogramo con la misma velocidad. El daño va a ser muy diferente a pesar de que la energía del impacto sea la misma. Un RX sería como una de nuestras pelotas de ping-pong y una partícula alfa sería como nuestra bola de billar, arrasa con todo lo que pilla a su paso. Con la misma energía transferida al tejido haría 20 veces mas daño biológico que el RX.

tipos rads ionizantes

La radiación controlada representa un  riesgo aceptable. De hecho, las radiaciones conviven con nosotros, en hospitales, en industrias, en ciertos gases que se encuentran en el terreno… Sirven para tratar el cáncer (radioterapia) y para diagnosticar muchas enfermedades (a través de radiografías, por ejemplo).

Debido a que las radiaciones ionizantes pueden dar lugar a ionizaciones, éstas pueden producir alteraciones en los componentes de las células, que pueden acabar dando lugar a un efecto indeseado en la salud de la persona que recibe la irradiación.

La interacción de la radiación con los distintos componentes de la célula es aleatoria, es decir, tiene lugar al azar, por lo que cualquier parte de la célula puede verse dañada. Se podría decir que la RI juega a los dados con los tejidos biológicos y, a veces, los tira donde no podemos verlos. A pesar de ello, dado que el ADN es la molécula que contiene información vital para la célula,  se sabe que en gran medida los efectos biológicos de las radiaciones ionizantes se deben al daño que éstas producen en el ADN.

dados

Desde hace muchos años se sabe que las células que se dividen muy activamente (las más proliferativas) son más sensibles a las bajas dosis de radiación. Sin embargo, a altas dosis los tejidos con células menos proliferativas son más sensibles, mueren más. Esto es importante, pues lo cierto es que la radiación cura el cáncer gracias, en parte,  a que elegimos el fraccionamiento adecuado para aprovechar estos mecanismos biológicos y a la actuación de los mecanismos de reparación celular. El cáncer también se cura con radiaciones sobre todo porque se planifican tratamientos muy complejos que se centran en la enfermedad minimizando la irradiación de los tejidos sanos. Estas propiedades y estrategias permiten la aplicación médica de las radiaciones ionizantes para eliminar las células tumorales en radioterapia. En las personas de menor edad, las células se están dividiendo más activamente que en los adultos, y por ello suelen mostrar mayor sensibilidad a la radiación.

Además, también sabemos que, en general, las células más diferenciadas, como las nerviosas o musculares, son menos radiosensibles mientras que las menos diferenciadas, como células hematopoyéticas, mucosa intestinal, etc… son más radiosensibles.

En definitiva, la radiosensibilidad de los tejidos a las RI depende de las células que lo componen.

A partir de los 500 mSv pueden aparecer algunos daños en la piel, náuseas, vómitos, problemas respiratorios y, si afecta a mujeres embarazadas, puede ocasionarle al futuro bebé algún tipo de retraso en el desarrollo cerebral particularmente durante las semanas 8 a la 15 de gestación y en menor grado entre las semanas 16 a 25. A mayores dosis, mayores repercusiones en la salud: destruyen el sistema nervioso central y los glóbulos blancos y rojos, lo que compromete el sistema inmunológico y deja a la víctima vulnerable ante las infecciones.

Si se reciben varios miles de mSv, se pueden producir casos de Síndrome de Radiación Aguda. Ocurre, por ejemplo, cuando grandes cantidades de radiactividad entran en el cuerpo en muy poco tiempo. En circunstancias semejantes, la radiactividad afecta a todos los órganos y cualquiera de ellos puede tener un fallo fulminante. Por ejemplo, una única dosis de 5.000 mSv mataría aproximadamente a la mitad de las personas expuestas en un mes si no reciben asistencia médica.

Ahora que ya usas las nuevas tecnologías te recomiendo además que leas alguno de los artículos de Desayuno con Fotones. Hay textos interesantes que van desde el miedo a las radiaciones ionizantes, pasando por un personaje llamado Radiactivo Man que explica dónde y cómo usamos las RI en los hospitales hasta cuestiones mas técnicas como la respuesta de las células o el uso de los protones para el tratamiento del cáncer.

También puedes encontrar mas información en la web de IAEA relativa al uso seguro de las radiaciones ionizantes en medicina y sobre la protección radiológica del paciente.

En fin, tía, haz caso a tus médicos y recuerda que, como dice tu sobrino Abel, cuando se lucha contra una enfermedad nunca es tarde para no hacer nada. Seguro que pronto te recuperas.

Un abrazo.

PD: Parte de estos textos los he extraído del apartado de preguntas y respuestas de la Sociedad Española de Protección Radiológica www.sepr.es .

Para: Tía María Asunto: Efectos biológicos de las radiaciones ionizantes

$
0
0

monstruos SA 2

Querida tía María:

Ya veo que te has puesto las pilas y te has leído las referencias que te indiqué. Incluso has buscado otras páginas web que son de mucha ayuda para las personas que padecen enfermedades como la tuya. En particular me ha encantado ésta: https://www.aecc.es/SobreElCancer/Paginas/Sobreelc%C3%A1ncer.aspx . Es fantástica, ya que es muy completa y además tiene información para cada localización.

Ahora que ya sabes cómo interaccionan las radiaciones ionizantes (RI) y como te prometí en el email anterior, te contaré algo mas sobre los efectos biológicos de esas RI.

Si los daños celulares producidos por las radiaciones ionizantes no se reparan adecuadamente, puede ocurrir que las células afectadas mueran o vean impedida su reproducción, o bien que se origine una célula viable, pero modificada. De ambos sucesos se derivan efectos biológicos absolutamente distintos, que se clasifican respectivamente como efectos tisulares y efectos estocásticos. Te voy a enumerar sus características mas relevantes:

Efectos tisulares:

Tisular paso fuego

  • Son debidos a muertes celulares.
  • Si la pérdida de células de un determinado órgano o tejido es lo suficientemente elevada se producirá un daño susceptible de ser observado, que será el reflejo de una pérdida de funcionalidad del tejido. Si el tejido es vital y sufre daños importantes el resultado final puede llegar a ser la muerte del individuo expuesto.
  • Existe un umbral de dosis propio de cada efecto, de manera que la probabilidad de que se produzcan tales daños es cero a dosis bajas pero aumenta rápidamente a la unidad (100%) por encima del umbral.
  • La gravedad del daño aumenta con la dosis recibida, es decir con el número de células afectadas. Cuanto mayor sea la dosis por encima del umbral, tanto mayor será el daño.
  • Son efectos somáticos que se manifiestan en el individuo expuesto.
  • Habitualmente su periodo de latencia es corto.

Efectos estocásticos:

estocasticos2

  • A pesar de la existencia de mecanismos de defensa altamente efectivos en el organismo, una célula modificada pero viable puede, tras un periodo de tiempo de latencia, reproducirse en un clon de células potencialmente malignas, que puedan llegar a desarrollar un cáncer radioinducido.
  • La probabilidad de aparición del efecto aumenta con la dosis, probablemente sin un umbral y de forma aproximadamente proporcional, al menos para dosis muy bajas. Es decir presentan un carácter probabilístico o aleatorio de aparición. La información disponible hasta el momento permite estimar que el riesgo neto de desarrollar cáncer tras una irradiación corporal total aumenta aproximadamente en un 5% por cada Sv recibido (coeficientes nominales de riesgo ajustados al detrimento para efectos estocásticos después de la exposición a la radiación a baja tasa de dosis según la Comisión Internacional de Protección Radiolócica en sus recomendaciones de 2007).
  • Anualmente se producen varios billones de anomalías en la masa total de ADN del ser humano que los mecanismos de autorreparación corrigen. La irradiación a un nivel de radiación 400 veces superior al fondo medio de radiación solo produce 12 cambios extras. Pasar de uno de estos sucesos a la manifestación de un cáncer es un proceso que raras veces llega a completarse. Un pequeño aumento de exposición por encima del fondo natural, supondría una probabilidad de que se induzca un cáncer adicional ciertamente reducida.
  • La gravedad del daño es independiente de la dosis recibida.
  • El periodo de latencia es largo (puede tardar años en manifestarse).
  • Pueden manifestarse en el individuo expuesto, efectos somáticos, o transmitirse a su descendencia, efectos genéticos, cuando la célula afectada tiene como función la transmisión de información genética a generaciones posteriores.

Por satisfacer tu curiosidad, te contaré también algo sobre los efectos de las RI sobre el embrión, a pesar de que a estas alturas ya no puedas ser madre. Por cierto, el tío dice que cada vez estás mas guapa y escultural. El embrión, al estar constituido por células indiferenciadas, en división y por su estado de desarrollo que hace que la muerte de unas pocas células tenga graves consecuencias, tiene una radiosensibilidad relativamente alta. Los efectos derivados de una radiación intraútero dependen de la fase evolutiva del embrión o feto en el momento de la exposición pudiendo variar desde aborto hasta malformaciones o alteraciones funcionales. Pero hay que tener en cuenta que la propia Comisión Internacional de Protección Radiológica, en su publicación 84 “Embarazo e irradiación médica”, indica que los riesgos para el embrión son despreciables por debajo de los 100 mSv.

En el diagnóstico médico, lo más importante es que la prueba o tratamiento esté debidamente justificada por el médico que la prescribe, y que la dosis sea la mínima compatible con una imagen que permita diagnosticar la enfermedad. Como ejemplo, la dosis efectiva por una radiografía de tórax se estima en 0,02 mSv, que equivale a la dosis que se recibe por el fondo radiactivo natural durante 3 días, sin embargo en un TC de tórax la dosis efectiva puede alcanzar 8 mSv que equivaldría a la exposición durante 3,6 años al fondo radiactivo natural.

tabla 1Se estima que el riesgo adicional, durante la vida, de cáncer fatal por un examen TC abdominal en un adulto es un exceso de riesgo muy reducido comparado con el alto riesgo total de cáncer (cerca de 1 entre 3) y usualmente es ampliamente contrarrestado por el beneficio que se obtiene con el examen TC. Así que no quiero que tengas miedo cuando te manden hacer un TC.

En la sociedad actual, muchas de nuestras actividades diarias implican riesgos, es decir, posibilidad de daño, enfermedad e incluso muerte. En el caso de los pacientes, el riesgo asociado a la exposición a radiaciones en una exploración está compensado por el beneficio derivado del diagnóstico o tratamiento recibido. Una forma de comparar el riesgo asociado a la radiación con otras clases de riesgo para la salud, es comparar el número medio de días de esperanza de vida perdidos por unidad de exposición, para cada tipo de riesgo. Estas estimaciones muestran que muchas de nuestras actividades diarias representan un riesgo para la salud mayor que el derivado de los niveles de radiación existentes en el ámbito médico.

tabla 2Como recuerda la Organización Mundial de la Salud (OMS), una persona recibe unos 3,5 mSv a lo largo de todo el año, el 80% a través de fuentes naturales de radiación (como ciertos gases que puede haber en el terreno), y el otro 20% a través de procedimientos y pruebas médicas, aunque estas cifras pueden variar en función de la geología del terreno y del grado de desarrollo del sistema sanitario del país. Hay regiones habitadas en la tierra que están sometidas a un fondo de radiación natural superior a 200 mSv al año. Y allí, la mortalidad y la esperanza de vida son normales y las pruebas citogénicas no muestran diferencias significativas.

tabla 3En España estamos expuestos a una media de 1,6 milisieverts al año, una cantidad inocua o tolerable. Por debajo de los 100 milisieverts al año (una cifra equivale a diez o doce TCs de abdomen pelvis), la mayoría de la gente no sufre ningún síntoma.

En el año 2009, en los países desarrollados, la contribución a la dosis efectiva por el diagnóstico médico fue de 1,9 mSv/año. Según el último estudio realizado, en España, en el año 2014 la contribución a la dosis efectiva por el diagnóstico médico es de 1,0 mSv/año. La introducción de la radiología digital y la concienciación y formación de los diferentes profesionales ha llevado a esa reducción de dosis durante los últimos años.

El primer principio de protección radiológica aplicable a las exposiciones médicas es la justificación del procedimiento, que debe realizarla el médico que la prescribe o el médico especialista, basándose en el balance riesgo-beneficio para el paciente. Por tanto, no hay un límite en el número de pruebas para un paciente, pero debe extremarse la justificación si con pruebas anteriores se dispone ya de suficiente información para el diagnóstico.

Además se debe optimizar la dosis de radiación para que sea la mínima compatible con una imagen apta para el diagnóstico, o en el caso de la terapia con el objetivo del procedimiento terapéutico.

No hay límites de dosis para las exposiciones médicas, pero en el caso de las pruebas de radiodiagnóstico, sí que existen valores de dosis de referencia, o de actividad administrada en medicina nuclear, que nos sirven para chequear si los procedimientos se están realizando de forma adecuada. Los valores de dosis en diagnóstico son muy bajos, y no serviría de nada que por dar una dosis mínima no se pudiese diagnosticar una enfermedad.

En el caso de los tratamientos de radioterapia se busca dar la máxima dosis posible al tumor, irradiando lo mínimo posible los tejidos sanos. Para ello hay un grupo multidisciplinar, bien formado y coordinado, trabajando en los hospitales para hacer un tratamiento personalizado a cada paciente, optimizando las dosis para que el paciente supere su enfermedad con los mínimos efectos secundarios posible. En este sentido te recomiendo que veas este pequeño vídeo de IMOMA donde se explica el proceso de la radioterapia de una manera amena: https://www.youtube.com/watch?v=A43eRnpznvE.

Ánimo, querida tía. Seguro que la sensación de incertidumbre e inseguridad ha desaparecido ya. Supongo que te sientes más aliviada ya que ahora conoces muy bien al enemigo y estás luchando contra él. Pronto empezarás con la radioterapia y seguro que te recuperaras muy rápido.

Tu próxima lucha será convencer al tío para que deje de fumar…

Nos vemos pronto. Un abrazo.

PD: Parte de estos textos los he extraído del apartado de preguntas y respuestas de la Sociedad Española de Protección Radiológica www.sepr.es .

Tipos de láseres

$
0
0

Desde que el 16 de Mayo de 1960 Theodore H “Ted” Maiman consiguiera hacer funcionar por primera vez un láser, en concreto un láser de rubí, en el Hughes Research Laboratories en Malibú (USA) la tecnología láser ha avanzado, y de hecho sigue avanzando, de forma incesante. Nuevos medios activos con mejores propiedades y emisiones en zonas del espectro electromagnético no alcanzadas hasta ahora, óptica más precisa y duradera, o sistemas láser de más potencia, son desarrollados continuamente tanto por compañías comerciales como por laboratorios de investigación. En este contexto, es un hecho que la tecnología que disponemos hoy en día será ampliamente mejorada en un horizonte de 10 años vista.

Ted Maiman y su láser de rubí

Ted Maiman y su láser de rubí

Para no perder el norte ante tantas novedades es importante tener claro los distintos tipos de láseres así como sus características más importantes. Una posible clasificación se podría hacer en función de la longitud de onda de emisión, o en función del tipo de medio activo. Sin embargo, los que trabajamos en interacción láser-materia preferimos una clasificación en función de la intensidad pico (potencia/área) que el sistema láser puede alcanzar, ya que ésta define los tipos de procesos que tendrán lugar en la interacción.

Pero paso a paso. Lo primero que tenemos que tener claro es que los láseres pueden ser continuos o pulsados. Los láseres continuos (CW lasers) están emitiendo de forma continua, valga la redundancia, radiación electromagnética, mientras que los pulsados (pulsed lasers) emiten pulsos de luz (lo podemos ver como “balas de luz”) con una duración temporal fija a una determinada tasa de repetición (número de pulsos por segundo).

PulsesTeniendo en cuenta que la intensidad es proporcional a la potencia, y que la potencia es la energía dividida por el tiempo, no es difícil imaginar que las intensidades picos generados por los láseres CW son muy bajas (del orden de cientos de MW/cm2). De forma muy general, a estas intensidades la interacción láser-materia es análoga al efecto fotoeléctrico: sólo si la energía de los fotones es superior al potencial de ionización del átomo o la molécula, se producirá su ionización. De hecho las ecuaciones que describen la interacción son las “Einstein rate equations”, no siendo necesario tener en cuenta la Mecánica Cuántica.

Photoelectrico

Sin embargo para los láseres pulsados la cosa no resulta tan sencilla. En 1962 R.W. Hellwarth y F.J. McClung demostraron experimentalmente la técnica de Q-switching, propuesta en 1958 por Gordon Gould, la cual permitió por primera vez la consecución de láseres pulsados, concretamente láseres de nanosegundo (1 ns=10-9 s) y potencias picos del orden de GW/cm2.

De forma muy sencilla, la técnica de Q-switching consiste en modificar la calidad del resonador láser permitiendo la acumulación de energía en él. Cuando no es posible acumular más energía, ésta se libera en un instante determinado consiguiendo pulsos de luz. A estas intensidades es posible la absorción simultánea de más de un fotón, siendo necesario el uso de la Mecánica Cuántica para una descripción correcta de la interacción láser-materia. En este contexto es importante darse cuenta de que el término “radiación ionizante” pierde su sentido. Toda radiación de cualquier longitud de onda puede ser potencialmente ionizante si la intensidad pico es lo suficientemente elevada como para permitir la absorción de varios fotones simultáneamente hasta superar el potencial de ionización.

Ionizacion_multifotonicaLa consecución de pulsos más cortos, pulsos de picosegundos (10-12 s) y femtosegundos (10-15 s), y por tanto con una mayor potencia pico, tuvo que esperar hasta 1963 cuando Logan E. Hargrove, Richard L. Fork y M.A. Pollack demostraron por primera vez la técnica de “mode-locking”. De forma general, toda función temporal puede ser descrita mediante sus componentes espectrales (sus frecuencias) usando análisis de Fourier, siendo mayor el número de frecuencias que tenemos que considerar cuanto menor sea la duración temporal de la función a describir. Igual sucede con los pulsos láser: cuanto menor es la duración temporal del pulso, mayor es el número de frecuencias (lo que se llama “laser bandwidth”) que el pulso contiene. Mediante la técnica de “mode-locking” se consigue “lockear” o poner en fase un número máximo de frecuencias en el cavidad del sistema consiguiendo por tanto pulsos ultracortos. Las potencia pico de los pulsos obtenidos mediante esta técnica se aproximan a la unidad atómica de intensidad (8.825.1017 W.cm-2). Es decir, la interacción laser-materia no sólo tiene lugar con los electrones del átomo sino que es posible distorsionar el potencial de Coulomb generado por el núcleo atómico induciendo fenómenos como “tunneling ionization” o “over barrier ionization”.

tunnelingEs interesante destacar que los láseres ultracortos no sólo inducen nuevos fenómenos por sus enormes intensidades pico, sino también por sus tiempos de interacción ultracortos. Por ejemplo, las vibraciones típicas de las moléculas se dan en decenas de femtosegundos lo que resulta “lento” para los láseres de pocos femtosegundos que disponemos hoy en día, siendo posible por tanto un estudio muy detallado de la dinámica molecular.

Otro ejemplo muy ilustrativo de la importancia de los tiempos de escala en los procesos de interacción láser-materia lo tenemos en la interacción con sólidos. Para que haya una disipación de calor efectiva la energía depositada por el láser tiene que transmitirse a la red cristalina, es decir, es necesario la activación de los fonones (modos de vibración) de la red. Estos fonones se activan en tiempos de escala de cientos de femtosegundos-picosegundos. Por tanto los láseres de femtosegundos “no calientan” la materia, no “la funden”, sino que “la subliman”. Esto es extremadamente importante cuando es necesario mucha precisión en un corte. Imaginemos un cirujano con un bisturí láser que quiere cortar el tejido dañado pero dejando intacto el tejido sano.

corteReducir aún más la duración temporal de los pulsos hasta attosegundos (10-18 s) o zeptosegundos (10-21 s) es extraordinariamente complejo. Pulsos tan cortos conllevan “bandwiths” enormes y hoy por hoy no hay ningún medio activo que proporcione tales anchos de banda. Es cierto que mediante técnicas como “High Harmonic Generation” es posible sintetizar pulso de attosegundos, pero experimentalmente es muy compleja tanto la generación como la caracterización de estos pulsos.

Una vez que hemos llegado a lo que hoy por hoy es tecnológicamente posible en términos de duración temporal, la ruta para obtener mayores intensidades pico pasa por conseguir mayores energías por pulso. Pero esto presenta un problema técnico importante: la óptica de un láser (espejos, lentes, etc) tiene un cierto umbral de daño que si se supera resulta fatal para estos elementos. ¿Cómo podemos por tanto aumentar la energía por pulso sin dañar la óptica del sistema?

La respuesta vino en 1995 cuando Gerard Mourou y Donna Strickland trabajando en la Universidad de Michigan co-inventaron la técnica “chirped pulse amplification” (CPA), que es una idea ciertamente elegante. Como la potencia es energía dividido por tiempo, para no sobrepasar el umbral de daño de los materiales, el pulso láser se “estira” temporalmente pasando de femtosegundos a cientos de picosegundos. Una vez “estirado” se amplifica, “recomprimiéndolo” temporalmente en una última etapa hasta su duración temporal original.

Mediante la técnica de CPA, u otras versiones parecidas pero todas manteniendo los mismo principios, se puede alcanzar potencias picos enormes. El récord de potencia lo tiene actualmente el láser de petavatio (1 PW=1015 W) Hercules de la Universidad de Michigan con 1022 W.cm-2. La Física con estás potencias tan descomunales es por supuesto relativista, dando lugar a fenómenos como la aceleración de partículas cargadas que tanta expectación están levantando en el mundo de la biomedicina (ver posts anteriores).

CPA

También, y esto es algo en lo que personalmente tengo muchas esperanzas, en el campo de Física de Partículas se están abriendo nuevas líneas. La idea a grandes rasgos es compensar las bajas probabilidades de los procesos en este campo con el enorme número de fotones que estos láseres tienen (del orden de 1020) y así entrar en el umbral de detección de los sistemas experimentales. Propuestas como estudiar la dinámica del vacío o la detección de neutrinos mediante láser, aunque hoy por hoy puedan resultar ciencia ficción, puede que no lo sean en un futuro muy pero que muy cercano. Sin ir más lejos, en diciembre en mi centro, el Centro Láseres Pulsados, tendrá lugar una conferencia para explorar nuevos caminos en Física Atómica y Nuclear utilizando láseres. Por supuesto, ¡estáis todos invitados!

1

En resumen, aunque se puedan clasificar los láseres de muchas formas distintas parece lo más acertado hacerlo en función de su interacción con la materia y no en función de su longitud de onda de emisión.

Finalizo el post como un cuadro resumen y, como siempre, si tenéis alguna duda intentaré resolverla en los comentarios del post. ¡Hasta otra!

2

Electrones zombis

$
0
0

zombi.

(Voz, de or. africano occid.).

  1. com. Persona que se supone muerta y que ha sido reanimada por arte de brujería, con el fin de dominar su voluntad.
  2. adj. Atontado, que se comporta como un autómata.

EleKZ1-1

Aprovechando que este pasado fin de semana fue la fiesta de Halloween (a la que por cierto no puedo dejar de tener simpatías pues tengo muy buenos recuerdos de mi hija disfrutando, recorriendo el pueblo donde vivíamos disfrazada con sus amigas y otros niños) voy a contaros una historia de miedo.

Hace muuuuuchos años en erreteland, el país de la radioterapia, convivían amistosamente dos especies, los fotones y los electrones. Los primeros, más adaptables, más versátiles y más ordenados, eran por estas razones más abundantes y ocupaban prácticamente todos los hábitats. Pero eso no impedía a la especie minoritaria de los electrones aprovechar sus oportunidades y ocupar su limitado y exclusivo nicho biológico donde medraban o al menos resistían el paso del tiempo. Pero un buen día apareció en aquellas tierras un brujo que consiguió, con sus Magias, aqueLarres y heChizos que los fotones pudieran adaptarse incluso a habitar aquellas inhóspitas tierras de los electrones que hasta entonces les habían estado vedadas. Así fueron poco a poco desplazándolos y aquella renovada presión llevó a los electrones a la práctica extinción. Los pocos que sobrevivieron andaban perdidos, arrastrando sus viejas vestimentas, silenciosos y huidizos, evitando el contacto con todos los habitantes de ese mundo y con el paso de los años el imaginario popular terminó creando la leyenda de que aquellas apariciones no eran sino fantasmas que se negaban a abandonar este mundo. Y llegó el día en que ellos mismos terminaron creyéndose tan solo fantasmas.

Pero lo cierto es que hoy, nuevos brujos pretenden, con similares artes, convertir aquellos fantasmas, que no eran tales, en algo parecido a un ejército zombi dispuesto a recuperar aquellas tierras que pertenecieron a sus ancestros o, incluso, parte de aquellas otras tradicionalmente ocupadas por fotones. Y en esas andamos.

Bueno, no sé si quedó bien como historia de terror. Tiene, a mi gusto, el toque de esas historias cortas que gustábamos contar alrededor de una hoguera o una cuerva, en las noches de verano de nuestra mocedad. Valga al menos de homenaje a aquellos buenos ratos y a aquellos amigos.

Pero lo cierto es que contada en términos técnicos, no mágicos, la historia podría dar un poco de miedo, o al menos un ligero repelús. Concretaré, sin extenderme demasiado, pues quiero mejor dejar el asunto para debatirlo a través de comentarios con todos los que os animéis.

EleKZ3

Los haces de electrones han sido herramienta tradicional de la radioterapia. En muchos libros de texto de la especialidad, incluso los más recientes, se refiere que en torno al 20% de las fracciones de tratamiento administradas lo son de haces de electrones. Pero cualquiera que se dedique a esto sabe que esa cifra no es sino un recuerdo de un tiempo pasado y que, hoy día y desde hace ya muchos años, los electrones no suponen en término medio más de un 5% y en muchos servicios de radioterapia su uso estaría mejor definido con el término esporádico, al menos en nuestro entorno geográfico inmediato. Si preguntas a alguien la razón cada cual cargará las tintas en uno u otro detalle indeseable, pero para mi la respuesta cabe en una sola palabra: dispersión. Los electrones, como partículas cargadas, interaccionan mucho con los medios materiales mediante un gran número de interacciones. Sin entrar en detalles podemos decir que en cada una de estas interacciones el electrón pierde una pequeña, pero no despreciable, parte de su energía y cambia su dirección de movimiento (dado que su masa es pequeña en cada colisión puede salir “rebotado” en diferentes direcciones). El resultado de todo ello es que el haz de electrones, que inicialmente se encontraba formado por electrones que viajaban juntos, a igual velocidad y con la misma dirección de movimiento, comienza, al interaccionar con un medio (incluido el aire), a transformarse en un haz bien diferente, en el que cada electrón tendrá una energía diferente y una dirección de movimiento diferente. Eso es lo que llamamos dispersión del haz. Puedes imaginar, si ya es complicado hacer cálculos de dosis en un paciente con un haz en el que el orden inicial se respeta en buen grado (como ocurre con los fotones) lo complicado que será gestionar el transporte de dosis con estos “puñeteros electrones” moviéndose en casi cualquier dirección y con un espectro de energías tan cambiante. Ese comportamiento hace que la dosis depositada por los haces de electrones tenga una fuerte dependencia con los dispositivos de colimación y con las particularidades anatómicas del paciente irradiado. Además, dificulta su transporte hasta el paciente, pues el aire que encuentran en su camino es suficiente para desviarlos de su trayectoria, por lo que se hace necesario el uso de complejos sistemas de colimación, poco prácticos y versátiles, que llamamos aplicadores.

El asunto del cálculo de la dosis depositada en los medios heterogéneos, como es la anatomía humana, fue un importante impedimento para el uso generalizado de los haces de electrones pues los modelos de cálculo convencionales, semiempíricos y basados en el uso de tablas, funcionan mal. Pero en el año 1984 Hogstrom y sus colaboradores propusieron el algoritmo de haz pincel. El algoritmo resuelve la problemática de ese “caos” introducido por la dispersión haciendo uso de ciertas propiedades estadísticas que esa dispersión tiene y que eran conocidas desde hacía muchos años, aunque no habían sido aplicadas hasta entonces y no lo fueron aun por unos años, pues para ello había que disponer en los hospitales de ordenadores capaces de realizar los cálculos necesarios. Pero aquel algoritmo y sus posteriores variantes supusieron, para la terapia con haces de electrones, una revolución… fallida. A pesar de que esos nuevos métodos de cálculo rebajaban las incertidumbres de esos tratamientos a valores compatibles con los existentes en el caso de fotones, esto no se tradujo en un mayor ni mejor uso. Incluso hoy, que disponemos de planificadores basados en simulación Monte Carlo, que reproducen con total fidelidad la distribución de dosis en el paciente, el uso de estos haces no hace sino reducirse cada día más.

Y es que las dificultades de tipo práctico relacionadas con la conformación del haz o su adaptación a las particularidades anatómicas apenas han sido solventadas en todos estos años, y solo en ciertas prácticas muy particulares, donde es posible resolver estas dificultades razonablemente (radioterapia intraoperatoria) o en las que su relevancia en la calidad del tratamiento no es tan crítica (irradiación total de piel), su uso ha vivido un auge reciente o al menos se ha continuado sin apenas merma.

El brujo Hogstrom, y otros, siguen empeñados en despertar a ese ejército de zombis. Han ideado nuevas magias, por ejemplo un colimador multilámina controlado por ordenador similar al MLC de la terapia con fotones, y otros hechizos con los que recuperar las tierras de los antepasados. Y ahí siguen, cantando sus canciones ancestrales, pero con nuevos instrumentos, saltando y danzando alrededor de sus hogueras, esperando que sus hechizos den a esos electrones una vida nueva para, esta vez sí, dominar su dispersa voluntad en nuestro propio beneficio. Esperemos que se trate de zombis realmente terribles, capaces de hacer cuanto se les ordene, zombis ágiles, astutos, como los de Walking Dead, guerra mundial Z o Yo soy leyenda, y no de esos zombis que marchan con los brazos estirados, incapaces de lograr el menos exigente de los objetivos, lentos, torpes, patéticos zombis de serie B.

CODA TÉCNICA:

Entre los hechizos utilizados en estos vudús podemos destacar:
  • planificación Monte Carlo que reproduce con gran realismo las distribuciones de dosis en situaciones clínicas
  • el uso de cabezales de acelerador sellados y al vacío (o llenados con helio) para reducir la dispersión del haz en su camino hasta el paciente
  • el uso de globos de helio para interponerlos entre el cabezal y el paciente para reducir la dispersión fuera del cabezal
  • el uso de MLC diseñados específicamente para uso de electrones, que se sitúan en proximidad a la superficie del paciente
  • modulación de energía que permite seleccionar la composición más adecuada de energías para realizar un tratamiento dado, sin la limitación de un número discreto de selecciones (la combinación de MLC y modulación de energía permitiría realizar una modulación de intensidad tridimensional, seleccionando para cada región del haz de tratamiento la energía e intensidad óptimas para lograr el objetivo terapéutico)
  • sustituir el MLC por un haz barrido que permitiera una modulación dinámica, más rápida y versátil, si bien este es un objetivo que está lejos con la tecnología actual.

Agradecimiento: A Carlos Pino por “poner cara” con sus ilustraciones a estos electrones zombis

Referencias:

http://medicalphysicsweb.org/cws/article/opinion/53380

http://iopscience.iop.org/0031-9155/51/13/R25

http://amos3.aapm.org/abstracts/pdf/68-19700-237350-85416.pdf

http://www.jacmp.org/index.php/jacmp/article/download/4506/pdf_19

¿Por qué el Día de la Física Médica es el 7 de noviembre ?

$
0
0

El pasado viernes 7 de noviembre se celebró el 2º día Internacional de la Física Médica.

¿Por qué el 7 de noviembre?

Porque ese día, en el año 1867, nació en Polonia Marie Skłodowska, conocida por todos como Marie Curie, una científica mundialmente reconocida por su investigación pionera sobre radiactividad. Descubrió dos elementos radiactivos, el polonio y el radio, el segundo de los cuales fue utilizado como fuente radiactiva para el tratamiento del cáncer durante todo el siglo XX. Fue la primera persona en ganar dos premios Nobel y sus investigaciones permitieron avanzar en una nueva rama de la física, la física nuclear, que se inauguró con el descubrimiento de la radiactividad.

Sin embargo, considero que el cumpleaños de Marie Curie no es el día más apropiado para conmemorar la Física Médica. Probablemente se podrán añadir razones para esgrimir que sí, lo cual me imaginó que se hizo en la IOMP (Internacional Organization of Medical Physics) cuando el año pasado se decidió establecer el Día Internacional de la Física Médica. Sin embargo a mí se me ocurren dos argumentos lo suficientemente sólidos como para que esté justificado elegir otro día diferente.

  • Si preguntáramos a los físicos médicos cuál ha sido el germen a partir del cual se ha desarrollado lo que hoy conocemos como Física Médica, apostaría a que casi el cien por cien diría que el descubrimiento de los rayos X por Wilhelm Roentgen. Este físico alemán produjo en su laboratorio el día 8 de noviembre de 1895 radiación electromagnética de longitudes de onda correspondientes a los que bautizó como rayos X y el 22 de diciembre de ese mismo año inmortalizó la mano de su esposa realizándole la primera radiografía de la historia.

Algún porcentaje pequeño de físicos también se acordaría de Becquerel, nacido el 15 de diciembre de 1852, quien poco después, en febrero de 1896, descubrió la radiactividad. Este descubrimiento también es de suma importancia en el posterior desarrollo de la física médica, ya que los isótopos radiactivos se utilizan desde entonces para fines médicos, diagnósticos y terapéuticos.

Dudo que alguno pensara en primera instancia en Marie Curie, aunque es verdad que sus investigaciones tuvieron gran relevancia en el desarrollo y en la sistematización de las aplicaciones médicas de la radiactividad y de los rayos X.

  • Históricamente las mujeres no han tenido el mismo acceso a la educación y por tanto tampoco a la Ciencia que los hombres y hoy en día todavía existen “discriminaciones” y “sesgos” de género que estamos arrastrando. Y, aunque algunas nos resistamos a creerlo, parece que esta herencia tiene aún un gran impacto en muchos ámbitos profesionales y en particular en el de la Ciencia.

Marie Curie es desde siempre el icono con mayúsculas de mujer científica. Todos la conocemos por ser una gran investigadora, con dos premios Nobel a sus espaldas, valiente luchadora, trabajadora infatigable, adelantada a su tiempo y fiel a sus ideas. Marie Curie es la científica más popular y conocida por el público seguida muy muy, pero que muy por detrás por… todas las demás, que no han sido pocas y cuyas contribuciones son de gran relevancia en prácticamente todos los ámbitos de la Ciencia. Basta con echar un vistazo al blog de Mujeres con Ciencia, que me ha abierto los ojos y me está permitiendo descubrir a tantas otras mujeres inteligentes, creativas, innovadoras y grandes científicas que, a pesar de las dificultades, han realizado o están realizando una labor investigadora admirable. Muchas con una actividad científica, con teorías y descubrimientos más geniales y rompedores si cabe que los de la propia Marie Curie.

En la Física, y en particular en el campo de la Física Médica, Marie Curie tuvo un papel fundamental. Nadie lo pone en duda. Pero también otras científicas como Edith Quimby, Edith Stoney, Harriet Brooks, Lise Meitner y otras muchas que han dedicado gran parte o incluso toda su carrera profesional al desarrollo de la Física Médica.

Sin embargo la figura de Marie Curie es tan grande que las eclipsa a todas ellas, sin excepción.

Por eso habría sido bonito, si se quería apostar por una figura femenina para conmemorar el día de la Física Médica, el haber elegido como fecha el día de nacimiento de cualquiera de ellas. De esa forma, se habría hecho patente que además de Marie Curie, a la que todos conocemos y admiramos por tantas cosas, existían también en su época otras científicas que, como ella, se atrevieron a ir contracorriente y a contribuir al desarrollo de la Ciencia, en particular al de la Física Médica.

Sé que ya es tarde y que además los responsables de la IOMP no van a leer este texto, pero (dado que el 8 de noviembre ya se celebra el Día Internacional de la Radiología en reconocimiento al descubrimiento de los rayos X por Wilhelm Roentgen) una perfecta candidata habría sido Edith Quimby, radiofísica americana nacida el 10 de julio de 1891. Prácticamente toda su carrera científica estuvo vinculada a la Física Médica y realizó muchísimas aportaciones al desarrollo de la disciplina. Merece la pena leer su biografía para descubrir que hay mucha ciencia y de la buena más allá de Marie Curie.

Y es que empieza a ser hora de que busquemos otros iconos femeninos que sirvan de referentes para las nuevas generaciones de niñas y jóvenes que tanto tienen que aportar a la Ciencia.

El día de un radiofísico dedicado a la radioterapia

$
0
0

Este 7 de noviembre de 2014, Día internacional de la Física Médica por la conmemoración del aniversario del nacimiento de Maria Skłodowska-Curie, no pudimos organizar un programa tan atractivo como el del año pasado, ya reseñado en Desayuno con fotones. Esto no quiere decir que no tengamos ganas de seguir contando lo que hacemos; por eso me he decidido a relatar brevemente qué hice ese día, que viene a ser el día normal de un radiofísico que trabaja en radioterapia.

Dediqué la mayor parte de la jornada a revisar planificaciones de dosimetría clínica. En realidad es muy común comenzar la mañana supervisando los resultados del control de calidad diario de los aceleradores lineales de radioterapia. Todos los días los técnicos superiores en radioterapia y dosimetría, encargados de administrar los tratamientos a los pacientes, realizan una serie de pruebas para verificar los dispositivos de seguridad, ciertas características geométricas, y la dosis absorbida impartida y su distribución en los aceleradores. Los radiofísicos somos responsables de llevar a cabo dicho programa y de reportar puntualmente sus resultados; sin embargo, ese día uno de mis colegas realizó la labor.

El primer ejemplo que quisiera compartir consistió en una planificación para tratar un adenocarcinoma de recto. La prescripción del oncólogo radioterápico fue administrar una dosis absorbida de 50,4 Gy en 28 fracciones de 1,8 Gy por sesión; y nuestra residente de primer año planteó esta dosimetría clínica basada en dos haces laterales y uno posterior, que protege la vejiga con esmero, según las restricciones indicadas por el médico.

image000

 Otro caso fue una planificación de un tratamiento de 56 Gy en fracciones de 2 Gy de un adenocarcinoma de próstata con una sobreimpresión, o irradiación adicional de un volumen más reducido con una dosis absorbida mayor, de 20 Gy también en fracciones de 2 Gy. La técnica precisa 7 haces distribuidos de forma que se protejan convenientemente el recto y la vejiga a la vez que se tienen en cuenta las cabezas de los fémures.

image011

 Habitualmente también son los técnicos superiores en radioterapia y dosimetría —en concreto los adscritos a los servicios de Radiofísica— los que realizan estas planificaciones, pues son parte de sus competencias. Corresponde al radiofísico la dirección de estas dosimetrías clínicas y somos legalmente responsables de esta tarea, por lo que las revisamos todas, y en ocasiones proponemos algunas mejoras. En este sentido, el diálogo con un técnico especializado y bien formado en dosimetría es muy fructífero y pretende obtener siempre la mejor técnica de tratamiento para el paciente. Como es el caso de nuestro siguiente ejemplo, sobre el que el técnico y yo estuvimos acordando la mejor opción. Se trata de un tratamiento de mama de 50 Gy con una sobreimpresión de 10 Gy, ambas fraccionadas en 2 Gy diarios. En estas planificaciones uno de los objetivos es irradiar lo mínimo posible el pulmón, como se puede apreciar en la imagen.

image022

 Y enfrascado como estaba en estas labores, me sorprendió gratamente la visita de la dirección del centro. El jefe de Radiofísica había publicitado la importancia de la jornada; y el Gerente, el Director Médico y el Director de Enfermería decidieron bajar a felicitarnos y seguir enterados de nuestras actividades. Lo celebramos con una fotografía en el tomógrafo computarizado (TC) de simulación, la máquina que adquiere las imágenes anatómicas de los pacientes sobre las que se trabaja y que estoy mostrando.

image03

 Acabamos el día con unas reuniones importantes. En primer lugar vino el técnico de mantenimiento de los aceleradores a informarnos de las características que introducirá una actualización de la red informática que permite el tráfico de las imágenes y de los datos necesarios para los tratamientos. Los servicios de Radioterapia y de Radiofísica cuentan con un gran número de equipos sofisticados que precisan comunicarse para compartir datos: el TC de simulación, los ordenadores de planificación de los tratamientos, los aceleradores lineales, etc. Cualquier intervención en la red que los vincula debe estudiarse adecuadamente para que no se dé ninguna incompatibilidad o corte en la transmisión que pudiera retrasar los tratamientos.

Tras ello, nuestra colega benjamina nos presentó en una sesión, el exhaustivo trabajo que ha efectuado con el objeto de que los tratamientos que llamamos de intensidad modulada, técnicamente los más complejos, puedan verificarse antes del tratamiento de forma más eficiente; es decir, con un equipamiento, recientemente comercializado, más capaz y más rápido. Después de la charla la animamos a comunicar los frutos de su tarea, con lo que al final de nuestra jornada la sesión derivó hacia un diálogo sobre las oportunidades de difusión de las tareas de investigación que estamos realizando; ya que los profesionales sanitarios, cuando el cumplimiento de nuestras labores asistenciales así nos lo permite, también tenemos reconocida dicha actividad investigadora.

Ya fuera del trabajo, al final del día, un repaso a la difusión de nuestras actividades me permitió comprobar que poco a poco nos vamos despojando de nuestra timidez. También algunos organismos están contribuyendo a que se den a conocer nuestras actividades. Por ejemplo nuestro hospital contribuyó con una nota de prensa para informar a los castellonenses sobre todo del número de tratamientos oncológicos en los que participamos, la Organización Mundial de la Salud emitió una felicitación, y la Organización Canadiense de Físicos Médicos organizó un concurso de vídeos promocionales a través de las redes sociales —lástima no haberme enterado antes—.

De modo que toca seguir celebrando este día; aunque quién sabe si en el futuro nos cogemos alguno más porque no falta ni la ilusión ni los días que conmemorar.

No te puedes perder “Interstellar”

$
0
0

5

Si te gusta la ciencia ficción debes ya haber visto la obra maestra de Christopher Nolan, “Interstellar”,  estrenada el pasado 7 de noviembre. En este post apuntaré los puntos fuertes de la película, así como los fallos que tiene, incluidos los relativos a la radioprotección, por supuesto, ya que éste es un blog de física médica.

Es complicado hacer una crítica científica a la película sin spoilearla a muerte, así que llegado el momento justo, avisaré para que quien no la haya visto y quiera llegar virgen al cine -jejejejeje- pueda dejar de leer.

Vistazo general

En un futuro distópico, la humanidad se ve obligada a levantar los ojos al cielo para buscar un nuevo hogar. Una señal se detecta cerca de Saturno, hay que arriesgarse y mudarnos a otro planeta. Probablemente es la mejor película de Sci-Fi desde “2001: una odisea en el espacio”. Christopher Nolan, que ha confesado en repetidas ocasiones su admiración por Stanley Kubrick, ha creado una auténtica obra maestra de ficción espacial vestida de ciencia: agujeros de gusano, agujeros negros, viajes temporales y la quinta dimensión. Hay algo que recuerda a Asimov, a Phillip K. Dick o incluso a Verne en toda la trama de “Interstellar”. Todo un culto geek. Descarnada. 169 minutos.
La película está grabada en los 70 mm con los que trabaja IMAX en lugar de los 35 mm convencionales. Así que olvida el 3D, la mejor manera de ver “Interstellar” es en 70 mm.

Crítica científica (¡¡ Atención spoiler !!)

A estas alturas me he encontrado que hay ríos de Mb de posts que analizan esto mismo. Así que sin ánimo de pretender hacer un copy & paste, cito tres que me han sido de gran utilidad, dos de Naukas, el de Francis Villatoro y el de Arturo Quirantes, y el de elconfidencial.com.

El gráfico elaborado por el diseñador Dogan Can Gundoglu, es perfecto para entender toda la trama temporal, aunque hay algún error, como que el agujero negro que se indica al comienzo es en realidad un agujero de gusano y que Gargantúa, aunque no lo indica, es el agujero negro.

9

Diagrama temporal de “Interstellar”. Fuente: Dogan Can Gundoglu.

Este otro gráfico, publicado en Reddit, aunque es bastante más complejo y no tan claro, añade más información (dale zoom a tope para leer los detalles).

Diagrama temporal de “Interstellar”. Fuente: sto-ifics42.

Diagrama temporal de “Interstellar”. Fuente: sto-ifics42.

El rigor científico de “Interstellar” recae en el trabajo del físico teórico Kip Thorne, asociado con la productora Lynda Obst, que ya habían colaborado en la también muy solemne “Contact”, basada en la obra del famosísimo divulgador científico Carl Sagan (de hecho, fue el propio Sagan el que presentó a Thorne y Obst según dicen… en una cita a ciegas).

Kip Thorne. Fuente: interstellar-movie.com.

Kip Thorne. Fuente: interstellar-movie.com.

El grueso de la labor de Kip Thorne en “Interstellar” se centró en traducir a imágenes comprensibles (y atractivas, dentro de lo posible) los agujeros de gusano y los agujeros negros, dos elementos básicos en el viaje espacial que emprenden los protagonistas. Para mostrarlos definió las ecuaciones que permitirían seguir los rayos de luz según rodean a un agujero negro o entran en un agujero de gusano. Por tanto, lo que aparece en la película está basado en la Teoría de la Relatividad de Einstein. Esas ecuaciones dieron como fruto la programación de un software de CGI completamente nuevo que podía interpretar los complejos cálculos de Thorne acerca del comportamiento de la luz. El resultado: algunos planos tardaban más de cien horas en ser renderizados.

Puntos fuertes de la película

1. La visualización del agujero negro. El agujero negro llamado Gargantúa es el centro del sistema en el que se encuentran tres planetas en los que podría haber vida. Aunque no se sabe exactamente qué aspecto tiene un agujero negro, la representación de la pelicula tiene en cuenta un aspecto fundamental, que son las distorsiones del espacio tiempo que causa en la luz un agujero negro. En la mayoría de las representaciones de este fenómeno las simplifican con un disco de gas brillante en torno a una bola negra. Se obvia el hecho de que la luz no pasa de no poder salir del agujero a comportarse normalmente, sino que es desviada por la gravedad y crea efectos visuales curiosos.

Gargantúa, el agujero negro de 100 millones de veces la masa del Sol.

Gargantúa, el agujero negro de 100 millones de veces la masa del Sol.

2. La forma del agujero de gusano. El resultado, tras todos los cálculos de Thorne, es estéticamente brillante: una especie de agujero (¡esfera!) de cristal que refleja (¡y se traga!) todo el universo.

Agujero de gusano, cerca de Saturno, con la Endurance aproximándose.

Agujero de gusano, cerca de Saturno, con la Endurance aproximándose.

3. Las distorsiones temporales. El primero de los planetas (planeta de Miller) que los protagonistas visitan en la búsqueda de un sustituto para la Tierra sufre de una intensa dilatación temporal: el tiempo pasa allí a otra velocidad, de forma que una hora en su superficie es como siete años aquí, en la Tierra. La dilatación del tiempo es un fenómeno relativista conocido, y no sólo tiene lugar a velocidades cercanas a la de la luz sino también en campos gravitatorios extremos.

4. Los viajes a través del espacio. Hay varios aspectos de las travesías espaciales que realizan los protagonistas que han dejado satisfechos a muchos expertos y aficionados a la astrofísica.

Por un lado, el silencio. Como decía el claim de Alien, “en el espacio nadie te oye gritar”. El sonido no se propaga en el espacio, como se han hartado de repetir muchos tras años de explosiones, disparos y naves zumbando de un lado a otro. En “Interstellar”, no hay nada de todo esto.

Por otro, los cálculos de las distancias son razonables (18 meses para llegar a Marte y dos años más hasta Saturno) y similares a los empleados por las sondas Voyager. También es acertado el uso de Marte para usar su tirón gravitatorio y ayudarse en el trayecto.

Nave Endurance. Fuente: interstellar-movie.com.

Nave Endurance. Fuente: interstellar-movie.com.

Y por último, la forma de la estación espacial Endurance, redonda, y el hecho de que gire para generar una gravedad artificial que permita a los viajeros cierta sensación de normalidad. La exploración del espacio sideral que propone “Interstellar” está, en todo momento, basado en lo que sabemos (más o menos), aunque el guiño a “2001, una Odisea en el Espacio” es muy explícito.

5. Los “datos cuánticos”. La búsqueda de un planeta habitable es sólo uno de los dos planes para salvar a la humanidad. El otro depende de los científicos en la Tierra, que deben resolver “las ecuaciones” y para ello necesitan recopilar una serie de “datos cuánticos” observables sólo desde dentro del agujero negro. Aunque resulta inverosímil que un equipo de físicos teóricos esté sólo compuesto por dos personas, y no haya ninguna referencia a los archimencionadísimos equipos multidisciplinares, es difícil evaluar este punto. Sabemos que la Teoría de la Relatividad y la Mecánica Cuántica funcionan muy bien por separado, pero no hay forma de enlazarlas. Hoy en día no hay una Teoría Unificada , pero si la hubiese en un futuro, tal vez algún físico experimental encontrase la forma de generar un agujero negro (que ya es posible en el CERN, pero se evaporan muy rápido) y poder medir “algo” in situ que contraste la teoría.

6. La estación espacial Cooper. Al final de la película el prota aparece en una estación espacial bautizada con su apellido. Se trata de un cilindro de O’Neill, una nave teórica que se planteó por primera en los ’70 por el físico de universidad de Priceton, Gerard K. O’Neill. En dicha estación se recrea gravedad artificial, atmósfera, cultivos agrícolas y un ecosistema. Aunque sale poco, apenas dos planos cortos en perspectiva del interior , se puede decir que han seguido las directrices teóricas actuales.

Puntos débiles de la película

1. Los efectos del agujero negro. El principal fallo de la película es pensar que un planeta que está tan cerca del agujero negro pueda ser habitable. A esa distancia, debería encontrarse cerca del disco de acreción, el anillo de materia que gira alrededor del agujero y lo alimenta de materia. Incluso si girase en una órbita inclinada, atravesaría ese disco dos veces en cada órbita, con lo que sería bombardeado por esa materia moviéndose a altísimas velocidades.

Gangantua, el agujero negro icono de la película. Fuente: interstellar-movie.com.

Gangantúa, el agujero negro icono de la película. Fuente: interstellar-movie.com.

Además, a esa distancia estaría dentro del alcance de enormes cantidades de radiación X y radiación gamma, lo que lo harían un mal candidato para acoger vida. Por no hablar de que las fuerzas de marea forzarían al planeta a presentar siempre la misma cara al agujero negro, igual que ocurre con la Luna respecto a la Tierra. De forma que en una mitad sería noche perpetua y en la otra, un día eterno. Ambos lados del planeta estarían sometidos a distintos grados de atracción gravitatoria, y si la diferencia es demasiado grande, éste podría incluso destruirse.

2. Incoherencias astrofísicas. Con el fin de generar espectacularidad o por descuidos, hay más detalles de la película que le chirrían a un espectador crítico. Por ejemplo, las descomunales olas del primer planeta, cuando el océano sobre el que aterrizan apenas tiene dos palmos de profundidad. ¿De dónde sale todo ese agua? Y además, si las nubes se congelan y solidifican, ¿por qué siguen sosteniéndose en el aire?

Por otra parte, si los planetas visitados tienen el agujero negro Gargantúa como centro de su sistema y no una estrella, ¿de dónde sale la luz y el calor que los baña? No estoy seguro si se explica, pero tal vez cada uno de los esos planetas orbita alrededor de una estrella, los cuales también giran alrededor de Gargantúa.

Cooper y el robot Tars sobre el planeta de Mann. Fuente: interstellar-movie.com.

Cooper y el robot Tars sobre el planeta de Mann. Fuente: interstellar-movie.com.

3. Escapar del campo gravitatorio. Las pequeñas naves Ranger plantean dudas, pues tienen la potencia para escapar del campo gravitacional de los planetas, pero, ¿dónde llevan la enorme cantidad de combustible necesario para alcanzar esa potencia? ¿O es que cuentan con una fuente de energía más eficaz? Si es así, ¿por qué el despegue desde tierra se hace con la propulsión de lo que parece un cohete o un transbordador como los actuales?. Tal vez por ahorro de combustible, pero eso no queda claro en la película.

Pequeña nave Ranger en el planeta de Miller. Fuente: interstellar-movie.com.

Pequeña nave Ranger en el planeta de Miller. Fuente: interstellar-movie.com.

4. Asomándose al horizonte. Hay un momento en el que uno de los protagonistas no se asoma, sino que cruza el horizonte de sucesos y se adentra en el agujero negro. Esto no puede considerarse propiamente un error, sino más bien una licencia que sirve únicamente al propósito de la historia y que no tiene ninguna base real, puesto que sería imposible de cualquier manera sobrevivir. No obstante, ¿cómo explicar qué es un ser de 5 dimensiones? ¿Cómo ilustrar la interacción de la gravedad con nuestro conocido espacio-tiempo? Pues así, asomándose al horizonte.

5. Radioprotección. Como en todas las películas de ciencia ficción, se obvia el hecho de que el cosmos está invadido por la radiación, la cual podría ser letal para la vida. Por ejemplo, ya sólo el viaje desde la Tierra a Saturno sería inviable, pero este hecho se podría salvar en la película. Los astronautas de “Interstellar” tienen la posibilidad de hibernar mientras van en la nave, de tal modo que su cuerpo queda “congelado”, pudiendo retomar su curso de vida normal una vez “despertados”. Para tal fin se introducen en una especie de sarcófago, el cual podría estar blindado adecuadamente. Bueno, hasta ahí, vale. Pero cuando se encuentran en las proximidades de Gargantua, ahí no hay bicho viviente que sobreviva, a no ser que supieras moverte entre 5 dimensiones ☺.

En definitiva, “Interstellar” tiene sus claroscuros desde el punto de vista científico, algo de esperar puesto que al fin y al cabo es una obra de ficción. El propio Nolan ha salido al paso, defendiéndose de las críticas en este sentido: “Una buena parte es, por supuesto, especulación”, admite. “Sé dónde engañamos, de la forma que tienes que engañar en el cine, y me encargué de que Kip (Thorne) estuviera al tanto”.

Nota: Para los amantes de la bandas sonoras (¡me encanta la de la película!), recordad, Hans Zimmer es otro colaborador habitual de Nolan. Suyas son las bandas sonoras de las tres películas de “Batman” y de “Inception”. La banda sonora completa estará a la venta ya mañana 18 de noviembre y puede adquirirse en precompra en iTunes.


El radiofísico hospitalario y el rayo que no cesa

$
0
0

Ya, ya llego… son las 7:10 de la mañana y abro el servicio como casi todos los días, menos cuando se me adelanta una de las cuatro técnicos de nuestros servicio (son todo mujeres), también “expertas” en Protección Radiológica. Tenemos tres técnicos en Radioterapia y una en Imagen para el Diagnóstico. Claro, ahora con la crisis y con los ajustes nos hacen cumplir a rajatabla el horario de 37,5 horas semanales. Menos mal que nos han dado flexibilidad. Yo elegí de 7:00 a 14:30. Otros compañeros lo hacen de 7:30 a 15:00 y otros de 8:00 a 15:00 haciendo las 2:30 horas restantes en una tarde de la semana, o bien los sábados, si se encargan de la radioterapia. En el servicio, además, estamos una secretaria, siete “radiofísicos hospitalarios” y tres residentes.

Ahora ya no somos solo físicos. Nos han puesto el prefijo “radio” que viene de radiación o radiactividad y esto no quiere decirque seamos físicos radiactivos, sino que nos dedicamos a controlar los usos de la radiación y de la radiactividad. También nos han colocado el adjetivo “hospitalarios” para definir nuestro “radio” de actuación (ámbitos hospitalarios y sanitarios) y no para indicar que somos una orden religiosa de las que tenían por objeto admitir y cuidar a los viajeros, peregrinos, pobres y enfermos. No somos ni monjes ni guerreros aunque indirectamente cuidamos de la salud de los enfermos, protegemos de la radiación a los pacientes, a los trabajadores y al público en general, acompañamos y asesoramos a médicos, enfermeros, técnicos, etc. cuando usan radiaciones ionizantes y, por qué no decirlo, también damos mucha guerra… Unos más que otros, en nuestro gremio hay de todo, como en botica. Bueno, por lo menos no nos pasará como a Ernest Rutherford que cuando le entregaron el premio Nobel de Química en 1908 dijo: “¡Y yo que me creía físico!”.

Hoy viernes me toca ir a Medicina Nuclear, encender las gammacámaras, hacerles el “Gantry Reset” y pedir las fuentes de Tc-99m necesarias para las pruebas de control de calidad que tocan. Hoy verificamos el centro de rotación y la resolución energética. Cada viernes, a primera hora, hacemos varias pruebas hasta completar las pruebas mensuales y semestrales de obligado cumplimiento. Aprovechamos la misma fuente para las dos gammacámaras. Antes teníamos tres gammacámaras pero un buen día se estropeó la más antigua y no hubo dinero para cambiarla. En realidad llegamos a hacer los cálculos de blindajes necesarios para instalar un PET. Pero claro, iluso de mí, si no había pasta para sustituir la gammacámara para qué soñar con tener un PET… Resultado final: ¡¡¡Sanidad pública de Aragón sin PET!!!

Mis amigos de Radiofarmacia ya me esperan… Saben que los viernes los visito y comentamos lo contentos que estamos porque es viernes… también hablamos del sueño que tenemos, ellos llegan mucho antes que yo. Mira si llegan pronto que aún no les han puesto las calles…

Ya tengo mi fuente y la preparo para la primera prueba, pero aún no ha llegado la residente. Vaya… ¡divina juventud! Bueno… le mando un WhastApp… Me contesta que ya está llegando… Bien, ¡ya llegó la bella durmiente! Hoy no le puedo decir aquello de “a buenas horas, mangas verdes”. ¡Pues hala, al tajo! Le dejo que realice las pruebas y que las analice. Es la mejor forma de que aprendan… Primero lo estudian, luego se lo explicamos, resolvemos dudas, hacemos las pruebas con ellos y finalmente les dejamos que las hagan solos… Ha habido suerte, todo está dentro de tolerancias. Me encanta que los planes salgan bien… El mes anterior el centro de rotación de una de ellas estaba en el límite de tolerancias y los técnicos de la casa de mantenimiento, tras ser avisados por el jefe de Medicina Nuclear, lo ajustaron una semana después del aviso.

MNLos técnicos de Medicina Nuclear y los médicos van llegando y sentimos la presión para ir acabando, ya que tienen pacientes a punto de caramelo y aún tienen que hacer sus controles diarios. Nos preguntan por la resolución energética porque la semana anterior, tras avisarnos de que la uniformidad semanal no salía bien, verificamos (en la hora de su café) que la resolución energética estaba también en el límite de tolerancias. También pasaron aviso a la casa de mantenimiento para ajustar los picos de energía. Bueno, parece que todo está en su sitio.

La semana anterior hicimos la sensibilidad, el tamaño de píxel y la resolución espacial. Y la que viene haremos la uniformidad tomográfica, lo que llamamos “botellón”… Sí, sí “botellón”… Tenemos que usar una botella de 5 litros de esas de agua del súper, le ponemos 15 milicurios de Tc-99m, bailamos la samba con ella (la removemos para que se distribuya uniformemente), le hacemos un SPECT/CT y luego analizamos en las imágenes reconstruidas la uniformidad, etc. Aquí es donde aplicamos una de las famosas frases de Ernest Rutherford: “No tenemos medios; luego, habrá que pensar” y claro, nosotros hemos improvisado con el “botellón”.

Un día, por la tarde, haremos la última prueba que nos queda: la resolución temporal. Es más larga y no tenemos tiempo para hacerla por la mañana. El tiempo de máquina en Medicina Nuclear está muy caro… y más desde que nos quedamos con dos gammacámaras y los mismos pacientes…

Bueno, ahora toca medir la tasa de dosis a un metro de los pacientes de tratamiento metabólico con I-131 que están ingresados. Nuestras técnicos hacen esa labor usando un monitor de radiación ambiental y un palo de 1 metro para fijar la distancia y la geometría de la medida. Al cruzarnos con el celador de Medicina Nuclear oímos la frase siguiente: “¿Qué?… ¿a pastorear fotones?”. ¡Será cachondo! Luego me toca hacer el alta radiológica siguiendo los criterios que establecimos en un documento del Foro sobre Protección Radiológica en el medio Sanitario (SEPR-SEFM-CSN).

Estos pacientes son en sí mismos una fuente de exposición externa, y por otra parte existe riesgo de contaminación radiactiva a través de las secreciones en orina, saliva, sudor, etc. En el documento se proponen criterios para dar el alta radiológica después de un tratamiento con I-131 por enfermedades tiroideas y recomendaciones para la protección de las personas del entorno de estos pacientes y de otras personas del público que puedan verse afectadas.

Bien, ¡altas hechas! Los pacientes se irán a sus casas con ciertas restricciones y recomendaciones para irradiar lo menos posible a sus familiares y conocidos…

Ahora toca centrarse en los RX. El miércoles estuvimos en la aceptación de un mamógrafo digital en Teruel. Sí, sí, amigos, Teruel existe y, a veces, tiene suerte y le cae algún equipo nuevo para sustituir alguno de más de 15 años. Estuvimos dos radiofísicos y una residente (sí, la bella durmiente) con el técnico de la EVAT (Empresa de Venta y Asistencia Técnica). Para aprovechar el viaje, hicimos también el control de calidad de varios equipos de RX y tras las medidas del protocolo de aceptación del técnico de la EVAT pretendíamos hacer nuestras medidas para tomar referencias propias. Las pruebas de aceptación debe realizarlas el suministrador del equipo en presencia de un representante cualificado del comprador. Parece que los más cualificados somos los Radiofísicos Hospitalarios…

mamoEl técnico llegó sobre las 11 de la mañana. No lo conocíamos, era nuestro primer contacto y esto no sé si es bueno o malo o todo lo contrario. En fin, pronto hicimos migas y nos centramos en sus pruebas. Como dice mi jefe: “chino chano”, una a una el técnico fue haciendo las pruebas y nosotros verificando que eran correctas y que cumplían con el protocolo español de control de calidad en radiodiagnóstico. Fundamentalmente contraste-tamaño-detalle, resolución de alto contraste, función respuesta, ruido, rendimiento, filtración, dosis glandular media y ajuste del control automático de exposición. De paso, nos íbamos familiarizando con el equipo, con su software, con su manejo y con sus maniquíes. El objetivo es poder obtener imágenes diagnósticas de la mayor calidad posible y con la mínima dosis para el paciente. A las 14 horas nos fuimos a comer y retomamos la tarea sobre las 16 horas. Acabamos sobre las 18 horas y llegamos a Zaragoza a las 20 horas. Fue un día largo.

Pues bien, ahora mi compañera radiofísica hospitalaria se está dedicando a preparar lo que será nuestro protocolo de control de calidad de ese equipo y a poner en orden los resultados de las pruebas de aceptación. ¡Ahí sí que hay tajo! Va para rato…

Yo me estoy dedicando a preparar la documentación necesaria para declarar ante industria el cambio de equipo (alta de equipo nuevo y baja del viejo). Como se ha modificado un poco la sala también incluimos planos, indicación de los blindajes y certificado de conformidad de la instalación firmado por el jefe de Protección Radiológica según anexo III del RD 1085/2009 por el que se aprueba el reglamento sobre instalación y utilización de aparatos de rayos X con fines de diagnóstico médico. Bueno, aún me falta el certificado de conformidad de la EVAT que espero llegue la semana que viene con el resto de documentación de la aceptación del equipo.

¡Anda! Mi jefe también vuelve el lunes de unas merecidas vacaciones. Los jefes también tienen derecho a vacaciones, pero que se prepare porque le tenemos que poner al día y tendrá que firmar cientos de papeles. Ostras, para colmo el lunes es el día de la oposición de Radiofísica Hospitalaria donde estamos de tribunal casi todos los radiofísicos de Aragón. Ese día sí que va a ser largo, sobre todo para los titulares que tienen que preparar el examen y quedarse hasta las 19 horas.

Ya son las 12 de la mañana pero antes nos hemos tomado un refrigerio en la cafetería del hospital. Vienen dos trabajadores expuestos que empiezan a trabajar con radiaciones ionizantes y hay que darles una charla sobre su uso, sobre la legislación y sobre las cuestiones más específicas de su puesto de trabajo relacionadas con la Protección Radiológica. Vienen con un dosímetro ya que nuestra secretaria ha realizado todas las gestiones necesarias. De momento llevan un rotatorio y el mes que viene tendrán un dosímetro con su nombre. Hablamos de los riesgos de la radiaciones ionizantes, de los otros riesgos y resolvemos las dudas. Les digo eso de que “1 mSv no es nada” y como siempre acabo hablando de lo malo que es el tabaco (riesgo alto asumido por la sociedad)… ¡Como se enteren las tabaqueras! Bueno, aún no he podido convencer a mi mujer para que lo deje… A mi favor diré que donde hay confianza… Le diga lo que le diga no me va a hacer caso.

A las 13 horas me pongo a revisar los controles semanales que realizan nuestras técnicos en las diferentes salas de RX que usan escopia y verifico que la resolución y el contraste de todos ellos están correctos. Me sigue encantando que los planes salgan bien.

contrasteAhora me voy a una reunión con el jefe de Radiodiagnóstico y con la jefa de Gestión para resolver parte del concurso del equipamiento nuevo para un centro de especialidades del que hicimos especificaciones técnicas hace unos meses. Se sacó a concurso público un telemando y tres salas convencionales. Hace 9 meses, en ese centro se pretendía instalar 10 salas nuevas (entre ellas un TC, una resonancia y varios mamógrafos) pero, de nuevo, la crisis les ha cortado las alas y se ha quedado en 3 salas (una de las salas del concurso va a sustituir un equipo RX de urgencias de un hospital que tenía más de 20 años… Aquí se aprovecha todo, como del cerdo que se aprovechan hasta los andares…). A pesar de ello, si esto acaba bien nos podemos dar con un canto en los dientes… También vamos a definir las especificaciones técnicas para un mamógrafo por si suena la flauta y la jefa de gestión consigue convencer a los jefazos de que es más que necesario…

Vaya, son las 14:25 horas y ya me rugen las tripas. Me las piro que me esperan para comer en casa. Hoy como con la familia y le volveré a decir a mi hijo que no deje para luego lo que puede hacer ahora… Y seguro que se lo aplica para la PS4 y para las redes sociales, pero para el estudio será otro cantar…

finalPD: La tía María se ha recuperado totalmente de su enfermedad. Ha pasado un año y medio muy duro pero tras la cirugía, la quimioterapia y la radioterapia está tan lozana como siempre. Por cierto, ella sí ha conseguido convencer al tío Mariano para que deje de fumar. Quizá sea por lo que ha aprendido durante la enfermedad de su mujer, por las charlas que hemos tenido últimamente o simplemente porque le ha entrado miedo y ha decidido que no quiere pasar por lo que ha pasado la tía María. ¡Seguramente será porque la tía María tiene mas poder de convicción que yo!

Gamow y la piedra Rosetta de la vida

$
0
0

Al buscar ADN en Google me han aparecido 60 millones de resultados y 362 si busco DNA (que es lo mismo pero en inglés). Se trata, como casi todo el mundo sabe, del acrónimo del ácido desoxirribonucleico, un componente fundamental para la vida tal y como la conocemos aquí en la Tierra. Aún siendo un físico nuclear teórico siempre me ha fascinado la cuestión de “la vida” y, más que nada, su funcionamiento y la posibilidad de explicarlo mediante las leyes físicas fundamentales. Pero no, en eso no soy ningún “pionero” y muchos y muy destacados físicos volvieron la vista hacia la biología después de haberse granjeado merecida fama como tales. Así podemos mencionar a Schrödinger (1887-1961), uno de los padres de la Mecánica Cuántica, premio Nobel de física en 1933 y que en 1944 publicó un libro titulado “¿Qué es la vida? El aspecto físico de la célula viva”, obra que con el paso del tiempo tuvo incidencia en el propio descubrimiento del ADN. O a Feynman (1918-1988), premio Nobel de física en 1965 por sus trabajos en electrodinámica cuántica, que dedicó algún tiempo a tratar de investigar en bioquímica, si bien no tuvo mucho éxito. O a Delbrück (1906-1981), que había trabajado con Lise Meitner en Berlín cuando ella colaboraba con Hans y Strassmann en el momento en que descubrieron la fisión nuclear, que emigró a Estados Unidos, donde se dedicó a la biología molecular y al que sus trabajos sobre la estructura genética de los virus le valieron el premio Nobel de Fisiología en 1969.

Pues bien, volviendo con el ADN debo confesar que siempre me había llamado la atención. A pesar de haber leído al respecto de su funcionamiento muchas veces, nunca había sido capaz de captar los detalles del mismo. Recientemente, y por razones que no vienen al caso, me he visto obligado a entenderlos, al menos grosso modo, y, aprovechando que mi cuñada, bióloga, estaba de vacaciones en Granada, creo haber podido aprehender los aspectos básicos de la cuestión. Me consta que muchos de los que podáis leer este post conocéis mucho mejor que yo el tema por lo que, desde ya, os pido disculpas por los dislates de mayor o menor envergadura que pueda decir en lo que sigue. Y vaya por delante mi agradecimiento a mi cuñada Mercedes por su paciencia con mi torpeza e ignorancia “biológicas”.

El ADN es un ácido nucleico. Este tipo de ácidos, junto con los carbohidratos y las proteínas constituyen los tres tipos de macromoléculas esenciales para todas las formas de vida conocidas. El ADN es una molécula que contiene, de forma convenientemente codificada, todas las instrucciones necesarias para el desarrollo y funcionamiento de todos los organismos vivos conocidos y de muchos virus. Su forma responde a una estructura de doble hélice constituida por un par de biopolímeros que se disponen enrollados entre sí.

ADN1

Estos biopolímeros están constituidos por los nucleótidos, unidades más sencillas que, a su vez, están formadas por tres elementos: una base, que contiene nitrógeno, una molécula de desoxirribosa, que es un azúcar, y un grupo fosfato. La desoxirribosa de un nucleótido se une al fosfato del siguiente dando lugar a una cadena en la que lo más importante desde el punto de vista biológico, esto es lo que contiene la información relevante, es cómo se encuentran ordenadas las bases nitrogenadas a lo largo del biopolímero. Estas bases son de cuatro tipos: adenina A, timina T, citosina C y guanina G. Los dos biopolímeros que forman la doble hélice tienen la misma información biológica que está replicada en ambos, si bien las bases están ordenadas en sentido opuesto. Ambas cadenas se encuentran ligadas gracias a enlaces de hidrógeno que unen una base de cada una de ellas, estando permitidos sólo dos tipos de enlace: adenina-timina y citosina-guanina.

Las bases se combinan de tres en tres formando los codones, que son los elementos que contienen la información codificada que permite “construir” los aminoácidos, la base de las proteínas, que son las moléculas cuya presencia y/o actividad controlan los distintos procesos biológicos que corresponden a cada célula específica.

Una secuencia de varios nucleótidos consecutivos a lo largo de uno de los biopolímeros del ADN constituye un gen, la unidad de información necesaria para sintetizar cada una de las macromoléculas que tienen una función celular específica. Los genes incluyen codones de inicio y fin y otros elementos regulatorios y tienen codificada la secuencia de los aminoácidos que conforman las proteínas. Este código genético es prácticamente universal, siendo usado por casi todos los organismos vivos, y es degenerado, es decir, que la codificación de cada aminoácido puede aparecer en más de un codón.

Casi todos los organismos vivos, excepto los virus y algunas bacterias, están constituidos por células eucariotas, que presentan un núcleo en el que el ADN se encuentra densamente empaquetado. Inmediatamente antes de la división celular, en el proceso conocido como mitosis, la molécula de ADN se duplica, formándose las estructuras denominadas cromosomas.

ADN2

Como vemos en la figura, el ADN se enrolla alrededor de unas proteínas que dan soporte estructural a los genes y controlan sus actividades y que se denominan histonas. Éstas forman grupos de ocho unidades constituyendo los nucleosomas que se enrollan sobre sí mismos para formar los solenoides, los cuales vuelven a enrollarse formando el cromosoma. Éste presenta dos partes llamadas cromátidas, cada una con una rama corta y otra larga. En la división celular, las dos cromátidas se separan y cada una de ellas va a parar en unas de las dos células hijas.

ARN

Aunque el ADN contiene el código necesario para sintetizar las proteínas, esa síntesis la lleva a cabo otra molécula esencial: el ácido ribonucleico, ARN. La estructura del ARN es muy parecida a la de cada una de las dos cadenas del ADN con dos diferencias: las moléculas de desoxirribosa está sustituidas por las de ribosa, otro azúcar, y en lugar de la timina aparece otra base llamada uracilo. Existen diferentes moléculas de ARN de las que las más relevantes son el de transferencia, el ribosómico, ARNr, y el mensajero, ARNm. Este último recibe también el nombre de ARN codificante y consiste en una réplica completa del trozo de ADN que contiene el código de la secuencia de aminoácidos que conforma una proteína. El ARN más abundante en las células es el ARNr cuya misión es la de “leer” en el ARNm las secuencias concretas de los distintos aminoácidos y sintetizarlos hasta que la correspondiente proteína queda formada. El ARN de transferencia es el que se encarga de transportar un aminoácido asociado al mismo hasta la posición correcta señalada por el ARNm y “escrita” el ARNr.

En 1962, los biólogos moleculares Crick, Watson y Wilkins compartieron el premio Nobel de Fisiología por sus descubrimientos relativos a la estructura molecular de los ácidos nucleicos y su significación para la transferencia de información en el material viviente. Los trabajos que habían conducido a esos descubrimientos se habían llevado a cabo en 1953. Ese año Crick y Watson publicaron en Nature los dos notables artículos en los que proponían la estructura de doble hélice de la molécula de ADN y adelantaban cómo podía funcionar la codificación de las instrucciones genéticas básicas para los seres vivos. Las conclusiones de Crick y Watson no habrían sido posibles sin las imágenes de rayos X que habían sido obtenidas por Wilkins y por la biofísica británica Rosalind E. Franklin, fallecida lamentablemente en 1958.

En “El código genético: ayer, hoy y mañana”, un libro que Crick publicó en 1966, puede leerse lo siguiente: “La importancia del trabajo de Gamow fue que era realmente una teoría abstracta de codificación y no estaba llena de un montón de detalles químicos innecesarios … De lo que él se dio cuenta claramente fue de que un código con solapamiento ponía restricciones sobre las secuencias de aminoácidos y que sería posible entonces probar, o al menos refutar, distintos códigos estudiando secuencias de aminoácidos conocidas.” Gamow, nacido en 1904 en Odesa y emigrado a Estados Unidos en 1932, había sido físico nuclear al principio de su carrera (entre otras cosas explicó la desintegración alfa basándose en el efecto túnel) y cuando se descubrió el ADN se dedicaba a la cosmología, después de haber pasado algún tiempo trabajando en astrofísica nuclear.

En 1953 Gamow se encontraba como profesor visitante en la universidad de Berkeley (California) y al parecer Luis E. Álvarez, físico norteamericano, nieto de asturianos y premio Nobel de física en 1968, comentó con él los trabajos de Crick y Watson. Impresionado, Gamow no tardó en escribir a ambos una carta que muchos consideran como el punto de partida de la búsqueda del código genético. Schrödinger ya se había referido, en el libro que mencioné al principio, a la secuencia de comandos de la herencia, “responsables de las diferencias entre un rododendro, un escarabajo, un ratón o una mujer”, y se refirió al código Morse como procedimiento de codificación de cualesquiera mensajes mediante un número pequeño de símbolos. Gamow se preguntó si sería posible relacionar las bases presentes en la molécula de ADN con los aminoácidos constituyentes de las proteínas. Gamow supuso que no era necesario conocer la química básica involucrada en el problema para acceder al código genético y con ello redujo el problema a una cuestión meramente numérica: ¿cómo escribir con un alfabeto de cuatro “letras” (las bases), las “palabras”, 20 en total (los aminoácidos proteicos, canónicos o naturales), con las que se podían escribir las “frases” relevantes (las proteínas). En 1954 Gamow publicó tres artículos describiendo el análisis que había llevado a cabo. El código más sencillo que propuso se basaba en analizar las distintas posibilidades. Si se combinan dos bases, el número de posibles aminoácidos sería 4×4=16 que era insuficiente (recordemos que eran necesarias al menos 20 combinaciones para poder codificar los 20 aminoácidos naturales). Por tanto, Gamow avanzó que debían ser tres las bases que deben combinarse para codificar cada aminoácido. De esa forma era posible componer 4x4x4=64 “palabras” de 3 “letras” y Gamow concluyó entonces que debían existir “sinónimos”, es decir combinaciones diferentes que representaban el mismo aminoácido.

Los experimentos de Crick y otros bioquímicos como Ochoa y Niremberg y Khorana (premios Nobel de Fisiología en 1959 y 1968, respectivamente) corroboraron la hipótesis de Gamow de que los aminoácidos se codificaban con tres bases y también resultó correcta la hipótesis de los “sinónimos”. Sin embargo, los códigos con solapamiento a los que Crick se refería en su libro (y que Gamow había propuesto) tenían como característica que los aminoácidos contiguos debían compartir forzosamente alguna de sus bases, una cuestión que fue descartada por los experimentos llevados a cabo por Brenner, premio Nobel de Fisiología en 2002.

La fascinación que conlleva la complejidad de la molécula de ADN es, creo yo, indiscutible. Pero es realmente estimulante comprobar cómo a veces una mirada ajena a un problema abre puertas hasta ese momento invisibles, con consecuencias insospechadas. Son muchos los ejemplos que en la historia de la Ciencia podemos encontrar de estas situaciones, afortunadamente. Este caso de Gamow es particularmente paradigmático, dada la sencillez de la solución que él planteó. Pero lo que sin duda éste ejemplo, y todos los demás, pone de manifiesto es la importancia de la interdisciplinariedad en la investigación, una característica cada vez más usual en la ciencia de nuestros días.

Celuloide radiactivo II: La hora incógnita. La amenaza nuclear en la España (atómica) de Franco

$
0
0

La película de la que hablaré hoy es singular en muchos aspectos. Para empezar se trata probablemente de la película más oscura de uno de los directores más populares que ha dado el cine español. Y para seguir -agarrense- se atreve a hablar en tono pacifista, en la España de Franco de principios de los años 60, de la guerra fría y de la amenaza nuclear. Todo esto en un estilo a medio camino entre el realismo costumbrista y una modernísima ciencia ficción que recuerda a los mejores momentos de la popular serie de televisión norteamericana The Twilight Zone. Y eso no es todo, se trata de una película profética que se adelantó tres años al incidente de pérdida de armas nucleares más grave conocido. Se trata de La hora incógnita, una película de Mariano Ozores del año 1963.

La película

lhi

La cinta arranca con la rápida evacuación de una ciudad de provincias. Vemos partir lo que parece ser el último tren, la gente se apelotona nerviosa en el andén. Por las carreteras y caminos se suceden los camiones militares que a toda velocidad recorren unas calles de aspecto desolador. Y es que un misil nuclear fuera de control avanza diligente hacia la ciudad que en pocas horas quedará destruida. Al finalizar los títulos de crédito la ciudad queda ya completamente vacía, o eso parece… Entre las tiendas abandonadas a toda prisa y los coches volcados van apareciendo una serie de personajes que por distintos motivos han quedado allí atrapados. Entre los desafortunados rezagados tenemos a un borracho, un ladrón, unas viejas cotillas, una pareja de amantes adúlteros, el codicioso dueño de unos grandes almacenes, un comunista y, cómo no, un cura. De acuerdo con la moral de la época esta pléyade de “despistados” configuran un compendio de los más deleznables pecados de la sociedad contemporánea (a excepción del cura, claro está), pero borrarlos del mapa con una bomba nuclear parece excesivo incluso para las mentes menos piadosas. En medio de este escenario de pesadilla los personajes perseveran en una huida imposible.

Mariano Ozores no escatimó en recursos: un reparto excepcional, el mejor operador de entonces, cientos de extras, vehículos estrellados e incendiados, todos los rodajes de noche. Todo esto dio lugar a una de las producciones más caras de la época, que llevó a Ozores a la ruina ya que la cinta resultó ser un sonado fracaso de taquilla. Como cuenta en su libro Respetado público, se pasó los siguientes años pagando las deudas contraídas durante el rodaje, y quizás no sea descabellado afirmar que en última instancia las populares películas del destape que rodó con Esteso y Pajares son el más exótico subproducto de la guerra fría ya que Ozores se prometió a sí mismo entonces que “Nunca haría una película porque me gustase a mí (…) haría lo que el público quisiera ver” [1].

Captura-La Hora Incognita (1963,Mariano Ozores)(Castellano) (Spanish) Dvd-Rip Xvid-Mp3 (By Gcc Centralclasico) (1).avi-2

Elisa Montes, como una maniquí más en unos abandonados grandes almacenes lista para recibir al misil atómico.

Recordemos: estamos a principios de los 60, en los cines se proyectan las películas de Marisol (Tómbola, 1962) y Conchita Velasco era “la chica yeyé” (Historias de la televisión, 1964). Vamos, que el cine español en esos tiempos no era muy dado a temas tan siniestros y mucho menos a asuntos políticamente comprometidos… ¿o sí? Lo cierto es que el cine de la época, en contra de lo que pudiera parecernos hoy era bastante abierto. Desde los años 50, y a través de las Conversaciones Cinematográficas Nacionales de Salamanca, se estaba llevando a cabo una controlada política de apertura ya que el Régimen necesitaba homologarse internacionalmente [2]. De este mismo año, 1963, es El verdugo de José Luís García Berlanga, y Luis Buñuel había rodado Viridiana en el año 1961. Pero si bien, el Régimen contemplaba cierto margen a la autocrítica, lo que resulta verdaderamente chocante de La hora incógnita es que se cuestione al amigo americano y sus juegos de guerra con “los rojos”. Cuanto menos resulta chocante una posición equidistante en un país con avales impolutos de anticomunismo como era la España de Franco.

Cuenta Ozores que el argumento de la película se le ocurrió cuando leyó en una nota de prensa que las autoridades cubanas protestaban al gobierno de Estados Unidos porque los proyectiles lanzados desde Cabo Cañaveral que perdían el control eran destruidos en el aire y sus trozos caían en territorio cubano, con el peligro que ello suponía para la población. De alguna manera la gestación del guión parece la catarsis de un país espectador de la guerra fría y que, como los pobres infelices atrapados en la ciudad de provincias de pulverización inminente, vivía bajo la amenaza de sus consecuencias colaterales.

Las aspiraciones nucleares de la España de Franco y la JEN

Pero más que cualquier otra razón, fue precisamente la guerra fría la que ayudó a acabar con el ostracismo del régimen de Franco, que se convirtió en un aliado estratégico de los Estados Unidos en el sur de Europa [3]. O sea, que lo que pintaba España en esta historia era gracias a su privilegiada localización geográfica, que ya lo decía José María Pemán que “La tierra de España (…) está colocada providencialmente por Dios en el centro del mundo” [4]. Pero esta cómoda situación no era del gusto de todos. Según defiende Santiago Vilanova en su libro La bomba atòmica de Franco, el sector más ultra del ejército junto al mismísimo Franco, estaba dispuesto a convertir al país en la sexta potencia atómica mundial. Hay que tener presente que España es el segundo país en reservas de uranio de Europa después de Francia [5]. Según Vilanova, Franco encargó a tres militares (Juan Vigón Suerodíaz, Luis Carrero Blanco y José María Otero Navascués), preparar las infraestructuras tecnológicas y el combustible nuclear que tenía como fin último la creación de la bomba atómica nacional católica.

triada

De izquierda a derecha Juan Vigón Suerodíaz (1880-1955), Luis Carrero Blanco (1904-1973) y José María Otero Navascués (1907-1983).

Pero, ¿qué se necesita para fabricar una bomba atómica? Pues esencialmente plutonio-239 o uranio altamente enriquecido (con una alta proporción de uranio-235). No basta con tener grandes reservas de uranio natural, hay que enriquecerlo o utilizarlo para obtener plutonio lo que no está exento de dificultades y es altamente costoso y complejo. Un elemento esencial para estos menesteres son los reactores nucleares de los cuales puede obtenerse el plutonio-239 como residuo, y por supuesto gente capaz de manejar todo el asunto. ¿Estaba el Régimen en condiciones de conseguir todo esto?

Fue en la coyuntura de cambio en la escena internacional que vivió España en los años 50 cuando se concretó el nacimiento de la Junta de Energía Nuclear (JEN) [3]. La JEN se concibió como un programa de desarrollo integral e independiente de tecnología nuclear muy ambicioso. Incluía la obtención de uranio, su tratamiento, la construcción de reactores, la formación de ingenieros nucleares y el establecimiento de instalaciones para la producción de isótopos radioactivos. La idea, no obstante, venía de lejos y comenzó con la creación, en septiembre de 1948, mediante secretísimo Decreto Reservado, de la Junta de Investigaciones Atómicas (JIA). En esta junta, que con el fin de mantenerse en secreto tomó la apariencia externa de una empresa que se denominó Estudios de Patentes de Aleaciones Especiales (EPALE), se encontraba ya José María Otero Navascués. Las actividades del periodo comprendido entre el año 1948 y el 1951 se mantuvieron en el más estricto secreto, pero al parecer una de las funciones de la EPALE, fue la de enviar a físicos a formarse al extranjero. El general Juan Vigón se convirtió en el nuevo director de la EPALE en 1950 y comenzó un nuevo periodo en el que se pasó del secretismo a la discreción y en la que la JIA se convirtió por Decreto Ley en la JEN en el año 1951.

Franco junto a Carrero Blanco en la inauguración del Centro Nuclear Juan Vigón en la Moncloa. El Caudillo escucha las explicaciones de Carrero Blanco con un gesto de manifiesta curiosidad y admiración ante la tecnología que significaba la entrada de España en la era atómica [6].

Por fin, el 27 de noviembre de 1958 se inauguró el reactor experimental JEN-1 y el Centro de Estudios Nucleares de la Moncloa, inauguración en la que estuvieron presentes Franco y Carrero Blanco [NODO Nº831A del 8 de diciembre de 1958]. Tanto este primer reactor experimental como los que le siguieron en años posteriores fueron adquiridos a través del programa estadounidense Átomos por la paz. Hay que entender que en este contexto, el de la promoción de los usos pacíficos de la física nuclear, el papel público de la JEN y los principales usos del reactor experimental JEN-1 fueran para aplicaciones industriales y en medicina nuclear. Así ya en el año 1959 se realizaron las primeras gammagrafías industriales con Co-60 y en 1961 se utilizó fósforo-32 producido en la JEN como trazador en medicina. La labor de la JEN en esos años fue también extraordinariamente importante en la distribución de isótopos importados de otros países, el desarrollo de procedimientos de protección radiológica y la formación especializada de científicos y técnicos en los problemas directamente relacionados con la energía nuclear.

Reparto de radioisótopos por la JEN

Reparto de isótopos por la JEN [7].

Así que en principio el régimen de Franco contaba con la infraestructura y el personal con la cualificación necesaria como para emprender el proyecto atómico pero una bomba son palabras mayores que exige algo más que reactores experimentales. Las centrales nucleares tenían que entrar en el juego ya que en la obtención del plutonio era esencial controlar el ciclo de combustible de las mismas. Pero los años posteriores, en los que se creó la estructura de producción eléctrica de origen nuclear en España, fueron una lucha de intereses entre las instituciones políticas e industriales. En aquellos momentos la intención de la JEN era montar centrales del mismo tipo, con el objetivo de poner en marcha una industria nuclear homogénea, cubriendo la fabricación de componentes y sistemas para las centrales, además del ciclo de combustible. Pero esta visión entraba en conflicto con los planes del ministro de industria López Bravo, que apostaba por la intervención de los grupos industriales privados. Esta decisión condujo a la compra “llave en mano”, con la entrega de las centrales listas para funcionar, que ofrecían las principales compañías norteamericanas. Así, los proyectos de las tres primeras centrales nucleares, Zorita, Garoña y Vandellós 1, fueron completados fundamentalmente por empresas extranjeras. De este modo, los dos mayores núcleos de poder de la España de la época, el Gobierno falangista representado por la JEN, controlado por militares, y los nuevos tecnócratas representantes de la emergente industria, apoyaron el programa nuclear aunque con aspiraciones distintas. Mientras que para la JEN la energía nuclear era necesaria para aumentar la autonomía nacional, los tecnócratas lo consideraron una forma de apertura económica y de romper el aislamiento internacional [3].

Lo cierto es que aunque la opción escogida no fue la más adecuada desde el punto de vista del desarrollo de la bomba, en principio era posible obtener plutonio más que suficiente a partir de los residuos producidos por la central de Vandellós 1 como para la elaboración en serie de un stock nuclear moderado [6]. Esto, junto a la reiterada negativa a firmar el Tratado de No Proliferación Nuclear, debía tener bastante mosqueados a los americanos que el año 1973 enviaron a Henry Kissinger a entrevistarse con el ya presidente Carrero Blanco. En un informe redactado por la CIA en el año 1974, desclasificado recientemente (2008), se pone de manifiesto que Estados Unidos era conocedor de los planes del Gobierno de Franco para desarrollar un pequeño arsenal nuclear para reforzar su posición internacional [8]. La reunión entre Kissinger y Carrero blanco tuvo lugar el 19 de diciembre de 1973 y se prolongó 6 horas, según parece, esta conversación fue, cuanto menos, poco amable [9]. Carrero saltaba por los aires menos de 24 horas después de la reunión, y a tan sólo escasos 400 metros de la embajada estadounidense.

En 1985 las siete centrales nucleares en servicio en España producían una cantidad anual de 300 kilos de plutonio-239, suficiente para una treintena de bombas atómicas del tamaño de la de Hiroshima [10]. Ese mismo año 1985 la JEN se convirtió en el Centro de Investigaciones energéticas, Medioambientales y Tecnológicas (CIEMAT). España no firmó el Tratado de No Proliferación Nuclear hasta el año 1987, bien entrada la democracia [11].

El accidente nuclear de Palomares

Bombardero B-52 y avión nodriza KC-135 en una maniobra de repostaje en vuelo.

Bombardero B-52 y avión nodriza KC-135 en una maniobra de repostaje en vuelo.

Pero quizás con todo, lo más sorprendente de la película es que la historia que narra (o algo parecido) estuvo a punto de ocurrir en un pequeño pueblo del levante, en Palomares. El 17 de enero de 1966 un bombardero B-52 y un avión nodriza KC-135 del ejército norteamericano chocaron durante una maniobra rutinaria de repostaje en vuelo sobre la pedanía almeriense de Palomares [12]. Cuatro bombas termonucleares Mark 28 (modelo B28RI) de 1,5 megatones cada una (la de Hiroshima era de unos 15 kilotones) y cientos de toneladas de desechos cayeron sobre el pueblo y los alrededores sin que resultase herido ni uno solo de los habitantes del pueblo. Una de las bombas se recogió intacta, al haber funcionado su paracaídas, en el lecho seco del río Almanzora. Otra cayó al mar, fue localizada a unos 8 kilómetros de la costa el 15 de marzo de 1966 y recuperada intacta 80 días después del accidente, tras un impresionante despliegue tecnológico de EEUU y con las imprescindibles indicaciones del pescador Francisco Simó que en adelante sería conocido popularmente como “Paco el de la bomba” (la hazaña se relata parcialmente en otra película: Hombres de honor (2000)). Los paracaídas de las otras dos no se abrieron con lo que la caída provocó la detonación de parte de su explosivo convencional y su deflagración, causando la dispersión de un aerosol de plutonio que afectó a un área aproximada de 226 ha.

13839279183_7e358364f7_o

Las dos bombas recuperadas “intactas” en el National Museum of Nuclear Science & History (Foto: Sam Wise [https://www.flickr.com/photos/sortingoutscience/])

Aunque lo más recordado de todo este asunto fue el baño del entonces ministro de información y turismo, Manuel Fraga Iribarne, junto al embajador estadounidense, Angier Biddle Duke, en las playa de Quitapellejos en Palomares, lo importante fueron las medidas de descontaminación que se llevaron a cabo [NODO Nº1210B del 14 de marzo de 1966]. Durante los tres meses posteriores al accidente se retiraron más de mil metros cúbicos de tierra, cosechas, vegetación y piedras, que se metieron en bidones de 200 litros de capacidad. En total se llenaron 4810 barriles que fueron enviados a EEUU al almacén de residuos radiactivos de Savannah River [13]. Las labores de limpieza involucraron a unas 1600 personas, la mayoría personal de la fuerza aérea de los Estados Unidos. Inmediatamente después de las operaciones de descontaminación, se formalizó un Programa de Vigilancia Radiológica con la JEN conocido como “Proyecto Indalo”, en el marco del acuerdo de colaboración Otero-Hall, y financiado parcialmente por el Departamento de Energía de los Estados Unidos (DOE).

Trabajos iniciales de descontaminación de la zona de Palomares tras el accidente.

Trabajos iniciales de descontaminación de la zona de Palomares tras el accidente [13].

Desde el año 1966 se han realizado de forma continuada análisis a los habitantes que podrían haber sido afectados sin que se hayan encontrado valores de dosis efectivas que impliquen riesgo radiológico para la población. Según el informe que hizo el CSN en 1985 la incidencia media de muertes por cáncer o leucemia en Palomares era 13,4%, es decir, 1,1 puntos por debajo de la media nacional. La concentración media anual de plutonio medida en el aire de Palomares, entre 1996-2005, supone una media anual por inhalación “significativamente menor” que el límite de dosis para el público (1 mSv/a) recomendado por la Comisión Internacional de Protección Radiológica (ICRP).

Descripción en 1966 de la Operación Chrome Dome, vuelos relacionados o derivados [14]

Descripción en 1966 de la Operación Chrome Dome, vuelos relacionados o derivados [14]

Ciertamente no se trataba de una historia tan descabellada si tenemos en cuenta que durante los años 60 la Fuerza Aerea de los Estados Unidos mantuvo en activo la operación Chrome Dome [14]. El programa consistía en varios bombarderos estratégicos B-52 Stratofortress armados con armas termonucleares con objetivos asignados en la Unión Soviética, volando permanentemente en horarios que garantizaran un número considerable de aviones en el aire, en el caso del estallido de la Tercera Guerra Mundial.

¡Alerta spoiler! (No sigas leyendo si vas a ver la película)

Captura-La Hora Incognita (1963,Mariano Ozores)(Castellano) (Spanish) Dvd-Rip Xvid-Mp3 (By Gcc Centralclasico) (1).avi-5

El fin se acerca y los personajes, refugiados en la iglesia, miran recelosos al cielo. ¿A quién dirigen sus reproches? ¿Acaso a Dios?, ¿o a la ciencia, el nuevo tótem padre del misil que está a punto de exterminarlos? O quizás convertidos en conejillos de indias del nuevo orden mundial, dedican su último pensamiento a los americanos o a los rusos, ya que no sabemos a quién se le ha escapado el cohete. A lo mejor, casi seguro, dedican estos últimos segundos a reflexiones más prosaicas. Y es que al final la vida se resiste a desaparecer por muy difícil que se lo ponga el ser humano, capaz de las mayores genialidades y las estupideces más atroces.

Fue en el año 1963 cuando murió asesinado en Texas John F.Kennedy. También fue este el año en que se conectó el teléfono rojo, el famoso aparato -de color negro en realidad- que unía el despacho del presidente estadounidense en Washington D. C., con su homónimo en Moscú. La Unión Soviética lanzó el Vostok 6, con la primera mujer cosmonauta, Valentina Tereshkova. Los Estados Unidos, la Unión Soviética y el Reino Unido firmaron el Tratado de prohibición parcial de ensayos nucleares. La BBC estrenó la serie de ciencia ficción Doctor Who y The Beatles publicaron Please Please Me y With the Beatles.

El premio nobel de física de este año fue para Eugene Paul Wigner, Maria Goeppert-Mayer y J. Hans D. Jensen, por sus contribuciones a la teoría del núcleo atómico y de las partículas elementales, en especial por el descubrimiento y aplicación de los importantes principios de simetría. Fue precisamente Eugene Paul Wigner uno de los cinco científicos que informaron al presidente Franklin D. Roosevelt en 1939 de la posible utilización militar de la energía atómica.

Fuentes

[1] Mariano Ozores, Respetable público (Cómo hice casi cien películas). Editorial Planeta, 2002.
[2] Vicente J. Benet, El cine español. Una historia cultural. Paidós, 2012
[3] Néstor Herran y Xavier Roqué (eds.), La física en la dictadura. Físicos, cultura y poder en España (1939-1975). Universitat Autònoma de Barcelona, Servei de Publicacions, 2012
[4] Wikipedia: José María Pemán (último acceso el 26 de noviembre de 2014)
[5] 222 cuestiones sobre la energía. Nuclenor (último acceso el 26 de noviembre de 2014)
[6] Santiago Vilanova, La bomba atòmica de Franco. Llibres de l’Índex, 2011
[7] Agustín Alonso Santos, Las primeras aplicaciones de las radiaciones ionizantes en España, presentación con ocasión del 30 aniversario de la SEPR.
[8] Roberto Qumata, Los planes atómicos de Franco y Carrero. El Correo Gallego, 2008
[9] Manuel P. Villatoro, El misterio de la bomba atómica que quiso fabricar Franco. ABC, publicado el 8 de mayo de 2013
[10] Santiago Perinat, España y el Tratado de No Proliferación Nuclear. El País, publicado el 29 de mayo de 1985
[11] Tratado sobre la no proliferación de las armas nucleares
[12] Flora Lewis, Palomares: Se ha perdido una bomba…H. Editorial Juventud, 1967
[13] Concha Barrigós, Un mapa radiológico para Palomares, Revista Alfa Nº2, 2008
[14] Wikipedia: Operación Chrome Dome (último acceso el 26 de noviembre de 2014)

Dr. Sheperd versus Sheldon Cooper

$
0
0

Hará eso de dos meses me sucedió una cosa curiosa. Durante todo este trimestre, los estudiantes de quinto curso de Medicina han estado haciendo las prácticas en nuestro servicio y han asistido algunas mañanas al quirófano para ver los tratamientos de braquiterapia. Además entonces también estaba rotando conmigo nuestra residente. Como con la braquiterapia conviene “hacer mano”, la aplicación la estaba realizando la residente bajo mi supervisión y yo, mientras tanto, explicaba el procedimiento y sus fundamentos a los estudiantes.

Una de las estudiantes a mitad de explicación me preguntó: “Oye, ¿tú eres físico?”. Ahora que no nos oye nadie tengo que reconocer que me hizo gracia la pregunta… y también mucha ilusión ya que desde pequeño me han gustado mucho la física y las matemáticas y siempre he tenido mucha admiración y respeto por los que las practican regularmente.

Sin embargo, me di cuenta que la estima o imagen que yo pudiera tener de un físico es personal e intransferible y no precisamente la más común en la sociedad. De hecho, el estereotipo actual de un físico podría ser perfectamente el personaje de Sheldon Cooper interpretado por Jim Parsons en la serie “The Big Bang Theory”. Para los que no conozcan la serie, estamos hablando básicamente de un inadaptado extravagante con dificultad para relacionarse con personas fuera de su entorno, principalmente de sexo femenino. La emoción inicial por la pregunta os imagináis dónde terminó.

cooperEn contraste fijaos cúales son los estereotipos del colectivo médico en las películas o series de televisión: el Dr. Sheperd interpretado por Patrick Dempsey en la serie “Anatomía de Gray” o George Clooney haciendo de Dr. Ross en la serie “ER, Urgencias”, por poner dos ejemplos. Los dos personajes son distintos pero tienen en común un buen sueldo, así como una media de doce curaciones milagrosas y treinta y dos coitos por temporada. Con estos incentivos no es raro que la de Medicina sea una de las carreras más demandadas.

sheperd George_Clooney_papel_pediatra_Doug_Ross

Según Sigmund Freud casi todas nuestras actitudes y decisiones están directa o indirectamente influidas por la búsqueda consciente o no de la gratificación sexual; no creo que estuviera en lo cierto, pero si hay una época en la que todo gira en torno a la aceptación social y la posibilidad de relacionarse con éxito, especialmente en el ámbito sexual , esa es la adolescencia, precisamente la edad con la que tomamos las decisiones que condicionarán nuestra vida laboral. Cuando echo la vista atrás y me replanteo decisiones que tomé entonces…

No puedo dejar de pensar en un mundo en el que alguien deje claro que los estereotipos de televisión no son ciertos, un mundo en el que alguien explique bien y con pasión lo estimulantes y variadas que son muchas de las vías profesionales de carreras como las ciencias físicas o ciencias exactas. Seguramente en ese mundo ahora no sería médico y me dedicaría a otras cosas. Me consuelo pensando que según la teoría cuántica, con infinidad de universos paralelos, existe ese mundo del que hablo. Mientras tanto, en este en el que vivimos de momento parece que algunos (como aquí, aquí o aquí) están empeñados en cambiar las cosas. Quiero creer que desde este blog también estamos aportando nuestro granito de arena.

PD: Como detalle de que quizás no todo esté perdido y de que hay esperanza en las nuevas generaciones, os contaré lo que me dijo la semana pasada mi hijo de seis años: “Aita, cuando sea mayor quiero ser doctor…, pero no doctor de los que curan, no…, ¡de los listos! de los que inventan cosas”. Cuando le pregunté qué quería inventar respondió muy serio que “una máquina que fabrique comidas de tres estrellas Michelín y otra para hacer videojuegos de la Wii”

Niños y teléfonos móviles (aunque este post no es un post)

$
0
0

Sospecho que muchos de nuestros lectores y colaboradores no conocen nuestra sección “Pregunta lo que quieras”. Y no porque esté excesivamente inaccesible, de hecho está ahí mismo, en el menú principal, sí sí, ahí, eeeeeso es… junto a “inicio”, “quienes somos”, etc. Utilizando el formulario que aparece al entrar, los lectores pueden formular preguntas a los editores que luego nosotros respondemos mediante correo privado o remitimos a alguien que consideremos que está más preparado que nosotros, lo que no suele ocurrir casi nunca… ejem… No seáis mal pensados, si no lo hacemos con más frecuencia es para evitar cargar con trabajo adicional a nuestros esforzados colaboradores, que bastante tienen ya elaborando los posts o soportando nuestros insistentes recordatorios. Así que generalmente nos defendemos como podemos y consensuamos una respuesta que pretende siempre ser, si no excesivamente precisa, sí al menos tan objetiva como nos sea posible. La sección ha recibido bastantes preguntas, y de verdad es un placer interaccionar con gente interesada en los asuntos de los que el blog se ocupa y que son nuestra profesión.

En una de las últimas consultas recibidas, la Dra. Blanca Usoz, dedicada a la prevención de riesgos laborales, nos pedía nuestra opinión respecto al asunto de la telefonía móvil, sobre el que ella misma había escrito un post en su blog profesional:

Nombre: Blanca Usoz 

Pregunta: Buenos días. Me gustaría saber si desde el punto de vista de la física médica, tiene sentido recomendar a los niños medidas de prevención respecto a los teléfonos móviles. Gracias

Me tocó a mi elaborar la respuesta, y el engendro resultante, con la aprobación de mis coeditores, nos pareció suficiente para un post. Pero dado que ya habíamos publicado dos posts sobre el asunto recientemente, creímos conveniente aprovechar la situación para dar a conocer la sección de consultas a todos nuestros lectores y animarles a hacer uso de ella. De hecho, tirando y tirando de este hilo hemos llegado a la conclusión de que merecería la pena que estas respuestas se conviertan en posts que se clasificarán como una nueva categoría que llamaremos Q&A (para presumir de angloparlantes y porque es un término común, si pones P&R parece una marca de ropa… que no, que es broma, que se llamará “preguntas y respuestas“). Así que eso es lo que vamos a hacer, responder a las preguntas con posts que, digamos, habrán sido sugeridos por los lectores. Para ello, ya aviso, tendremos que implicar a los colaboradores, pues nosotros no daríamos abasto.

Aquí va, por tanto, esta respuesta en forma de “post sugerido” (si bien, por ser el primero, contiene las fórmulas típicas de la cortesía y algunas explicaciones ajenas a la propia cuestión planteada, que no elimino para ilustrar a todos como hemos procedido hasta ahora).

Buenos días, Blanca.

En primer lugar, perdona la tardanza en responder, intentamos hacerlo tan rápido como nos gustaría pero a la falta de tiempo hemos de añadir la necesidad de consensuar las respuestas antes de darlas, pues nuestra intención es ofrecer siempre una perspectiva los más objetiva y profesional que podamos, y el tema de la telefonía móvil es uno de los asuntos más delicados en este campo.

En realidad, no somos expertos en telefonía móvil y microondas. A pesar de ello, muchos nos hemos visto abocados a estudiarla debido a que mucha gente se ha dirigido a nosotros con su preocupación sobre sus posibles efectos perniciosos. Ya puedes hacerte una idea, cuando alguien llega a un hospital o centro de salud preguntando sobre el asunto lo más probable es que alguien acabe diciendo: “yo creo que ahí abajo, en el sótano, cerca de la capilla, hay físicos que trabajan con eso de las radiaciones. ¡Ah, sí! que el jefe es este con bigote.. ellos te podrán decir”.

Lo cierto es que nuestra especialidad trata con un tipo particular de radiaciones a las que que llamamos ionizantes, es decir, aquellas que tienen la capacidad de ionizar los átomos y moléculas de los medios irradiados. Para ello, cada partícula elemental que compone esa radiación, y que denominamos fotones en el caso de radiación electromagnética (como las microondas y la radiofrecuencia), debería tener energía suficiente para romper el enlace entre los electrones y los núcleos atómicos. Sabemos, y estamos seguros, que las microondas y la radiofrecuencia no tienen esa capacidad, pues sus fotones no tienen, cada uno de ellos, energía suficiente para romper ese enlace. Y no cabe pensar que dos o más fotones de microondas puedan actuar sinérgicamente para conseguir romperlo, pues el tiempo durante el cual ocurre la interacción de un fotón con un electrón es, como imaginarás, infinitesimalmente pequeño, lo que hace imposible que dos fotones interactúen exactamente en el mismo momento, menos aun si deben hacerlo sobre un mismo electrón(aunque hay ciertas aplicaciones láser en las que esto puede pasar, puedes verlo en este post de Álvaro Peralta y en los comentarios al mismo). Descartada entonces la posibilidad de que las microondas ionicen los átomos, ¿que nos queda?.

El paradigma científico vigente considera que la única posibilidad de que una radiación provoque un cáncer (pues es el riesgo del que hablamos) es que la misma produzca una ionización que a su vez provocará la estabilidad química de la molécula implicada (generalmente agua) y su posterior radiolisis, quedando escindida en dos radicales libres químicamente muy activos. Estos radicales pueden reaccionar con el ADN celular provocando una lesión que, si no fuera correctamente reparada por los mecanismos de que la célula dispone, daría lugar a una mutación y a su potencial efecto biológico: muerte o carcinogénesis. A baja dosis de radiación el número de células muertas es bajo y no tendrá significación biológica. No ocurre lo mismo con el proceso carcinogénico, pues una sola célula mutante puede iniciar un cáncer con consecuencias letales. De esta forma, un solo fotón, provocando una única mutación, puede estar en el inicio de la secuencia de acontecimientos (en general una serie necesaria de mutaciones) que transforman una célula sana en una célula cancerosa.

No siendo ionizantes, las microondas no pueden por tanto ser las iniciadoras de semejante secuencia fatal. Esta razón y los datos epidemiológicos, nos reafirman en la idea de que las microondas no son agentes carcinogénicos. Esa es la postura mayoritaria, también la mía.

Pero esto no puede considerarse un debate concluido. Lo cierto es que cuanto más sabemos de la naturaleza del cáncer y de la dinámica celular, más sorprendidos estamos. Hoy sabemos que en el proceso carcinogénico están implicados mecanismos más sutiles que la simple y mecánica mutación. Toda la dinámica celular está mediatizada por el entorno, no se trata de la simple transcripción mecánica de un código genético preestablecido, propio de cada célula. Las células y los tejidos están inmersos en una red compleja de señales bioquímicas que controlan los procesos de proliferación y muerte celular. Se trata de un equilibrio muy sutil en el que cualquier agente podría tener un impacto. Basta recordar el énfasis que se pone en cuestiones relacionadas con la alimentación o los hábitos saludables o el tabaco u otros agentes químicos, ninguno de los cuales tiene capacidad de ionizar los átomos, sin que eso impida que induzcan modificaciones genéticas por mecanismos no siempre conocidos. En este sentido, y dado que existen algunos, pocos, datos epidemiológicos que contradicen el paradigma vigente para las radiaciones, la OMS ha considerado oportuno clasificar las micrroondas de radiofrecuencia como agentes carcinogénicos de clase 2B, “posiblemente carcinogénicos en humanos pero sin evidencias concluyentes al respecto”, lo que a muchos de nosotros nos parece algo exagerado (puedes leer el post de Carlos Pino “Lluvia de microondas“).

Esto significa que debemos aplicar en su uso un principio de precaución, mayor aun para los niños, dado que sus tejidos, más proliferativos, se consideran más sensibles, pero, sobre todo, porque siendo mayor su esperanza de vida será mayor el tiempo de exposición y el plazo disponible para que los efectos potenciales acaben manifestándose.

Tiene por tanto sentido, desde mi punto de vista, realizar ese tipo de recomendaciones, tal como afirmas en tu blog, pero siempre que se haga con la debida mesura y teniendo presente que son muchas las ventajas derivadas de su uso y mucho lo que todos podemos perder si este debate se convierte en bandera que esconda intereses de otro tipo. El debate científico, racional, que podemos y debemos desarrollar (pues contribuirá a conocer mejor los mecanismos del cáncer) no puede servir para animar posturas luditas irracionales, ni podemos permitir que se usen para hacer creer a la gente que los intereses comerciales priman sobre su salud, pues no es el caso al menos con este asunto. El riesgo de las microondas, si existe, es muy pequeño, pues en caso contrario, y dado su uso masivo, sus consecuencias nefastas resultarían hoy evidentes en los estudios epidemiológicos. En cualquier caso, y sin necesidad de medidas de precaución, los niños usan muy raramente el móvil en proximidad a órganos críticos, pues son más de enviar mensajes escritos que de conversar, y esa opción reduce la exposición a niveles mucho más bajos.

Espero que la extensión de la respuesta no te haya hecho desistir de su lectura. En cualquier caso, espero que si no ha servido para aclarar tus dudas vuelvas a ponerte en contacto con nosotros para darnos una segunda oportunidad :-)

Gracias por leer desayuno con fotones.

PD: personalmente estoy convencido de que pronto, la mejora de la tecnología permitirá disponer de terminales de baja potencia y hará que este debate sea superado de forma definitiva.

Creo oportuno en todo este asunto citar a Victor Hugo: “La ciencia dice siempre la primera palabra, pero nunca dice una última”.

Este es el tipo de consulta por el que pusimos en marcha la sección y que nos encanta discutir y responder. Y como diría Forrest Gump: “Eso es todo lo que tenía que decir sobre la guerra de Vietnam” (sé que la referencia cinematográfica no está muy bien traída, pero es que Gaspar siempre está con esas odas suyas tan cinematográficas y pintureras y los demás parece que no hayamos ido nunca al cine…¡me rebelo ante esta creencia!).

Viewing all 198 articles
Browse latest View live