jueves, 6 de julio de 2017

Nosotros actuamos por amor, vosotros por odio

La política se está polarizando en todos los países de nuestro entorno y la división va llegando a extremos en los que el diálogo es prácticamente imposible y ocurren cada vez más actos deshonestos e incluso violentos. Con los conflictos etno-religiosos, como el conflicto palestino-israelí,  ocurre lo mismo y da la impresión de que este tipo de problemas son intratables. ¿Por qué hay tantos conflictos que son intratables cuando la gente de ambos bandos saldría ganando si se llegara a un compromiso? Es muy importante avanzar en la comprensión de estos enfrentamientos y buscar la manera de tender puentes. En esta entrada voy a comentar un artículo que propone que una de las causas del mantenimiento de estas disputas es un sesgo que ellos han llamado Asimetría en la Atribución de Motivos y que consiste en que atribuimos las agresiones que hace nuestro grupo al amor mientras que atribuimos las agresiones que realizan el grupo contrario al odio.

El artículo en cuestión lleva a cabo cinco experimentos con demócratas y republicanos y con palestinos e israelíes que no voy a describir en detalle pero que básicamente consiste en preguntar por los motivos que los sujetos ven para las acciones de su grupo y del grupo contrario. Los resultados van en la línea de los que podemos ver en la Figura 1. Cada grupo atribuye las agresiones del endogrupo (nuestro grupo) más al amor al endogrupo que al odio al exogrupo  mientras que las agresiones del exogrupo (el grupo contrario) se atribuyen más a odio al exogrupo que a amor al endogrupo. Es decir: “lo que nosotros hacemos no es porque os odiemos pero lo que vosotros hacéis sí”. 

Esto es importante porque este sesgo aumenta la creencia en que el conflicto es intratable, disminuyendo el deseo y disposición a negociar o a votar por llegar a un compromiso. Pero el quinto estudio de este grupo da un giro a la situación porque introduce una manipulación para intentar reducir este sesgo. Lo realizan en demócratas y republicanos norteamericanos -que tienen que valorar como en los otros experimentos si su partido está motivado por empatía y compasión hacia su propio partido o por animosidad y odio hacia el partido contrario- pero lo que hacen es introducir un incentivo económico por el que ganan un dinero si su valoración es acertada incluyendo un grupo control al que no ofrecen incentivo económico. Con este giro los resultados cambian como se ve en la Figura 3. Pero lo interesante es que no sólo cambia la atribución de los sujetos sino también su optimismo con respecto a la situación, su confianza en poder buscar una solución.

En cuanto a los mecanismos por los que ocurre este sesgo los autores hipotetizan que puede ser debido a la diferente disponibilidad cognitiva de las emociones de amor y odio, a su diferente visibilidad. En nuestro grupo vemos expresiones de amor mientras que los oponentes y competidores no nos suelen dar muestras de amor. Otra posibilidad es que realicemos un razonamiento motivado para justificar las acciones de nuestro grupo al que necesitamos ver como bueno. Es evidente también el parecido de este sesgo que proponen estos autores con otros sesgos y fenómenos psicológicos conocidos como el error fundamental de atribución, la disonancia cognitiva, el universal Ellos/Nosotros y la tendencia a deshumanizar a los otros. Desde el punto de vista evolucionista tiene todo el sentido del mundo creer que el grupo rival no actúa por amor, los que pensaron eso, desde luego, no transmitieron sus genes a la siguiente generación.

Quedaría por valorar el efecto del incentivo económico ya que abre una vía muy interesante a poder disminuir este sesgo, lo que puede tener una repercusión enorme para buscar soluciones e intentar reducir así los conflictos humanos a nivel global. Los autores dicen que el incentivo económico podría reducir el egocentrismo al aumentar el esfuerzo por ver las cosas con perspectiva. También motivaría a detectar las emociones de los demás con más fiabilidad. Abre una vía a la esperanza y habría que seguir investigando para ver cómo potenciar este camino pero no hay que dejarse llevar del optimismo. Cuando estamos inmersos en un conflicto no suele haber incentivos para que analicemos los motivos y emociones de los enemigos y además hacerlo puede ser visto como traición a los intereses del grupo. El tema está difícil pero tal vez no imposible. Desde luego hay que buscar vías de reducir este sesgo, el mundo ha cambiado desde la época de los cazadores-recolectores e instintos que sirvieron para sobrevivir en un mundo de pequeños grupos enfrentados no nos sirven ahora, sino que son un problema, en un mundo común en el que todos tenemos que convivir.

@pitiklinov

Entradas relacionadas con este tema que te pueden interesar:





Referencia:








sábado, 1 de julio de 2017

La Sobrevaloración del Apego

Hace unos meses, Elisabeth Meins iniciaba en la revista The Psychologist una serie donde psicólogos escogen y tratan un concepto que a su juicio había sido sobrevalorado y otro que había sido infravalorado en Psicología. Meins escogió como concepto sobrevalorado  la capacidad de predicción del Apego y como infravalorado la Resiliencia. Existe la creencia de que un apego seguro, fiable y  amoroso en la infancia tiene efectos beneficiosos no sólo a corto plazo sino también a largo plazo y que un apego inseguro predice todo tipo de cosas negativas en la vida: problemas de salud, problemas mentales, abuso de sustancias, criminalidad, etc. Ahora vamos a ver que esto no es así y vamos a ver también que la Teoría del Apego tiene otros problemas y puntos débiles. Pero antes de entrar en materia vamos a repasar brevemente la historia de la Teoría del Apego.

John Bowlby fue un psicoanalista británico que como muchos otros psicoanalistas creía que los vínculos tempranos entre las madres y los hijos tenían un impacto posterior a lo largo de la vida. Desarrolló el modelo del Apego para intentar explicar estas relaciones y hay que decir muchas cosas buenas de Bowlby. Por ejemplo, que promovía tests y pruebas empíricas de su teoría, que citaba no sólo casos clínicos, como otros psicoanalistas, sino también referencias de investigación. También estaba dispuesto a cambiar de opinión si los datos decían otra cosa y en su último libro rechazó muchas teoría psicoanalíticas clásicas. Y, algo muy importante para un blog con inspiración evolucionista como éste, Bowlby tuvo en cuenta la teoría de la evolución e hipotetizó que la evolución había creado unos módulos tanto en la madre como en el hijo destinados a promover los vínculos del apego siendo el objetivo biológico del mismo la supervivencia del niño. Se puede decir que la Teoría del Apego es el primer intento serio de hacer una teoría psicoanalítica científica, que se pudiera testar y refutar.

La principal hipótesis de Bowlby fue que la calidad del vínculo entre madre e hijo influencia todas las relaciones íntimas posteriores en la vida. Para él la calidad de la maternidad era el factor central del desarrollo psicológico y su cualidad, buena o mala, se generalizaría a otras relaciones tanto con niños como con adultos a lo largo de la vida. En sus primeros escritos propuso que la “deprivación maternal” (la ausencia física o emocional de la madre durante la infancia) causaba un gran número de psicopatologías. Ahora sabemos por estudios como los de Rutter que no hay una relación directa entre ausencia materna y psicopatología posterior: el efecto negativo de la deprivación materna sólo se mantiene si coexisten otros factores de riesgo pero es reversible si estos factores están ausentes.

La responsable de que la teoría del Apego sobreviviera a Bowlby fue probablemente Mary Ainsworth que estudió la conducta de los niños con una prueba llamada la Situación Extraña que consistía en que madre e hijo llegan a una habitación donde hay un extraño y entonces la madre se ausenta durante unos minutos y luego vuelve. Se valora la conducta del niño durante la ausencia y durante la reunión posterior al volver la madre. Según la reacción de los niños se habla de un apego seguro y un apego inseguro. A su vez el apego inseguro se subdivide en: inseguro-evitativo, inseguro-ambivalente  y el último que se añadió, inseguro-desorganizado. Aproximadamente el 60% de los niños muestran un apego seguro en esta situación y el resto un apego inseguro.

Y vamos ya con lo que dice Meins y con los problemas que no tiene resueltos la Teoría del Apego. Para empezar, nunca se ha probado que un apego seguro en la infancia prediga unas relaciones íntimas satisfactorias en la edad adulta, no hay evidencia de que el tipo de apego sirva para predecir realmente algo en la vida adulta, ni siquiera que el apego temprano prediga cómo va a ser el apego posterior.  Hay autores que no han encontrado consistencia entre el apego a 1 año de vida y el apego a los 18. En cuanto a la predicción de psicopatología, Doziwer, Storall y Albus concluyen: “es improbable que el apego inseguro sea una causa ni necesaria ni suficiente para un trastorno posterior y en algunos casos es más bien un efecto del trastorno mismo más que una causa”.

Por otro lado, se ha considerado que el apego se debe a la atención y a los cuidados que provee la madre y se ha ignorado que el apego es una relación interpersonal y no un rasgo individual. Esto se ilustra muy bien en estudios en los que se ha clasificado al mismo hijo en diferente tipo de apego según que la prueba se haga con el padre o con la madre. También, si todo depende de la madre, todos los hijos deberían tener el mismo tipo de apego pero esto no es así (acepto que se puede contra-argumentar que la madre ha cambiado entre un hijo y otro) y luego veremos la que creo que es la principal objeción a la Teoría del Apego.

También, se ha patologizado el apego inseguro pero si tenemos en cuenta que está presente en el 40% de los niños tiene poco sentido decir que es “anormal”. Diferentes tipos de apego pueden representar diferencias individuales que se dan también en otros aspectos del desarrollo de los niños. Cada niño es diferente en su capacidad para andar, en la altura, peso y no hacemos un mundo de ello. No hay razón para coger el tipo de apego seguro y convertirlo en el patrón oro que todo niño debe conseguir.

Desde el punto de vista evolucionista, la Teoría del Apego se centra en el papel de la madre y excluye otras figuras de la vida del niño, aspecto que probablemente se debe a las raíces psicoanalistas de la teoría. Pero si estudiamos otras culturas o vemos la historia evolutiva de nuestra especie observamos que los niños han tenido múltiples cuidadores porque las madres han tenido que estar pendientes de su propia supervivencia y de trabajar o hacer otras tareas. La norma ha sido la crianza cooperativa, aspecto en el que ha insistido la antropóloga Sara Hrdy. Que las madres críen los hijos en exclusiva es un invento moderno de la era industrial y es muy dudoso que los niños estén programados para vincularse a un solo cuidador. Este énfasis en el papel de la madre puede crear preocupación y angustia en las madres al poner en ellas la presión de que cualquier cosa que hagan va a tener unas consecuencias irreparables de por vida. 

Por último, la Teoría del Apego se olvida de los genes y de la personalidad del niño. Se ha visto en estudios que la personalidad o temperamento del niño es un gran predictor de su comportamiento en la Situación Extraña y también que la heredabilidad del estilo de apego en esta prueba es del 25% debiéndose el otro 75% al ambiente no compartido. Volvemos a lo que decíamos más arriba: el apego es interactivo, no es algo que la madre hace al niño y muchas conductas de la madre pueden ser reactivas a la personalidad y conducta del niño. Niños difíciles pueden tener más dificultades para hacer el apego o una predisposición determinada. Hay un 15% de niños que crecen en un ambiente óptimo y tienen un apego inseguro-desorganizado, ¿cómo integramos esto? Pues la explicación es que algunos niños son resilientes y resisten experiencias traumáticas mientras que otros son más vulnerables y no hacen un buen apego ni en circunstancias óptimas. La Teoría del Apego no ha prestado la suficiente atención a este aspecto.

Como veíamos en la entrada dedicada a los mitos de la Infancia hay historias y narraciones que son muy queridas en nuestra cultura y son inasequibles al desaliento. Llevan siglos con nosotros y parece que no nos las vamos a quitar de encima en mucho tiempo, tal vez porque nos dan una explicación simple y fácil de entender de causas y efectos. El apego seguro lleva a cosas buenas en la vida y el apego inseguro a cosas malas, sencillo. Meternos en complicaciones como que a pesar de experiencias traumáticas tempranas la mayoría de las personas tiene un desarrollo  prácticamente normal debido a la resiliencia y a la capacidad plástica y correctora de experiencias posteriores es meternos en complicaciones y algo más difícil de entender.

PS- Los experimentos de Harry Harlow son relevantes para el tema del Apego


@pitiklinov





Referencias:




viernes, 30 de junio de 2017

Heredabilidad de los Trastornos mentales y Evolución

La búsqueda de las causas genéticas de los trastornos mentales ha pasado por diferentes etapas ligadas a los conocimientos médicos de la época, desde estudios de gemelos, de adopción, estudios de ligamiento genético (linkage) y más recientemente los estudios de GWAS (Genetic Wide Association Study). Estos estudios de GWAS hacen un barrido de todo el genoma y buscan lugares o variantes genéticas que se asocian a la enfermedad en estudio. La hipótesis en la que se basan es que variantes genéticas comunes de un efecto muy pequeño o moderado son las responsables del trastorno mental.

Sin embargo, un primer problema es que la cuestión está resultando más complicada de lo que se pensó y no se está encontrando el sustrato molecular de una heredabilidad que los estudios previos nos dicen que está ahí. El segundo problema es explicar cómo trastornos mentales que son perjudiciales para la fertilidad de los pacientes pueden pasar la criba de la selección natural que lógicamente debería eliminarlos. En esta entrada voy a comentar un artículo de Rudolf Uher, del King´s College de Londres que hace un planteamiento interesante del problema. Se centra en seis trastornos principales: Esquizofrenia, Trastorno Bipolar, Depresión Unipolar, Trastornos de ansiedad, Anorexia Nerviosa y Autismo. No incluye por ejemplo la psicopatía y la conducta antisocial porque es posible que éstas no se asocien a una desventaja reproductiva  y tampoco incluye las demencias porque ocurren ya en una etapa muy posterior a la época reproductiva y esto ya no interesa a la selección natural, por así decirlo.

Uher estudia primero la edad de comienzo de estas enfermedades y su tasa de prevalencia y la conclusión es que efectivamente afectan a individuos en edad reproductora. Después estudia si tienen una repercusión negativa en la supervivencia/reproducción. Por lo que se refiere a la supervivencia la evidencia es clara, todos los tipos de trastornos mentales se asocian a un aumento de la mortalidad por causas tanto naturales como no naturales. La más alta se da en la anorexia nerviosa y es muy alta también en esquizofrenia, T. Bipolar, autismo y depresión siendo más moderada para los trastornos de ansiedad. En cuanto a la fertilidad, se ha encontrado que las mujeres que superan una anorexia tienen una reducción 2-3 veces mayor en la tasa de maternidad y más problemas de gestación. También se ha encontrado reducción de fertilidad en Esquizofrenia y T. Bipolar pero los efectos en depresión y ansiedad son más sutiles. Hay que señalar que esta reducción de fertilidad en los trastornos mentales se ha visto que no es compensada por un aumento de fertilidad de sus familiares (lo que sería una solución al problema evolucionista) y además la reducción de fertilidad afecta también a los hijos de las personas con trastornos mentales. Así que podemos dar por demostrado que los trastornos mentales reducen la supervivencia y reproducción de los pacientes y de la siguiente generación, reducción que no se ve compensada por un aumento de fertilidad en familiares.

Pasamos ahora al tema de la heredabilidad. Estudios de gemelos indican que la mayor parte de la predisposición al autismo, T. Bipolar y esquizofrenia se debe a factores genéticos. La heredabilidad de la esquizofrenia se suele situar en el 80% y la del autismo aún mayor. Uher discute algunos problemas técnicos en los que no vamos a entrar como que los estudios de gemelos inflen algo la heredabilidad porque consideran que todos los efectos genéticos son aditivos y no tengan en cuenta la contribución de las interacciones gen-ambiente. Pero, aún descontando estos problemas nos quedaría una heredabilidad del 60%, que sigue siendo muy importante. La conclusión es que la enfermedad mental es heredable y que la persistencia en la población humana de variantes genéticas que son perjudiciales requiere explicación. Además, se da la paradoja de que los trastornos más perjudiciales son los más heredables.

Una cuestión muy importante para este problema de la explicación evolucionista de los trastornos mentales es si las variantes genéticas que se asocian a los trastornos mentales son muy antiguas o si son de origen reciente. Mientras no conozcamos las variantes moleculares exactas no podemos responder esta pregunta pero hay una manera indirecta de contestarla. Podemos deducir este dato a partir de la edad de los ancestros masculinos en el momento de la concepción de la descendencia. Por procesos estocásticos (aleatorios), surgen nuevas mutaciones a una tasa constante cada vez que se produce una división meiótica ( la que sufren las células germinales). Las células germinales femeninas sufren 24 divisiones y no se dividen más después de la pubertad. Sin embargo, las células masculinas sufren unas 23 divisiones por año y cada división aumenta el riesgo acumulativo de nuevas mutaciones. Se ha visto que el riesgo de nuevas mutaciones aumenta con la edad del padre por lo que la edad paterna es un indicador de la carga de nuevas mutaciones. Y se ha encontrado una edad paterna aumentada en dos de estos trastornos mentales: el autismo y la esquizofrenia. En el T. Bipolar la asociación con la edad paterna es moderada y en la depresión muy baja. De los otros trastornos no hay datos. La conclusión sería que mutaciones genéticas de nueva aparición podrían estar implicadas en el autismo y en las psicosis. No hay datos de la edad de los abuelos lo que nos podría informar de la contribución de mutaciones de origen reciente pero que serían heredadas de la generación anterior.

Bien, vamos a ver ahora cómo podemos explicar con la teoría de la evolución este puzzle resultante de los datos que hemos recogido hasta ahora: ¿Por qué no han desaparecido estas variantes genéticas que disminuyen la fertilidad?. Habría básicamente tres posibilidades:

1- Selección en equilibrio (balancing selection). Según esta hipótesis, una variante genética asociada a susceptibilidad para un rasgo negativo para la reproducción (como un trastorno mental) puede mantenerse en la población si se asocia también a un rasgo que sea ventajoso (por ejemplo, la creatividad). El rasgo ventajoso se expresa en un número grande de portadores del alelo pero que no expresan la enfermedad y es así propagado por estos individuos. El ejemplo clásico de este mecanismo es la anemia de células falciformes. En regiones donde hay malaria el una variante del gen de la hemoglobina produce una ventaja en sujetos heterocigóticos frente a la malaria  pero en los individuos homocigóticos da lugar a una enfermedad mortal. Estos efectos positivos y negativos se contrabalancean y la variante genética se mantiene en la población. Pero esta explicación no nos sirve para la mayor parte de trastornos mentales porque no explica por qué los trastornos mentales son maladaptativos y persistentes: la depresión persiste en ambientes en los que sería deseable una conducta más activa y motivada, la depresión bipolar no se limita a los meses de invierno, la anorexia ocurre en ambientes con abundante comida…

2- Hipótesis del desajuste (mismatch hypothesis). Esta hipótesis plantea que variantes genéticas que han sido adaptativas (o neutrales) en ambientes ancestrales durante la mayor parte de la evolución humana se asociarían ahora a trastornos mentales por cambios en el ambiente. Notemos, en relación a lo que hablábamos más arriba, que según esta hipótesis las variantes genéticas serían muy antiguas y no se trataría de nuevas mutaciones. Esta hipótesis podría funcionar para trastornos como la demencia donde el alelo APOE 4 podría haber sido adaptativo en sociedades anteriores a la agricultura asociado a un “fenotipo ahorrador” y ser perjudicial después y producir después enfermedad cardiovascular y Alzheimer. Pero este escenario tampoco nos vale para las enfermedades mentales porque ocurren en sujetos jóvenes y en ambientes ancestrales también habrían sido perjudiciales. Que los alelos fueran neutrales tampoco mejora las cosas. Keller y Miller han calculado que una reducción de la fitness de 0,003% es suficiente para que la selección natural retire el alelo de la población y la neutralidad es improbable en variantes que tengan efectos en el fenotipo. 

3- Equilibrio mutación poligénica-selección (polygenic mutation-selection balance). Un tercer mecanismo evolucionista para explicar la persistencia de variantes genéticas asociadas a reducción de fitness sería esta posibilidad que es la más simple porque acepta que las mutaciones son negativas y que están bajo selección negativa, es decir que van siendo eliminadas. Según este enfoque, la mayoría de las nuevas mutaciones son ligera o modernamente perjudiciales y se estarían eliminando continuamente a una tasa proporcional a su efecto perjudicial. La tasa de nuevas mutaciones es baja (aproximadamente 2,5 x 10-8 por nucleótido por generación). Sin embargo, como la salud mental depende de la buena funcionalidad de un número muy grande de genes y de regiones no-codificadoras el número de mutaciones que tendría que limpiar la selección natural sería muy grande y no le daría tiempo a eliminar todas las mutaciones a medida que van surgiendo. Se estima que el humano medio porta unas 500 mutaciones con efecto perjudicial sobre el cerebro. Según este modelo, la mayoría de mutaciones con efecto sobre la salud mental  serían individualmente raras (<1%) y evolutivamente recientes (<100 generaciones) y su carga combinada se asociaría a una distribución continua de susceptibilidad a la enfermedad mental. Keller y Miller dicen que esta es la explicación evolucionista más plausible para las tasas de prevalencia de las enfermedades mentales más perjudiciales para la reproducción. Y, realmente, son las enfermedades con mayor desventaja reproductiva (esquizofrenia y autismo) las que muestran datos de contribución de mutaciones nuevas, como la mayor edad paterna, asociación con anomalías cromosómicas y con variantes genéticas raras de reciente origen. Al contrario, trastornos mentales frecuentes, con menor desventaja reproductiva y que están en un continuo con la normalidad, como la depresión y la ansiedad, no se asocian a mayor edad paterna y presentan importantes variaciones regionales y temporales en su incidencia, lo que no es compatible con un mecanismo causal estocástico, como es el de las mutaciones espontáneas nuevas.

Modelo Evolucionista del origen genético de los Trastornos Mentales

Resumiendo lo tratado hasta ahora, nos quedarían dos mecanismos que pueden explicar la persistencia de trastornos mentales perjudiciales para la reproducción: el de las interacciones gen-ambiente implicando aspectos del ambiente que han cambiado (desajuste) y el del efecto acumulativo negativo de variantes de reciente origen bajo equilibrio mutación-selección. Pero ninguno de estos dos mecanismos puede explicar todos los trastornos, así que lo que hace Uher es construir un modelo que combina los dos mecanismos, como podemos ver en la figura. Lo que Uher propone es que diferentes trastornos mentales van a tener una contribución diferente de los dos tipos de etiología.

El primer mecanismo, el de la interacción entre variantes genéticas comunes y factores ambientales es compatible con una heredabilidad baja y sería la explicación de trastornos mentales comunes con una desventaja reproductiva moderada, como la depresión y la ansiedad. Una característica clave de estos trastornos es la variación regional y temporal en incidencia, como la que detectamos en la depresión y en los trastornos de alimentación. 

El segundo mecanismo implica un efecto acumulativo de múltiples mutaciones deletéreas que están bajo selección negativa pero que están todavía en el pool genético porque son de origen reciente. La característica clave de este mecanismo es su asociación con mayor edad paterna. De hecho, ya hay estudios informando de la asociación de variantes genéticas raras con el autismo y la esquizofrenia. Por contra, estas variantes genéticas raras contribuirían muy poco a la herencia de trastornos comunes como la depresión y la ansiedad, que muestran variaciones regionales importantes.

Este artículo es de 2009 y ya planteaba entonces que el modelo en el que se basan los estudios de GWAS -que los trastornos mentales se deben a muchas variantes genéticas comunes con efecto pequeño o moderado- necesitaba revisión. Y muchos estudios posteriores le han dado la razón. Quería comentar aquí dos estudios muy recientes que, aunque no se refieren a trastornos mentales directamente, nos ayudan a ir entendiendo mejor la genética de cualquier rasgo y son compatibles con esta manera de pensar que ya planteaba Uher. Uno de ellos es un estudio sobre la herencia de la inteligencia que encuentra que las personas más inteligentes tienen menos mutaciones con efecto negativo sobre la inteligencia. Dicho de manera provocadora, lo que las mutaciones genéticas aportan es “estupidez”, no inteligencia. Las personas  inteligentes los serían no por variantes genéticas que dan mayor inteligencia sino por no tener mutaciones perjudiciales que restan inteligencia. Otros trabajan van en la misma línea.

El segundo estudio (Boyle, Li y Pritchard) que acaba de aparecer es muy interesante y requiere una explicación un poco más detenida. Cuando se empezaron a realizar los estudios de GWAS una de las sorpresas fue que incluso los lugares del genoma que tenían una contribución más importante al rasgo o enfermedad que estuviéramos estudiando tenían un efecto muy pequeño y explicaban sólo una pequeña parte de la variabilidad genética. Se llegó a hablar de una heredabilidad perdida (missing heredability). El misterio se ha resuelto cuando se ha visto que variantes genéticas comunes con efectos muy, muy pequeños explican esa heredabilidad perdida. Y se ha ido descubriendo, como decía Uher, variantes genéticas raras con efectos más grandes que explican las enfermedades con mayor efecto perjudicial reproductivo, como el autismo o la esquizofrenia. Una segunda sorpresa fue que muchos rasgos complejos no se debían a mutaciones en genes que producen proteínas sino en regiones reguladoras.

Pero lo más llamativo de los estudios GWAS es que han ido encontrando que cualquier cosa que estudiemos se debe al efecto combinado de miles de genes. Vamos a verlo con el problema de la altura. Hay un estudio en marcha para el estudio de la genética de la altura, llamado GIANT, y en 2014 se informó de que 697 lugares del genoma explicaban el 16% de la variación genotípica en este rasgo. Es decir que, al final y exagerando un poco, todos los genes están implicados en todas las enfermedades: la heredabilidad de los rasgos y enfermedades complejos está distribuida ampliamente por todo el genoma. 

Para dar sentido a estas sorprendentes observaciones, Boyle, Li y Pritchard proponen lo que llaman el “modelo omnigénico”, en lugar de poligénico. Ellos plantean que la mayoría de enfermedades o rasgos están directamente causados por un número pequeño de genes específicos que influyen directamente en el mecanismo causal de la enfermedad. Llaman a estos genes los genes nucleares (core genes). Si estos genes se afectan la repercusión en la enfermedad en forma de pérdida de función será grande. Pero, como hemos comentado, los genes nucleares contribuyen sólo a una pequeña proporción de la heredabilidad y esto sería así porque las redes reguladoras celulares están altamente interconectarlas entres sí de manera que  lo que podemos llamar “genes periféricos”, que en realidad no tienen un efecto directo sobre los mecanismos causales de la enfermedad, estarían afectando o influyendo a los genes nucleares que sí tienen ese efecto directo. La paradoja del asunto es que la mayor parte de la contribución genética a un enfermedad vendría de genes que no tienen un efecto directo sobre la enfermedad. En realidad, la teoría omnigénica predice que virtualmente cualquier variante genética que tenga efectos reguladores en un tejido tendrá un efecto (pequeño) en todas las enfermedades que sean moduladas por medio de ese tejido.

De alguna manera ocurriría un fenómeno de redes de mundo pequeño a nivel celular y genético lo mismo que ocurre en el experimento del “mundo pequeño”, eso de que todos estamos relacionados con cualquier otra persona del mundo por seis grados de distancia. Este artículo de The Atlantic hace una cobertura muy buena del estudio que estoy comentando y pone un ejemplo muy sencillo que nos ayuda a entender lo que ocurriría a nivel genético. La revista The Atlantic la hacen directamente los trabajadores de la revista pero sus vidas se ven afectadas por las de sus parejas, amigos, compañeros o incluso por la de un taxista que pueda llevarte a tiempo o no a la redacción. Toda esas personas externas tienen una influencia directa en que los redactores de The Atlantic puedan hacer su trabajo periodístico, pero todas esas personas no hacen periodismo. La teoría omnigénica plantea, de igual manera, que gran número de genes influyen en una enfermedad a pesar de que no tienen una contribución relevante o directa a la misma.

La teoría de Pritchard y cols. tiene implicaciones para entender cómo se produce el cambio evolutivo dentro de cada especie y entre especies. Según este enfoque, la mayoría de los cambios adaptativos se producirían por adaptación poligénica y no por mutaciones aisladas. Es decir, las especies se adaptarían por pequeños cambios de frecuencia en muchos alelos distribuidos por todo el genoma. Por ejemplo, Pritchard y cols. estiman que unos 10.000 genes explicarían toda la heredabilidad de la altura pero bastaría un aumento de la frecuencia  en el 0,5% de los genes de “altura” para que se generara un aumento de 15 cm en la altura media.

Bueno, ha sido una entrada densa y compleja pero creo que el tema es muy interesante. Tengan o no tengan razón Uher y Pritchard y cols., me parece que sus modelos y estas nuevas formas de pensar sobre la heredabilidad nos pueden ayudar a entender un poco este mundo de la genética y de la herencia de las enfermedades que está resultando bastante más complicado de lo que se suponía. Pensábamos que cuando concluyera el Proyecto Genoma iba a estar todo solucionado y empezaríamos a resolver una enfermedad tras otra pero la realidad parece indicar que estamos todavía al principio de un largo camino que esconde muchas sorpresas.

@pitiklinov

Referencias:









lunes, 26 de junio de 2017

El suicidio no se puede predecir

En esta entrada voy a decir unas cosas y dar unos datos que no coinciden con el discurso oficial políticamente correcto sobre la prevención del suicidio. Estos datos pueden resultar chocantes para muchas personas, incluidas compañeros psicólogos y psiquiatras, por lo que quiero aclarar previamente una cuestión sobre la terminología. En la practica clínica nos podemos encontrar con personas o pacientes que tienen ideas de suicidio o que han realizado intentos autolíticos y nos interesaría saber cuáles de esas personas tienen un riesgo de realizar un suicidio en el futuro. Lo que yo voy a decir en esta entrada es que no tenemos la ciencia que nos permita realizar esa predicción y que no podemos predecir entre las personas en situación de riesgo cuál de ellas cometerá o no un suicidio. La palabra prevención tiene una utilización técnica según la cual sí podríamos decir que se puede prevenir el suicidio. Si hablamos de prevención primaria hay medidas de prevención primaria que son eficaces para reducir el suicidio en la población general, como prohibir el uso de armas, poner barreras en los puentes, etc. De lo que yo voy a hablar no es de eso sino de la capacidad de predecir el suicidio cuando tratamos una población clínica, es decir cuando estamos ya ante un paciente con ideas o actuaciones previas autolíticas. Y quiero aclarar esto porque en muchas guías se dice que el suicido se puede prevenir y están diciendo en realidad que el suicidio se puede predecir. Creo que la gente entiende prevenir por evitar que algo ocurra y considero que cuando las guías, como las que menciono en esta entrada o en esta otra, dicen cosas como que la mayoría de los pacientes avisan de su suicidio, están hablando de predecir y no están basándose para nada en datos científicos. 

Hecha esta aclaración (que no sé si ha quedado muy clara :) ) voy a resumir un artículo reciente sobre este tema que revisa toda la literatura, el de Large y cols (2017). Todas las decisiones médicas ocurren en un ambiente de incertidumbre acerca del diagnóstico, del tratamiento óptimo y del pronóstico. La incertidumbre tiene dos componentes, una incertidumbre epistémica, que resulta de la falta de conocimientos y una incertidumbre aleatoria que resulta de sucesos que ocurren por azar. Large y cols. ponen el siguiente ejemplo. Un adolescente que empieza a fumar puede o no desarrollar cáncer algún día. Pero esto es una cuestión de azar (a día de hoy, tal vez algún día tengamos marcadores genéticos o de otro tipo que nos permitan predecir), parece que un 15% de las personas que fuman desarrollarán cáncer de pulmón pero este riesgo es probabilístico y no tenemos conocimiento para llegar más lejos y reducir la incertidumbre. Sin embargo, supongamos que este adolescente desarrolla hemoptisis (expectoración de sangre) en la edad adulta. Por medio de la realización de un TAC, una biopsia u otras pruebas podemos resolver la incertidumbre, o tiene cáncer o no lo tiene, esto ya no es asunto probabilístico. En este último caso ya es una cuestión que pude ser resulta con más información, ya no es una cuestión de azar.

Pues bien, las guías y los planes de valoración del riesgo de suicidio habituales asumen que este riesgo de suicidio puede ser reducido con más información acerca de los pensamientos suicidas y los planes del paciente y atendiendo a otros factores demográficos y clínicos. Es decir, la visión imperante asume que estos factores y conocimientos van a reducir la incertidumbre epistémica. Pero también se acepta que el azar juega un papel en el suicidio: el curso de la enfermedad , la impulsividad de las decisiones, cambios en las circunstancias del paciente, etc. Vamos a ver lo que dicen los datos y al final intentamos llegar a una conclusión.

Recientemente han aparecido varios metaanálisis que revisan la literatura sobre la relación estadística entre suicidalidad y suicidio. Todos ellos ponen en duda que saber más acerca de las ideas de suicidio o la suicidalidad reduzca la incertidumbre acerca del suicidio. En 2011 aparecieron dos metaanálisis que examinaban factores de riesgo para el suicidio, uno de ellos en pacientes psiquiátricos ingresados y otro en pacientes dados de alta recientemente. Ambos encuentran que la asociación entre ideación suicida y suicidio es estadísticamente muy débil. Chapman y cols. en 2015 en otro metaanálisis encuentran que la ideación suicida se asocia significativamente con suicidio en pacientes del espectro esquizofrénico pero no en pacientes con trastornos de ánimo. Un metaanálisis de 2016 examina si las conductas y pensamientos  autolesivos son predictores de un futuro suicidio. La asociación es muy débil (OR: 2,14 de futuras autolesiones y 1,54 de futuro suicidio) y los autores concluyen que la valoración de la suicidalidad ofrece una mejora en la predicción pronóstica marginalmente superior a la suerte.

Otro metaanálisis de 2016 estudia si los factores de riesgo del individuo y las escalas de valoración de riesgo de suicidio predicen el suicidio en personas que han realizado autolesiones previas. Los autores encuentran una modesta asociación estadística entre autolesiones previas y autolesiones o suicidio posterior y concluyen que los factores de riesgo individual son de poca utilidad práctica porque son muy frecuentes en las poblaciones clínicas. Con respecto al uso de escalas de riesgo de suicidio, consideran que “pueden aportar una falsa seguridad y ser por tanto peligrosas”. Así que cinco metaanálisis recientes llegan a conclusiones similares: que conocimientos acerca de los pensamientos y conductas suicidas reducen la incertidumbre acerca de un futuro suicidio de una manera modesta.

Si preguntar por las ideas y planes suicidas no ayuda mucho al profesional de salud mental, ¿qué más podemos hacer para reducir la incertidumbre? La respuesta más obvia es que hay que considerar el mayor rango posible de otros factores de riesgo de suicidio. Hay miles de artículos que recogen factores de riesgo. El problema de esta literatura es que aunque se han identificado un gran número de factores de riesgo no hay consenso sobre cómo esta información puede mejora la predicción del riesgo. Pokorny hace más de 30 años decía: “no poseemos ningún ítem de información ni combinación de ítems que nos permita identificar de forma útil las personas concretas que cometerán suicidio, a pesar del hecho de que tenemos muchos ítems disponibles cada uno de ellos con una relación significativa con el suicidio”.

Large y cols. han publicado el año pasado un metaanálisis para estudiar este dilema que plantea Pokorny siendo su medida principal comparar pacientes con alto riesgo y pacientes con bajo riesgo, según esos factores. El resultado fue muy claro. Los pacientes de alto riesgo tienen cinco veces la tasa de suicidio de los pacientes de bajo riesgo (tener de 4 factores de riesgo en adelante ya no mejoraba la capacidad de predecir). Aunque esto parece que es útil en la clínica vamos a analizarlo. 56% de los suicidios ocurrieron en el grupo de alto riesgo y 44% en el grupo de bajo riesgo. En un periodo de seguimiento de 5 años el 5,5% de los pacientes de alto riesgo murieron por suicidio frente al 1% de los pacientes de bajo riesgo. Esta tasa de suicidio de 5,5% en 5 años significa que la probabilidad de suicidio en pacientes de alto riesgo es extremadamente baja. Esta es la clave de lo que estamos tratando en esta entrada: que la predicción del suicidio es muy difícil porque es un suceso muy poco frecuente, incluso en sujetos que tienen gran número de factores de riesgo. En términos prácticos lo que esto significa es que si tenemos a un paciente con alto riesgo de suicidio nuestra mejor capacidad de estimar la incidencia de suicido en la semana siguiente es de 1 en 4.700. Incluso si existiera un factor de riesgo hipotético que aumentar transitoriamente el riesgo de suicido en la semana siguiente 10 veces, aún así tendríamos que supervisar a 500 personas para predecir un suicidio, asumiendo que la supervisión fuera eficaz al 100%.

En cuanto al número de factores los estudios indican que aumentar el número de factores de riesgo no mejora el poder estadístico de predicción. Estudios que emplean dos factores de riesgo tienen el mismo poder predictivo que estudios que utilizan 10 o más factores. Modelos que utilizan multitud de factores no funcionan mejor que los que usan pocos factores.

En cuanto a la utilización de escalas de riesgo, tema que hemos mencionado de pasada, acaba de salir en 2017 un estudio (Quinlivan y cols) que estudia la utilidad de estas escalas en pacientes que han consultado en el hospital por actos autolesivos. La conclusión es que estas escalas funcionan peor que la valoración que hacen los clínicos o los propios pacientes del riesgo de suicidio. Por ejemplo, una de las escalas que mejor funcionó, la Manchester self-harm Rule, de 100 episodios que consideraba de alto riesgo de repetición sólo se repitieron en 30. El valor de  predicción positivo de las mejores escalas (es decir, la probabilidad de que una persona catalogada como de alto riesgo de repetición lo repitiera) fue de un 44-47%. También tienen efectos perjudiciales porque su aplicación se convierte en una rutina (una casilla que hay que marcar)  que aleja al clínico y al paciente de la realidad y disminuye su colaboración mutua. Los autores concluyen que estas escalas no deberían usarse en el manejo clínico de los pacientes.

Los resultados de todos los estudios citados coinciden en que la ideación suicida, la conducta suicida y modelos más complejos que utilizan muchos factores de riesgo ofrecen unas ventajas predictivas que son ligeramente superiores al azar. Por lo tanto, la conclusión es que nuestra incertidumbre acerca del suicidio es aleatoria, no es epistémica: conocer más no ayuda a predecir porque la incertidumbre epistémica juega sólo un pequeño papel. 

¿Y qué tienen que hacer los clínicos? Los autores del artículo creen que lo primero es que este problema fundamental con el riesgo de suicidio debe ser conocido. Debemos reconocer nuestra impotencia para clasificar a pacientes o grupos de pacientes según su riesgo futuro de suicidio. Necesitamos aceptar esto nosotros mismos y necesitamos comunicarlo a los departamentos de salud, a los tribunales y, sobre todo, a los pacientes y sus familias. 

Tenemos que proveer la mejor atención posible y si se detectan factores de riesgo que pueden ser modificados, hacerlo. Tenemos que utilizar el ingreso involuntario en caso de riesgo de suicidio muy ocasionalmente porque pocos pacientes que ingresáramos habrían realizado el suicidio si no se les ingresa. Pero si un paciente realiza amenazas inmediatas de suicido, sí puede estar indicado su ingreso. Por último, tampoco tenemos que confiarnos y negar el ingreso a pacientes de bajo riesgo porque muchos suicidios ocurren en pacientes de bajo riesgo y ya hemos visto que nuestra capacidad de adivinar el futuro es muy pobre.

@pitiklinov

Referencias:














martes, 6 de junio de 2017

EL DELIRIO DEL “SHOW DE TRUMAN”: ¿REALIDAD O FICCIÓN? Aportaciones del cine a la comprensión del primer episodio psicótico


Colaboración de Gregorio Montero González

“Buenos días… y por si no volvemos a vernos: buenos días, buenas tardes y buenas noches”
-Jim Carrey

“Aceptamos la realidad del mundo que nos presentan”
Ed Harris

Es bien conocido el interés de muchos psiquiatras y psicólogos por la literatura y el cine. Más allá de una actividad de ocio con la que disfrutar, charlar con la pareja o los amigos, algunas películas han abierto interesantes puertas en el mundo de la salud mental. Y el Show de Truman (The Truman Show, 1998), es, sin duda, un hit de los más recientes a pesar de que cumplirá los 20 años en breve. Uno de esos filmes que trasciende no solo por ser original ydecididamente, una gran película, sino por sus posibles lecturas. Donde unos ven una crítica a los excesos del mundo cinematográfico, otros van más allá y encuentran paralelismos con la sociedad actual y la política. Sin embargo, la que nos interesa, es mucho más inquietante: la historia pudiera ser real. ¿Está la sociedad llena de personajes como Truman? ¿Y si el Show de Truman estuviera siendo retransmitido 24 horas al día, 7 días a la semana, para una audiencia planetaria?

Detrás de la realidad presentada en la película, se encuentra una ventana abierta al mundo de la mente y la psicosis. Particularmente, nos puede ayudar a entender las fases prodrómicas/iniciales de la psicosis y cómo se desarrollan las ideas delirantes. Ni siquiera el mismísimo Krestchmer en su obra El delirio sensitivo de referencia habría plasmado de una forma tan gráfica la construcción de las ideas delirantes.

Todo comienza en Nueva York, año 2008. Joel Gold, psiquiatra de la clínica Bellevue y su hermano, el filósofo Ian Gold, acuñan el término síndrome de Truman o delirio del Show de Truman (The Truman Show Delusion) tras identificar que algunos pacientes presentan un tipo especial de trastorno delirante, de tipo persecutorio y referencial en el que la persona se siente el centro de un reality show. Se trata de casos excepcionales, la mayoría hombres blancos y jóvenes, como aquel chico que trató de escalar la Estatua de la Libertad convencido de que arriba del todo encontraría a su novia del instituto y podría finalmente liberarse del “show”.

Publicaron estos hallazgos y han escrito un libro acerca de cómo la cultura moldea la locura, Suspicious Minds: How Culture Shapes Madness (Free Press, 2015). Uno de sus artículos científicos más recientes sobre este tema es The "Truman Show" delusion: psychosis in the global village, publicado en la revista Cognitive Neuropsychiatry en 2012

Sin embargo, no han sido los únicos especialistas en salud mental que han hecho referencia a este cuadro. De hecho, la primera publicación científica que hizo mención a este síndrome no fue de los hermanos Gold ni de la tierra donde se rodó la película. Cruzando el charco, Paolo Fusar-Poli y Oliver Howes (King´s College, Londres) publicaron en Inglaterra el primer caso en 2008, en una carta dirigida al British Journal of Psychiatry (‘Truman’ signs and vulnerability to psychosis). Lo denominaron también Truman Syndrome. Se trataba de un varón joven que presentaba clínica similar a la de Truman: extrañeza hacia el entorno, sensación de que el mundo no era real y de que las personas eran actores. Inicialmente no fue diagnosticado de un trastorno psicótico y entró a formar parte de lo que conocemos como “en riesgo de psicosis” (“at risk mental state”). Sin embargo, posteriormente se acentuaron las ideas delirantes megalomaníacas y persecutorias y los trastornos del pensamiento, llegando a estar convencido de que era el protagonista de una película en un mundo “fabricado”. Aunque posteriormente sería diagnosticado de esquizofrenia, los autores  explican que el mayor interés de esta entidad reside en los estados prodrómicos previos a la psicosis.

En su experiencia clínica, encuentran que muchos de los individuos que consultan en fases previas a la esquizofrenia presentan una clínica similar a la que Jim Carrey protagoniza en la película y que podría explicarse en tres pasos críticos:
1)     Percepción de que la realidad ordinaria ha cambiado y adquiere un nuevo significado, inquietante e inicialmente oculto. Jim Carrey realiza una soberbia interpretación de esta fase que no es más que la denominada trema por los autores clásicos como Klaus Conrad en La esquizofrenia incipiente. Sin duda, una fase marcada por el ceño fruncido al que nos tiene acostumbrados este gran actor.
(Jim Carrey mirando al cielo tras ver caer un extraño objeto “de la nada”)


2)     Posteriormente, el sujeto inicia los movimientos para buscar las respuestas y el sentido de esta nueva realidad,  las “explicaciones de Truman”. Nuevamente, Conrad se adelanta al filme. Seguiríamos en la fase de trema, en un momento en el que se producen las denominadas conductas sin sentido. Si recordáis la película, Truman se pasa media película haciendo literalmente “el loco” y vagabundeando, aunque aún no ha elaborado una explicación de lo que ocurre. Otros autores han denominado a esta fase o a este proceso “chequeo de realidad” (reality check), muestra de que el sujeto ha perdido la sensación de familiaridad con el mundo, que cada vez le resulta más extraño e inquietante. Una imagen vale más que mil palabras, y una actuación de Jim Carrey, más que mil imágenes.

(Truman parando un autobús para probar que tiene una especie de “nuevos poderes”)

                  
3)     La tercera y última fase que describen en este desarrollo del cuadro psicótico supone la eclosión de la psicosis, una miríada de fenómenos extraños en forma de tsunami: profunda alteración de la experiencia subjetiva y de la conciencia de uno mismo, fases de despersonalización y desrealización, pérdida de la fluidez en el sentido de la identidad, “desincorporación” con establecimiento de una nueva relación con el cuerpo físico (disembodiment) y distorsiones del torrente de la conciencia (stream of consciousness, hecho del que se han hecho eco también en otros ámbitos como el musical, y que por ejemplo da título a una de las canciones más famosas del grupo de rock progresivo Dream Theater). Se corresponde con las restantes fases descritas por Conrad: apofanía, anastrofé, apocalipsis y residuo.

La apofanía es la fase en la que se suceden fenómenos de percepción e interpretación delirante (fenómenos cotidianos adquieren un nuevo significado, usualmente muy poderoso, inquietante y dirigido hacia el sujeto). También se “descubren” patrones escondidos, que resultan incongruentes, ilógicos…De forma más reciente, este último fenómeno se ha definido como jumping to conclusions (“salto a las conclusiones”), definiendo gráficamente un proceso cognitivo anómalo por el cual, partiendo de hechos simples, se alcanzan conclusiones irracionales sin pasar por la cadena lógica de razonamiento y se sostienen con una rigidez propia únicamente del delirante. También en esta fase se producen las alucinaciones auditivas, sonorización del pensamiento, percepciones delirantes y fenómenos de influencia del pensamiento. Estaríamos hablando del primer episodio psicótico en toda su plenitud, la ruptura con la realidad externa e interna previa y la apertura hacia una nueva realidad.

Las restantes fases descritas por Conrad también aparecen en la película. Anastrofé, fase en la que se invierte el sentido de lo que sucede, dirigiéndose todo hacia el sujeto (auto referencialidad) y adquiriendo un carácter paranoide, persecutorio.

(En una de las imágenes más inquietantes de la película, Truman descubre que solo llueve encima de él…)


La siguiente fase, Apocalipsis, se caracteriza por una pérdida intensa de la energía, motivación y capacidad de disfrute del sujeto. Conrad lo explica como una consecuencia del barrido que ocasiona la eclosión de la psicosis, como un huracán que azota a la persona y a la conciencia que tiene de sí mismo y del mundo. Truman también pasa por este proceso en el filme.

Incluso la fase de residuo o encapsulamiento aparece durante unos minutos en la película, cuando Truman parece olvidar lo que ha ido “descubriendo” y vuelve aparentemente a su vida normal. Cosa que no dura mucho tiempo…
(Truman intenta salir del pueblo y es incapaz porque se suceden fenómenos extraños)


Un artículo más reciente, The Phenomenology and Neurobiology of Delusion Formation During Psychosis onset: Jaspers, Truman Symptoms, and Aberrant Salience, publicado en 2013 nada menos que en Schizophrenia Bulletin, expone las relaciones entre las descripciones de Jaspers y Conrad con el “Delirio del Show de Truman”, centrado en las fases iniciales de la psicosis y explicando la enormeimportancia de la saliencia en elorigen de lo que llamamos psicosis.

En definitiva, el “Delirio del Show de Truman” no es un nuevo diagnóstico, ni siquiera se trata de un paradigma tan novedoso a la vista de los autores clásicos que describieron cuadros con características muy similares, como Jaspers, Conrad y Kretschmer. La diferencia radica en el contenido (ser protagonista de un reality show). Se trata de una variante de los trastornos psicóticos ya conocidos, particularmente el trastorno por ideas delirantes (paranoia) y esquizofrenia paranoide. Sin embargo, por su valor gráfico y por tratarse probablemente de una de las películas que mejor escenifica las fases prodrómicas e iniciales de la psicosis, merece la pena una “revisita”, como dicen los anglosajones, y reservar un hueco para volver a disfrutar de esta gran película con esta nueva perspectiva, una perspectiva delirante… ¿O no?


Colaboración de Gregorio Montero González