14 septiembre, 2017

Neuroimágenes y psiquiatría: una visión crítica *




Comenzaremos citando el siguiente párrafo de un artículo científico de 1985:
  
“Cinco nuevas técnicas de imagen -tomografía computarizada, mapeo de actividad eléctrica cerebral, técnicas de flujo sanguíneo cerebral, tomografía por emisión de positrones y resonancia magnética nuclear- son prometedoras para profundizar el conocimiento de la fisiopatología, el diagnóstico y el tratamiento de pacientes psiquiátricos” (1).

Tres décadas después podemos leer las siguientes publicaciones del 2016:

“Los recientes avances en la adquisición y análisis de datos de las neuroimágenes sostienen la promesa de mejorar la capacidad de hacer diagnósticos y predicciones pronósticas y planificar el tratamiento de los trastornos neuropsiquiátricos” (2).

“La neuroimagen estructural en la investigación de la psicosis no ha llevado todavía a las aplicaciones clínicas que se previeron” (3). 

Estas citas representan dos opiniones actuales sobre el rol de las neuroimágenes en la psiquiatría: una que sigue prometiendo grandes logros y la otra que admite no haber cumplido las promesas que se hicieron antes. La presente exposición brindará un punto de vista crítico sobre el uso de las neuroimágenes en la psiquiatría, reconociendo sus valiosos aportes a la investigación neurocientífica, pero también sus limitaciones, para no caer en discursos grandilocuentes ni pretensiones carentes de sustento, como sucede con cierta frecuencia.

Hay quienes promueven el uso de las neuroimágenes para el diagnóstico y tratamiento, no solo de diversos trastornos mentales, sino también de situaciones tales como conflictos conyugales, como proclama la web de Amen Clinics:


Otros han llegado a proponer el uso de las imágenes cerebrales para detectar corruptos en potencia, en aras de una utópica "neurodemocracia":


Cabe preguntarse: ¿es así realmente? ¿podemos detectar conflictos de pareja o futura corrupción con las técnicas de imagenología? ¿son el bien y el mal ubicables en un sitio cerebral? Es más, ¿las neuroimágenes nos permiten ver el cerebro funcionando directamente, tal como parecieran creer muchos?

Debemos mencionar previamente que hay dos tipos de neuroimágenes: las estructurales, que muestran básicamente la arquitectura del sistema nervioso, y las funcionales, que intentan detectar cambios asociados a la función neuronal.


Asimismo, debemos recordar que las neuroimágenes han venido ofreciendo las siguientes contribuciones en el campo de la psiquiatría:

  • Detectar trastornos neurológicos que se manifiesten con síntomas mentales (diagnóstico de descarte).
  • Descubrir la fisiopatología de los trastornos psiquiátricos.
  • Detectar directamente trastornos psiquiátricos. 
  • Diferenciar trastornos psiquiátricos entre sí
  • Detectar población vulnerable para desarrollar trastornos mentales.
  • Detectar simulaciones.
  • Predecir el curso de los trastornos psiquiátricos.
  • Evaluar la eficacia de los tratamientos psiquiátricos

De todos estos ofrecimientos, hasta la actualidad solo se ha cumplido de manera indiscutible con el primero, como puede verse en las siguientes imágenes estructurales de un tumor cerebral y de un caso de esclerosis múltiple, respectivamente:


Existen de todos modos imágenes supuestamente representativas de diferentes trastornos mentales, las mismas que suelen aparecer en publicaciones científicas y, por supuesto, también en la web de Amen Clinics:


No obstante, la especificidad de estas imágenes ha sido cuestionada. Por ejemplo, en el caso de la esquizofrenia, es verdad que la mayoría de artículos han reportado un patrón de hipofrontalidad (4,5), pero hay otros que no han encontrado diferencias entre entre la actividad cerebral anterior y la posterior (6,7), y existen algunos que han descrito inclusive hiperfrontalidad (8,9). Por otro lado, algunos estudios no han hallado diferencias imagenológicas entre la depresión primaria y la depresión asociada a patologías neurológicas como la enfermedad de Parkinson, la corea de Huntington y el accidente cerebrovascular (10-12).


Por su parte, la activación de la amígdala cerebral ha sido asociada generalmente con diferentes trastornos de ansiedad (13,14), pero también hay reportes que la relacionan con depresión mayor (15), trastorno bipolar (16), esquizofrenia (17) y trastornos de la personalidad (18,19).

Existen también descripciones de imágenes asociadas a estados emocionales no patológicos, tales como la tristeza, la alegría, la ira, etc. e inclusive a situaciones como la meditación, todo lo cual plantea interrogantes como: ¿son los patrones imagenológicos específicos de trastornos mentales o solo el reflejo de estados emocionales transitorios? ¿podemos utilizar las neuroimágenes para dar "neurorealismo" -siguiendo el término propuesto por Racine- (20) a los diagnósticos psiquiátricos, o la condición de patología no puede determinarse solo por la base biológica sino adicionalmente por factores de otra índole?


Volveremos ahora a la pregunta planteada previamente: ¿las neuroimágenes nos permiten ver directamente el cerebro funcionando? La respuesta es no. En realidad, las neuroimágenes funcionales miden la actividad hemodinámica o metabólica asociada a la actividad neuronal. Más específicamente, lo que se conoce como la señal BOLD (blood oxygenation level-dependent), que es una forma de cuantificar la cantidad de hemoglobina desoxigenada, y parámetros metabólicos como el CRMG (cerebral metabolic rate for glucose), que es una medida del consumo de glucosa a nivel cerebral. Dichas medidas son procesadas por programas informáticos, que analizan los datos en base a unidades denominadas vóxeles (el equivalente tridimensional de los píxeles) y generan las imágenes coloreadas que hemos visto.

Para que dicho proceso sea válido, deben asumirse los siguientes supuestos:
  • El programa informático funciona con un mínimo de errores.
  • Toda actividad hemodinámica o metabólica detecta una actividad neuronal.
  • Toda actividad neuronal genera una actividad hemodinámica o metabólica.
  • Activación indica estimulación y no activación indica inhibición. 
  • La actividad neuronal indica la localización de la conducta o sensación que se pretende evaluar.
  • Toda conducta o sensación es localizable.
Veremos si estos supuestos se cumplen realmente.

En primer lugar, algunos autores han cuestionado los métodos estadísticos utilizados para analizar las investigaciones imagenológicas. Abajo, por ejemplo, podemos ver un estudio del 2009 (21) que evaluó la respuesta a un test cognitivo, detectando la activación de determinadas áreas cerebrales. Lo anecdótico del caso es que el sujeto de investigación fue un salmón, y por añadidura, muerto. De este modo poco convencional los autores demostraron el riesgo de hallar falsos positivos con determinados métodos estadísticos.


Otra publicación del 2009 (22) observó que algunos de los estudios de neuroimágenes mostraban índices de correlación excesivamente elevados, lo cual fue atribuido por los autores a un error estadístico conocido como análisis no independiente, que consiste en hacer primero un análisis selectivo de las zonas activadas y luego un análisis de los resultados del mismo conjunto de datos, pero solo en las áreas seleccionadas, lo que constituye una forma de análisis circular. Esto ha sido después refutado, y las refutaciones a su vez contrarrefutadas, por lo que el debate ha continuado.



En segundo lugar, se sabe que existen algunos factores que influyen en la respuesta BOLD. Uno de ellos es el nivel de CO2. Por ejemplo, otra investigación del 2009 (23) midió la señal BOLD, es decir el consumo neuronal de O2, en personas que contenían la respiración durante 15, 30 y 45 segundos. Se vio entonces que en todas había primero un descenso de la señal BOLD pero luego un incremento, que era mayor cuanto más tiempo se contenía la respiración, como se ve en el gráfico. Se sabe también que otros factores influyen en la señal BOLD, como son el tabaco, el alcohol, los estimulantes, la edad y las enfermedades cerebro vasculares. De tal modo que, si bien la señal BOLD generalmente se correlaciona con la actividad neuronal, no es una medida directa, y puede verse afectada por diversos factores.


En tercer lugar, dentro de los microcircuitos neuronales se dan mecanismos de excitación e inhibición, que pueden tener un balance neto excitatorio o inhibitorio dependiendo de cuál predomine. Y esto no necesariamente se correlaciona con la activación o desactivación en términos de señal BOLD. Por ejemplo, en la imagen de abajo (24) podemos ver, primero una activación tanto de las neuronas excitatorias como inhibitorias, incrementando el consumo de O2 y por lo tanto, dando una señal BOLD positiva, aunque el balance neto sea neutro; en el segundo caso no hay una activación, por lo que no hay una señal BOLD, y el balance también es neutro; en el tercero sí hay una correspondencia entre activación y excitación, pues el balance se inclina hacia la excitación, y en el cuerto tenemos un balance neto hacia la inhibición, que podría llevar hacia un consumo menor de O2, pero esto es variable. Por lo tanto, una activación en la imagen funcional no necesariamente revelaría un efecto neto excitatorio.


Revisaremos finalmente el concepto de localización, que como hemos visto, es una de los supuestos básicos de las neuroimágenes. Cuando hablamos de manifestaciones físicas, puede haber una correlación clara entre lesión y síntoma o signo. Por ejemplo, una tuberculosis pulmonar suele producir tos, y esto no depende de variables culturales ni psicológicas, por lo que la tos tuberculosa se presenta igual en el Perú, en Botswana o en Lituania. Del mismo modo, si nos referimos al sistema nervioso, un tumor cerebral suele generar convulsiones, dependiendo de la localización, también sin importar la cultura, el idioma o la religión de la víctima. Pero la situación no es exactamente igual cuando nos referimos a los síntomas mentales. Si bien no puede negarse que toda conducta o sensación tienen su origen en el cerebro, la manifestación de ese origen cerebral, o elemento biológico -según el modelo de abajo, planteado por Marková y Berrios (25)-, no se expresa de manera directa, sino que pasa por un elemento semántico, y este elemento semántico tiene que ver con la forma como el individuo refiere la sensación interna. Esto depende de las experiencias previas, de la cultura y del repertorio lingüístico de la persona, y también del marco conceptual de quien escucha a esa persona y lo traduce al lenguaje especializado. De tal modo que un mismo elemento biológico, que puede ser una lesión, un desequilibrio de neurotransmisores, etc, puede dar lugar a dos síntomas mentales en diferentes personas, o a la inversa, dos elementos biológicos pueden dar la misma manifestación en personas distintas, dependiendo del elemento semántico. Esto lleva a que la tarea de localización cerebral de los síntomas mentales sea algo complejo y no tan directo e inequívoco como a veces lo presentan los estudios de neuroimágenes. 



En suma, no se ha planteado el descarte de la investigación neuroimagenológica, pero sí hemos visto que hay cuestionamientos que tienen que ver con los análisis estadísticos, con las técnicas empleadas y con los conceptos mismos de localización cerebral, que deberían llevar a una visión más realista y prudente de los alcances de esta tecnología, y a evitar falsas promesas y usos inadecuados en la práctica cotidiana de la psiquiatría. 


Referencias

  1. Brown RP, Kneeland B. Visual imaging in psychiatry. Hosp Community Psychiatry. 1985; 36 (5): 489-96.
  2. O'Halloran R, Kopell BH, Sprooten E, Goodman WK, Frangou S. Multimodal Neuroimaging-Informed Clinical Applications in Neuropsychiatric Disorders. Front Psychiatry. 2016; 7: 63. 
  3. Fusar-Poli P, Meyer-Lindenberg A. Forty years of structural imaging in psychosis: promises and truth. Acta Psychiatr Scand. 2016; 134 (3): 207-224. 
  4. Buchsbaum MS, Ingvar DH, Kessler R, Waters RN, Cappeletti J, Van Kammen DP, King AC, Johnson JL, Manning RG, Flyn RW, Mann LS, Bunney Jr. WE, Sokoloffe L. Cerebral glucography with positron emission tomography: Use in normal subjects and in patients with schizophrenia. Arch Gen Psychiatry. 1982: 39: 251-259. 
  5. Vita A, Bressi S, Perani D, Invernizzi G, Giobbio GM, Dieci M, Garbarini M, Del Sole A, Fazio F. High-resolution SPECT study of regional cerebral blood flow in drug-free and drug-naive schizophrenic patients. Am. J. Psychiatry. 1995; 152 (6): 876–882.
  6. Sheppard G, Manchanda R, Gruzelier J, Hirsch SR, Wise R, Frackowiak R, Jones T. 15O-Positron emission tomography scanning in predominantly never treated acute schizophrenics. Lancet. 1983; 2: 1448–1452.
  7. Early TS, Reiman EM, Raichle ME, Spitznagel L. Left globus pallidus abnormality in never-medicated patients with schizophrenia. Proc Natl Acad Sci USA. 1987; 84 (2): 561–563.
  8. Cleghorn JM, Garnett ES, Nahmias C, Firnau G, Brown GM, Kaplan R, Szechtman H, Szechtman B. Increased frontal and reduced parietal glucose metabolism in acute untreated schizophrenia. Psychiatry Res. 1989; 28 (2): 119-133.
  9. Ebmeier KP, Lawrie SM, Blackwood DH, Johnstone EC, Goodwin GM. Hypofrontality revisited: a high resolution single photon emission computed tomography study in schizophrenia. J Neurol Neurosurg Psychiatry. 1995; 58 (4):  452–456.
  10. Mayberg HS, Starkstein SE, Sadzot B, Preziosi T, Andrezejewski PL, Dannals RF, Wagner HN Jr, Robinson RG. Selective hypometabolism in the inferior frontal lobe in depressed patients with Parkinson's disease. Ann Neurol. 1990; 28 (1): 57-64.
  11. Mayberg HS, Starkstein SE, Peyser CE, Brandt J, Dannals RF, Folstein SE. Paralimbic frontal lobe hypometabolism in depression associated with Huntington's disease. Neurology. 1992; 42 (9): 1791-1797.
  12. Mayberg HS. Functional imaging studies in secondary depression. Psychiatr Ann. 1994; 24 (12): 643-647.
  13. Etkin A, Wager TD. Functional neuroimaging of anxiety: a meta-analysis of emotional processing in PTSD, social anxiety disorder, and specific phobia. Am J Psychiatry. 2007; 164 (10):1476-88.
  14. Shin LM, Liberzon I. The neurocircuitry of fear, stress, and anxiety disorders. Neuropsychopharmacology. 2010; 35 (1):169-191. 
  15. Gotlib IH, Hamilton JP. Neuroimaging and depression: Current status and unresolved issues. Current Directions in Psychological Science. 2008; 17:159–163.
  16. Keener MT, Phillips ML. Neuroimaging in bipolar disorder: A critical review of current findings. Current Psychiatry Report. 2007; 9: 512–520.
  17. Berman K, Meyer-Lindenberg A. Functional brain imaging studies in schizophrenia. In: Charney D, Nestler E (ed). Neurobiology of Mental Illness. New York: Oxford University Press, 2004.
  18. Donegan NH, Sanislow CA, Blumberg HP, Fulbright RK, Lacadie C, Skudlarski P, Gore JC, Olson IR, McGlashan TH, Wexler BE. Amygdala hyperreactivity in borderline personality disorder: implications for emotional dysregulation. Biol Psychiatry. 2003; 54 (11): 1284-1293.
  19. Wahlund K, Kristiansson M. Aggression, psychopathy and brain imaging: Review and future recommendations. International Journal of Law and Psychiatry. 2009; 32: 266–271.
  20. Racine E, Bar-Ilan O, Illes J. fMRI in the public eye. Nat Rev Neurosci. 2005; 6 (2): 159-164.
  21. Bennett CM, Baird AA, Miller MB, Wolford GL. Neural correlates of interspecies perspective taking in the post-mortem Atlantic Salmon: An argument for multiple comparisons correction. University of California.
  22. Vul E, Harris C, Winkielman P, Pashler H. Puzzlingly high correlations in fMRI studies of emotion, personality, and social cognition. Perspect Psychol Sci. 2009; 4 (3): 274-90.
  23. Haller S, Bartsch AJ. Pitfalls in fMRI. Eur Radiol. 2009; 19: 2689-2706.
  24. Logothetis NK. What we can do and what we cannot do with fMRI. Nature. 2008; 453: 869-878.
  25. Marková I, Berrios GE. Neuroimaging in psychiatry: Epistemological considerations. In: Zachar E, et al (ed). Alternative Perspectives on Psychiatric Validation DSM, ICD, RDoC and Beyond. Oxford University Press 2015: 112-127.

Publicaciones relacionadas


* Tema presentado en el XXIV Congreso Peruano de Psiquiatría, el 2 de septiembre del 2017.

26 enero, 2017

Aspectos históricos de la violencia *




En este video puede escucharse una transmisión de Radio-Télevision Libre des Milles Collines (RTML) de Ruanda, en la cual, en medio de una música festiva, se insta al exterminio de la etnia tutsi por parte de la etnia hutu. Como consecuencia, entre abril y julio de 1994 fueron asesinadas aproximadamente 800 mil personas en dicho país, uno de los peores genocidios del siglo XX. Este hecho sirve como introducción para plantearse las dos preguntas siguientes, que serán el eje de esta presentación:
  1. ¿El ser humano es "esencialmente" pacífico o violento?
  2. ¿La violencia humana ha ido aumentando o disminuyendo a lo largo de la historia?
El tema de la naturaleza intrínseca del ser humano no es novedoso, y dos eminentes pensadores plantearon la disyuntiva previamente:


Thomas Hobbes, en el siglo XVII, defendió la idea de la naturaleza violenta y egoísta del hombre, que debía ser subyugada por un poder absoluto, resumiendo este planteamiento en la famosa frase homo homini lupus, de origen romano. Por su parte, en el siglo XVIII, Jean Jacques Rousseau expuso la hipótesis del bon sauvage, según la cual el hombre en su estado primigenio es bondadoso, y es más bien la civilización la culpable de corromperlo. ¿Cuál es la verdad?

En cuanto al supuesto incremento de la violencia a lo largo del tiempo, la incesante difusión de noticias alarmantes en la prensa escrita y televisiva genera la impresión de un mundo inmerso en una vorágine de violencia brutal e incontrolable. Sin embargo, si retrocedemos en el tiempo, descubriremos que las noticias sensacionalistas no son patrimonio de nuestros tiempos, y que en el siglo XIX también un sector de la prensa se regocijaba con la miseria humana.




Prensa del siglo XXI (en español y en inglés)


La historia misma de la humanidad está repleta de acontecimientos violentos, llámense guerras, revoluciones, conquistas o genocidios, sean inspirados por la "verdad revelada" de las religiones, por reivindicaciones territoriales alentadas por nacionalismos exacerbados, o por la necesidad de ampliar los mercados. Por supuesto que "la razón", "la verdad" o "la justicia" siempre inspiran a los bandos contendientes, y difícilmente uno de ellos se atribuye el rol del "malo".

Hay quienes predican el retorno a la religiosidad como un bálsamo para reencontrarnos con la paz perdida en estos tiempos violentos, caracterizados por una "falta de valores". Pero si revisamos los mismos textos sagrados, encontraremos pasajes que no estimulan precisamente a la mansedumbre. Por ejemplo: “Pero en las ciudades de estos pueblos que el Eterno tu Dios te da por heredad, no dejarás con vida a ninguna persona. Los destruirás completamente, como el Eterno tu Dios te ha mandado” (Deuteronomio 20: 16-17). O también: “Infundiré el terror en los corazones de quienes no crean. ¡Cortadles el cuello, pegadles en todos los dedos!” (Corán 8: 12). Y nuevamente la historia nos revela que muchas guerras tuvieron a la religión como leitmotiv.



La dominación de los pueblos originarios de América por los europeos fue llevada a cabo bajo el argumento de la difusión de la palabra de Dios, y no fue precisamente pacífica. Dibujo de Guamán Poma de Ayala.



Lo cual tampoco debe llevarnos a pensar en un paraíso pre-hispánico, como lo demuestra este grabado de la cultura Sechín.

Podría decirse de todos modos que la violencia siempre existió, pero ahora es peor que nunca. ¿Es así realmente? Algunos datos parecerían indicar lo contrario:


En esta tabla se muestran los peores conflictos bélicos desde el año 500 a.C. hasta el año 2000 d.C., según la cantidad de muertos. Exceptuando por las dos guerras mundiales, la letalidad de los conflictos pareciera haber ido en declive a lo largo de los siglos.



Aquí se exponen las cifras de muertos en guerras desde 1940 hasta el año 2000, y nuevamente se aprecia un descenso.

Si analizamos las tasas de homicidios individuales, también la tendencia parece ser hacia la disminución, como muestra esta tabla de los últimos 800 años.




Estos mapas de Europa comparan las tasas de homicidios en 1880 y en el 2000, notándose una disminución de aquellos países con tasas mayores de 5 por 100 mil personas.


Aquí podemos ver datos de México, que también revelan una notable reducción en las cifras de homicidios, desde 1931 hasta el 2015.

En el Reino Unido, si bien hubo un notable incremento del crimen en la década de 1990, desde entonces la disminución es innegable.


También la violencia de estado pareciera haber disminuido, como lo muestran estos datos de países donde se ha abolido la tortura judicial (por lo menos oficialmente), desde 1650 hasta 1850. Obviamente la tortura existe aún y a escala nada despreciable, pero comparativamente estaría en declive.

Inclusive los abusos contra los niños se habrían reducido durante los últimos 25 años, según esta tabla. Nadie se atrevería a decir que ya no existen abusos, solo que aparentemente suceden menos que antaño.


Steven Pinker: Sobre el mito de la violencia

Se han planteado las siguientes explicaciones para esta supuesta disminución de la violencia humana a lo largo de la historia:
  1. Desvalorización de la violencia. Probablemente las conductas violentas no tengan en la actualidad la misma valoración que siglos atrás, cuando las justas, duelos, esclavitud, castigos físicos y ejecuciones públicas eran no solo tolerados, sino hasta fomentados.
  2. Monopolio estatal de la violencia. La constitución de los estados durante la edad moderna habría llevado a que la población tienda a delegar el ejercicio de la justicia a las autoridades, y evite en lo posible aplicarla directamente. Por supuesto que el estado puede también ejercer una violencia brutal y despropocionada, pero las cifras parecen demostrar que, de todos modos, la violencia disminuye con este sistema.
  3. Globalización. La interconexión mundial propicia que las distintas culturas se conozcan entre sí y puedan desarrollar una visión más tolerante hacia quienes, otrora, podrían haber sido blanco de recelos, disminuyendo el efecto de los discursos xenofóbicos y fundamentalistas.
  4. Redefinición de la violencia. Muchos actos que antes se tomaban como normales o mínimamente censurables, ahora son descalificados y denunciados como comportamientos intolerables para una sociedad civilizada, dando la impresión de un incremento en la frecuencia de los mismos. Esto es particularmente notorio en la violencia contra las mujeres y contra los niños (la obra "Tras la tragedia, el sainete", de Ricardo Palma, expone claramente cómo era la visión del castigo físico en las escuelas del siglo XIX).
  5. Ampliación de la empatía. Con el transcurso del tiempo se estaría dando una ampliación del círculo de aquellos que se consideran dignos de nuestra empatía y solidaridad, y por lo tanto, no merecedores de actitudes violentas. Este círculo se limita inicialmente a la propia familia, luego al clan o tribu, a toda la nación o a los miembros de la misma "raza", luego a toda la humanidad, y finalmente podría llegar a incluir a otras especies. Estas ideas fueron planteadas por Peter Singer en su obra "El círculo en expansión". 

El círculo en expansión (basado en Singer P. The expanding circle).

Sin embargo, los datos presentados han sido objeto de controversia. Quienes los objetan, argumentan lo siguiente:
  1. Existen otras formas de violencia, que no son tomadas en cuenta al hacer tales estadísticas. Por ejemplo, la violencia económica.
  2. Hay consecuencias indirectas de la violencia que tampoco son medidas con datos tales como el número de muertos. Entre ellas están las pérdidas económicas, los desplazamientos, el sufrimiento que generan los conflictos bélicos, etc.
  3. Los datos estadísticos actuales no son necesariamente comparables con los de hace siglos.
  4. Los datos estadísticos reflejan casi exclusivamente la realidad de Europa y Norteamérica, no siendo necesariamente extrapolables a otros continentes.


Palestina en el siglo XXI. El impacto económico y psicológico de la violencia bélica no siempre se toma en cuenta en las estadísticas.

De todos modos, hay factores conocidos que incrementan la posibilidad de que sucedan hechos violentos:
  1. Tolerancia hacia la violencia. El considerar un acto violento como normal, o por lo menos tolerable, propicia que se perpetúe. Por eso se considera la impunidad como un factor fuertemente alentador de comportamientos agresivos. Como se mencionó antes, esto ha sido claro en la violencia contra las mujeres y los niños. 
  2. Fomento de la violencia. Aquí cobran importancia los denominados discursos de odio, es decir, aquellos que fomentan la discriminación o crueldad contra otros. Ejemplos paradigmáticos son la ideología nacionalsocialista en Alemania, la difusión radial que propició el genocidio de Ruanda (mencionado al inicio) y los discursos homofóbicos que hasta hoy forman parte de las declaraciones oficiales de algunos países. En el Perú se vivió una época de extrema violencia entre los años 1980 y 2000, que enfrentó a los grupos subversivos Partido Comunista del Perú - Sendero Luminoso y Movimiento Revolucionario Túpac Amaru, contra las Fuerzas Armadas, siendo todos responsables de graves violaciones contra los derechos humanos, como dejó constancia el Informe Final de la Comisión de la Verdad y Reconciliación. Se citan como ejemplos de discursos que fomentan la violencia los siguientes: “El pueblo se encabrita, se arma y alzándose en rebelión pone dogales al cuello del imperialismo y los reaccionarios, los coge de la garganta, los atenaza; y, necesariamente los estrangula, necesariamente” (Abimael Guzmán Reynoso, líder del PCP-SL). “Destrucción de la Organización Político-Administrativa Local. Es una operación policial dirigida, para eliminar a los miembros de la Organización Político-Administrativa. (…) En esta operación se tendrá en cuenta que el Jefe y los miembros más destacados de la Organización Político-Administrativa local se hallan demasiado comprometidos en la subversión para que pueda esperarse de ellos un cambio” (Manual de Ejército Guerra no Convencional Contrasubversión ME 41-7).
  3. Polarización. Una sociedad dividida entre dos bandos que se atribuyen mutuamente la iniquidad absoluta, es terreno propicio para la violencia; cada grupo ve en el otro la maldad personificada y ningún atributo positivo, por lo cual su aniquilamiento se considera plenamente justificado, no habiendo lugar para posiciones intermedias ("estás de mi lado o en mi contra"). Durante el periodo de conflicto interno vivido en el Perú (1980-2000), muchas poblaciones se vieron atrapadas entre el fuego del terrorismo subversivo y la represión indiscriminada de las fuerzas armadas.
  4. Sensación de inequidad, injusticia o victimizacion. Los discursos de odio muchas veces surgen cuando un grupo se autopercibe como víctima de injusticias y postergaciones ancestrales, generándose un resentimiento progresivo que en algún momento puede estallar con toda la ferocidad contenida.
  5. Percepción del otro como diferente. Cuanto más distinto se perciba al otro, más probable es que se ejerza la violencia. Por eso el interactuar con personas de culturas diferentes puede facilitar el establecimiento de lazos de empatía, que disminuyen la posibilidad de actos agresivos.
  6. Miedo. Ante una situación percibida como amenazante, los individuos puede optar por la huida o la defensa. De esta forma, muchos actos de extrema violencia han obedecido al miedo a ser a su vez, víctimas de los otros. Los discursos de odio muchas veces inventan enemigos o exageran su peligrosidad para propiciar la violencia.
  7. Obediencia a la autoridad. La tendencia natural a seguir a un líder puede llevar a que personas habitualmente pacíficas se comporten de manera inusitadamente sanguinaria. Este fue el argumento principal de los acusados por crímenes contra la humanidad durante los Juicios de Nürenberg (befehl ist befehl: "órdenes son órdenes"), y también por los militares argentinos culpables de violaciones contra los derechos humanos durante la dictadura del periodo 1976-1983, que se ampararon en la Ley de Obediencia Debida, posteriormente derogada. 



Foto de Martín Chambi. Probablemente ahora se describa al policía como un abusivo, pero quizás hace un siglo era percibido como un agente del estado propinando un justo castigo al ladronzuelo. Cabe recordar que en los colegios de antaño, el castigo físico era lo habitual.




Propaganda de Coñac Soberano, hoy considerada como inaceptablemente machista.



Imagen que se encuentra en el Museo de la Memoria de Ayacucho, Perú. Representa la situación de la población andina durante el conflicto armado del periodo 1980-2000, entre el fuego del terrorismo subversivo ("rojo") y la represión indiscriminada de las Fuerzas Armadas ("verde").




Datos del Informe Final de la Comisión de la Verdad y Reconciliación del Perú, los cuales demuestran que la mayor parte de las víctimas de la violencia del conflicto armado 1980-2000 fueron campesinos quechuahablantes, percibidos como extraños, como no-miembros de la ciudadanía.





La mayor parte de países sudamericanos lamenta la supuesta pérdida de grandes extensiones territoriales, algunos con mayor sustento histórico que otros, lo cual ha generado múltiples conflictos bélicos a lo largo de los últimos 2 siglos. Fuente: https://www.taringa.net/post/info/18776601/Los-9-paises-sudamericanos-que-mas-territorio-han-perdido.html



En el caso particular del diario peruano "La Razón", se incita constantemente una irresponsable campaña de odio contra Chile, basada en atizar el miedo y el rencor por una guerra perdida hace más de un siglo.



"El nacimiento de una nación" (1915) es una película de contenido profundamente racista que fomentó el rechazo hacia la población afroamericana, presentada como embrutecida y amenazante contra los "verdaderos americanos", favoreciendo además el renacimiento del Ku Klux Klan. Un ejemplo de cómo se puede facilitar la violencia al generar temor y percibir al otro como esencialmente diferente.



Afiches propagandísticos, el primero de la Alemania Nacionalsocialista y el segundo de los Estados Unidos durante la II Guerra Mundial. Ambos desfiguran a un grupo étnico-racial (judíos y japoneses, respectivamente) hasta la monstruosidad, fomentando el miedo, el desprecio, la falta de empatía y, en consecuencia, la violencia.



En la navidad de 1914, los soldados alemanes y británicos hicieron un alto al fuego y compartieron un momento de festividad, jugaron un partido de fútbol y se tomaron varias fotografías. Esto pudo suceder cuando notaron que tenían mucho en común y no eran tan diferentes como probablemente les había hecho creer la propaganda bélica. Los altos mandos militares de ambas partes desaprobaron este encuentro y no volvió a suceder algo parecido hasta el final de la I Guerra Mundial.

Volviendo a la primera de las preguntas iniciales, ¿cuál es la naturaleza humana esencial? El recuento previo pareciera orientado a demostrar que Hobbes tenía razón, y que no cabe la bondad en el ser humano, sino es impuesta por un estado punitivo. No obstante, cabe decir también que, concomitantemente a las guerras y matanzas, también los grupos humanos han organizado instituciones dedicadas a ayudar a los desvalidos, y que desde tempranos tiempos se han instaurado normas -quizás cuestionables bajo los ojos del siglo XXI, pero normas al fin y al cabo-, que permitían cierto grado de orden y respeto en el comportamiento social.



El código de Hammurabi es una de las más antiguas recopilaciones de leyes conocida.



La caridad ejercida por órdenes religiosas desde la edad media es un ejemplo de solidaridad y empatía.

Algunas investigaciones etológicas han planteado que los primordios de la moral humana serían anteriores a la civilización, y que estarían presentes en otros primates e inclusive en otros mamíferos. En el siguiente video, el científico Frans de Waal sustenta dichas ideas:


Conclusiones:
  1. La evidencia histórica y científica, aunque no es concluyente, parece reflejar que existe una ambivalencia primaria en el ser humano, que lo lleva por un lado hacia la empatía y la solidaridad, y por el otro a la violencia y destrucción. De esta forma, tanto Hobbes como Rousseau podrían haber tenido razón parcialmente.
  2. Los datos estadísticos orientan a pensar que la violencia global habría disminuido progresivamente a lo largo de los siglos, aunque estando todavía lejos de desaparecer. Estos datos pueden ser cuestionables, pero en todo caso, no hay evidencia clara que demuestre el tan mediáticamente promocionado incremento de la violencia.
Referencias:
  1. Chesnais  J-C. Historia de la violencia: el homicidio y el suicidio a través de la historia. En: Pensar la violencia. RevistaInternacional de Ciencias Sociales 1992; 132: 205-23.
  2. Comisión de la Verdad y Reconciliación. Informe final. 2004.
  3. De Waal F. El bonobo y los diez mandamientos. Barcelona: Tusquets Editores, 2013.
  4. Eisner M. Long-term historical trends in violent crime. En: Tonry M. Crime and Justice: A Review of Research. Chicago University Press, 2003: 83-142.
  5. Gray J.Steven Pinker is wrong about violence and war. The Guardian, 13 March 2015. 
  6. Horgan J. Steven Pinker, John Gray and the end of war. Scientific American Blog. April 2015.
  7. Muchenbled R. Una historia de la violencia. Del final de la Edad Media a la actualidad. Madrid: Paidós Contextos, 2008.
  8. Organización Panamericana de la Salud. Informe mundial sobre la violencia y la salud.Washington DC, 2003. 
  9. Pinker S. A history of violence: Edge masterclass 2011. 
  10. Singer P. The expanding circle. Ethics, evolution and moral progress. Princeton University Press, 1981.

* Tema presentado en la XV Jornada de Salud Mental "Violencia y Adicciones", organizada por el Centro de Salud Mental "Moisés Heresi". Arequipa, octubre del 2016.


26 enero, 2016

¿La psiquiatría es "solo para locos"?




En la práctica de la psiquiatría es bastante habitual encontrar personas renuentes a cualquier tipo de ayuda proveniente de aquella especialidad, bajo la premisa de que "la psiquiatría es solo para locos". Sería, por supuesto, anacrónico y hasta contradictorio avalar semejante aseveración desde esta tribuna; pero tampoco puede negársele cierto fundamento histórico. 

En este sentido, debemos recordar que la psiquiatría tuvo sus orígenes durante el siglo XIX, como heredera del alienismo, disciplina médica encargada de la custodia de los insanos en el manicomio, lugar natural y hasta terapéutico de todo aquel que perdiese el juicio, según la ciencia médica de aquel entonces. La palabra "psiquiatría" había sido acuñada por Johann Christian Reil en 1808, en un artículo titulado "Sobre el concepto de medicina y sus ramas, especialmente en relación a la rectificación del tópico en psiquiatría", pero demoró algunas décadas en imponerse. 

Para los autores representativos del alienismo no existían "enfermedades mentales" como las entendemos en la actualidad, sino un estado único de "alienación mental", que podía asumir diferentes variedades pero sin perder su unicidad. Estas variedades eran relativamente pocas; así, Philippe Pinel describió cuatro en su "Tratado médico-filosófico sobre la alienación mental" de 1809: manía, melancolía, demencia e idiotismo. 


Vale aclarar que la supervivencia de algunos términos del léxico psiquiátrico no debe llevarnos a equívocos. La manía de aquel entonces hacía referencia a cualquier estado de agitación o furor desencadenado por un delirio general; la melancolía se caracterizaba por un delirio exclusivo que podía conducir (pero no necesariamente) al aislamiento y estupor; la demencia hacía alusión a una debilidad general de las funciones intelectuales y afectivas, y el idiotismo era un estado de abolición absoluta del entendimiento (Jean Étienne Esquirol cambió esta denominación por idiocia, y le atribuyó el carácter congénito que prevaleció en lo sucesivo). Elaborar equivalencias indebidas lleva a la falacia de la continuidad de ciertos diagnósticos, y esto refuerza la idea de un "descubrimiento" progresivo de entidades nosológicas que existen naturalmente y al margen de nuestro entendimiento. Refutando tal creencia, se puede decir que los diagnósticos son elaboraciones hechas para agrupar, comprender y (en la medida de lo posible) tratar determinados comportamientos juzgados como anormales. 


La psiquiatría como especialidad médica se afianzó cuando los muros del asilo fueron traspasados y la patología mental comenzó a ser buscada en el mundo exterior. De este modo, el campo de los trastornos mentales dejó de circunscribirse a la pérdida del juicio y comenzó a abarcar diferentes estados que pudiesen generar sufrimiento o que significaran una desviación respecto al comportamiento promedio ("normal"). Así, con el transcurso del tiempo, el campo de la psiquiatría se extendió significativamente. 


Según la Organización Mundial de la Salud, aproximadamente 1 de cada 3 personas en el mundo ha tenido un trastorno mental durante su vida. En otras palabras, 1 de cada 3 personas en el mundo tendría que recibir tratamiento psiquiátrico en algún momento de su existencia, sino en varios. No han faltado quienes advierten sobre el aumento de las enfermedades mentales en todo el orbe. Al respecto caben tres hipótesis: 1) que realmente se haya incrementado la incidencia de trastornos psiquiátricos en el mundo, producto del estrés que genera la sociedad actual o cualquier otra etiología; 2) que en realidad no haya un aumento de trastornos mentales, sino que, al haber cada vez más acceso a los servicios de salud mental y menos estigma hacia el tema, cada vez más personas con padecimientos mentales se atreven a acudir a los psiquiatras y son (felizmente) diagnosticadas y tratadas (la hipótesis de la demanda oculta), y 3) que no haya cada vez más trastornos mentales ni que cada vez más personas con trastornos mentales salgan del anonimato, sino que la frontera entre la normalidad y la psicopatología se ha redefinido a lo largo del último siglo, llevando a que se considere como anómalas situaciones que antes no lo eran. 

Mucho se ha escrito sobre la inclusión de cada vez más entidades nosológicas en las clasificaciones de uso internacional. Por ejemplo, la primera versión del Diagnostic and Statistical Manual de la Asociación Psiquiátrica Americana (DSM 1, 1952) comprendía 106 categorías diagnósticas, en tanto que la última versión (DSM V, 2015) ha llegado a comprender 216. En esta proliferación de diagnósticos podría haber influido la industria de los medicamentos, evidentemente interesada en extender las prescripciones de una psiquiatría cada vez más farmacológica. Vale aclarar que esto no es patrimonio de la especialidad de la mente, sino que involucra a toda la medicina.


No pretende este escrito descalificar del todo al DSM ni a la Décima Clasificación Internacional de Enfermedades de la Organización Mundial de la Salud (CIE 10), como plantean algunos autores, que tildan a dichos manuales como "recetas de cocina". De hecho, el tener cierto consenso diagnóstico en diferentes partes del mundo resulta imprescindible para los estudios de investigación, tanto clínica como epidemiológica. Pero aun así es válido pensar que la supuesta "epidemia psiquiátrica" podría no ser más que un artificio generado por una expansión epistemológica de la psiquiatría, en detrimento de los cada vez más exiguos territorios de la normalidad.


Tampoco se entienda la pregunta titular como una invitación a responderla afirmativamente. Como se dice en el primer párrafo, sería anacrónico plantear un retorno de la psiquiatría a los fueros iniciales de la locura, pues muchas personas con trastornos menos graves encuentran alivio a su malestar con los tratamientos que ofrece aquella especialidad, y en esto cabe deslindar con las posturas extremistas de la antipsiquiatría, que niega inclusive la existencia de cualquier trastorno mental. Pero tengamos presente que la psiquiatrización de la vida cotidiana resulta cuestionable (no todo sufrimiento es enfermedad), más aún si va de la mano con una farmacolización excesiva, que desdeña otras alternativas terapéuticas, y con una visión etiológica simplista que pretende reducir cualquier comportamiento humano a desequilibrios de los neurotransmisores. Así pues, resulta cada vez más frecuente escuchar a quienes dicen estar deprimidos porque les "falta serotonina".

La farmacolización excesiva es producto no solamente de la influencia de la industria farmacéutica, sino también de una oferta que se ha visto sobrepasada por la demanda, llevando a consultas médicas cada vez más breves y, por lo tanto, propensas al diagnóstico rápido y el tratamiento apresurado. El mismo público es muchas veces exigente con la prescripción de psicofármacos, lo cual se traduce en un consumo creciente de tranquilizantes, que son muchas veces autorecetados o indicados por personas no expertas. Tal será la consecuencia de haberle "perdido el miedo" a los tratamientos psiquiátricos.  

Bibliografía




24 julio, 2015

Breve historia de la vejez y su psicopatología *



"Envejecer es todavía el único medio 
que se ha encontrado para vivir mucho tiempo"

Charles Augustin Sainte-Beuve

La valoración del envejecimiento ha sido ondulante a lo largo de la historia. Durante la pre-historia el envejecer era en realidad un privilegio, considerando que la esperanza de vida se encontraba entre los 20 y los 35 años; en tales circunstancias, los ancianos solían ostentar la posición de sabios o curadores.


En el antiguo Egipto el escriba Ptah-Hotep (2450 a.C.) puso énfasis en las desventajas de llegar a edades avanzadas: "¡Qué penoso es el fin de un viejo! Se va debilitando cada día; su vista disminuye, sus oídos se vuelven sordos; su fuerza declina, su corazón ya no descansa; su boca se vuelve silenciosa y no habla. Sus facultades intelectuales disminuyen y le resulta imposible acordarse hoy de lo que sucedió ayer. Todos los huesos están doloridos. Las ocupaciones a las que se abandonaba no hace mucho con placer, solo las realiza con dificultad, y el sentido del gusto desaparece. La vejez es la peor de las desgracias que pueden afligir a un hombre".

En la Grecia antigua se dio predominantemente una exaltación de la juventud y la belleza, en contraposición a la vejez y la fealdad: de ahí que una de las cualidades de los dioses del Olimpo fuera la eterna juventud. Sin embargo, no dejó de reconocerse la asociación entre ancianidad y sabiduría. En Esparta, por ejemplo, uno de los órganos de gobierno era la gerusía, conformada por 28 ancianos más los 2 reyes. También en "La República" de Platón se resalta la sapiencia y la calma que se adquieren con los años: "Y en verdad, Céfalo –dije yo–, me agrada conversar con personas de gran ancianidad; pues me parece necesario informarme de ellos, como de quienes han recorrido por delante un camino por el que quizá también nosotros tengamos que pasar, cuál es él, si áspero y difícil o fácil y expedito. (...) porque, en efecto, con la vejez se produce una gran paz y libertad en lo que respecta a tales cosas. Cuando afloja y remite la tensión de los deseos, ocurre exactamente lo que Sófocles decía: que nos libramos de muchos y furiosos tiranos". Opinión distinta expresa Aristóteles en su "Ética a Nicómaco": "Porque la vejez, y todo género de debilitación, parece que hace avarientos a los hombres, y que es más natural en ellos que no la prodigalidad, porque los más son más amigos de atesorar que no de dar. (…) Los viejos, pues, y los hombres muy severos no parecen aptos para tratar amistad (…)".


Catón el Viejo

En Roma se dio también una actitud ambivalente hacia los ancianos, condicionada por otros factores tales como el género y la posición social. Así, el Pater familias tenía autoridad absoluta sobre la familia, en tanto que las mujeres viejas y solas eran usualmente despreciadas. Políticamente el Senado (senex = anciano) tuvo una gran influencia en la República, aunque entró en decadencia durante el Imperio. En su obra "De la vejez". Cicerón hace decir a Catón lo siguiente: "La osadía es propia de la juventud, la prudencia, de la vejez. Se me argüirá que la memoria se pierde. Creo que así es si no se ejercita o si estuviera enferma". Por el contrario, Horacio expresa en su Arte poética: "La juventud, provechos grandes tiene, ligereza, hermosura, juicio, fuerzas. Y la vejez, incómodos muy grandes, enfermedades, fealdad, olvido".

Desde la medicina, Areteo de Capadocia (s. II d.C.) hizo una descripción de la decadencia mental en la senectud: "El delirio que comienza en la vejez nunca se interrumpe, sino que acompaña al paciente hasta la muerte; mientras que la manía se interrumpe y con el tratamiento cesa". Por su parte Celio (s. V d.C.) refirió que la letargia es "más común en los ancianos porque el deterioro de los sentidos y la depresión son más característicos de la vejez".



Huaco mochica

En la antigua América la actitud hacia la vejez fue en general positiva. Así, para los incas el alcanzar edades avanzadas se consideraba como una recompensa divina, otorgándoles a los ancianos un rol de intermediarios entre lo sagrado y lo profano; el amauta era el anciano sabio que debía transmitir la tradición de los ancestros. También entre los mayas y los aztecas, el viejo (huehuetque en idioma nahuatl) fue venerado y su palabra tomada como mantenedora de la moralidad, estando el estado obligado a velar por sus vidas. 


La alta Edad Media (s. V-X) fue un periodo turbulento, durante el cual las frecuentes guerras dieron prioridad a los jóvenes en detrimento de los ancianos. Por otro lado, la Iglesia primigenia no tuvo mayor interés por la vejez, excepto por "la fealdad de los viejos porque les proporciona una buena imagen del pecado". Muchos ancianos ricos se retiraron a los conventos, comenzando de este modo la asociación entre vejez, cese de actividad y aislamiento, apareciendo el primer esbozo de los futuros asilos. La baja Edad Media (s. XI-XV) dio una mayor estabilidad, propiciando que los ancianos se dedicasen a los negocios. Por su parte, la peste y la viruela atacaron preferentemente a niños y jóvenes, aumentando relativamente la población de ancianos. Las opiniones de los autores principales de este periodo estuvieron también divididas; así, San Agustín de Hipona asumió la herencia platónica, tomando a la vejez como modelo de equilibrio emocional y alejamiento de placeres mundanos, en tanto que Santo Tomás de Aquino, dentro de la tradición aristotélica, describió la vejez como decadencia física y espiritual.


El Renacimiento (s. XV) significó un redescubrimiento del mundo grecorromano, con su ideal de belleza y juventud; la vejez fue entonces nuevamente asociada a fealdad y decadencia, de modo tal que las mujeres viejas y solas solían caer bajo la peligrosa sospecha de ser brujas. La opinión de Erasmo de Rotterdam sobre la vejez no fue precisamente favorable, como se puede leer en el siguiente fragmento de su "Elogio de la locura": "Observar, además, que los ancianos disfrutan locamente de la compañía de los niños y éstos a su vez se deleitan con los viejos, «pues Dios se complace en reunir a cada cosa con su semejante». ¿En qué difieren unos de otros, a no ser en que éstos están más arrugados y cuentan más años? Por lo demás, en el cabello incoloro, la boca desdendata, las pocas fuerzas corporales, la apetencia de la leche, el balbuceo, la garrulería, la falta de seso, el olvido, la irreflexión, y, en suma, en todas las demás cosas, se armonizan. Cuanto más se acerca el hombre a la senectud, tanto más se va asemejando a la infancia, hasta que, al modo de ésta, el viejo emigra sin tedio de ella ni sensación de morir".

En el siglo XVII Francis Bacon planteó que la vida humana se prolongará cuando mejore la higiene y otras condiciones sociales. Por aquel entonces comenzaron a edificarse asilos para ancianos pobres. La naciente burguesía revaloró el trabajo de las personas mayores en las empresas familiares. Sin embargo, para Robert Burton, en su "Anatomía de la melancolía", "es la vejez la que casi siempre tiene a la melancolía natural por inseparable compañera y accidente", compartiendo ambos estados una "superabundancia de bilis o cólera negra".

Cabe aquí mencionar que hasta 1700 se utilizaban diferentes términos, tales como "amencia, imbecilidad, morosis, simpleza, anoia, necedad, estupidez, bobería, carus, idiocia, chochera y senilidad", para hacer alusión al deterioro cognitivo. La palabra demencia, por su parte, había seguido su propio curso, desde sus orígenes en la antigua Roma (Lucrecio la había definido en el año 50 d.C. como "estar fuera de la propia mente"), hasta llegar al siglo XIX con un significado bastante amplio (inclusive en 1838 Esquirol había definido la demencia como "afección cerebral, ordinariamente sin fiebre y crónica, caracterizada por debilitamiento de los sentidos, la inteligencia y la voluntad: la incoherencia de las ideas, la falta de espontaneidad intelectual y moral son los signos de esta afección")

Es a partir de mediados del siglo XIX que empezó una progresiva restricción semántica del término ("poda del contenido clínico heterogéneo", en palabras de Germán Berrios), que terminaría circunscribiéndolo a un declive intelectual irreversible de causa orgánica. Sin embargo, hasta inicios del siglo XX todavía el concepto de demencia abarcaba las formas senil, arteriosclerótica y vesánica. En particular las demencias vesánicas hacían referencia al estado terminal de las psicosis crónicas; en esta línea se diferenció la démence precoce a partir de Bénédict Morel (Estudios clínicos, 1852), que sirvió de inspiración más adelante para el concepto de dementia praecox introducido por Arnold Pick (1891) y difundido por Emil Kraepelin (1899) (aunque resulta un error establecer una equivalencia entre ambos términos). Eugen Bleuler reemplazó finalmente el término por el de "esquizofrenia" en 1911, bajo el marco téorico de la escisión (spaltung).


Alois Alzheimer

Cuando Alois Alzheimer hizo en 1906 su famosa descripción de una mujer de 51 años con un deterioro cognitivo, alucinaciones y delirios, en cuya anatomía patológica se encontraron placas, marañas y cambios arterioscleróticos, probablemente no tenía más intención que reportar una presentación temprana de deterioro cognitivo propio de ancianos. De hecho, ya en 1894 Otto Binswanger había introducido el término demencia presenil para referirse a estos casos. Asimismo, la asociación entre placas, neurofibrillas y demencia tampoco era novedosa; Beljahow había encontrado placas en cerebros de personas con demencia senil en 1887, y Emil Redlisch las había denominado esclerosis miliar en 1898; por su parte Salomon Fuller había reportado haces neurofibrilares también en demencia senil, solo 5 meses antes de la publicación de Alzheimer. En 1907 Oskar Fischer consideró que la necrosis miliar podía considerarse un signo específico de demencia senil. 

En 1910 Emil Kraepelin utilizó la denominación "enfermedad de Alzheimer" para referirse a "un proceso único de enfermedad más o menos independiente de la edad". La nueva patología sorprendió al mismo Alzheimer, y no fue aceptada rápidamente. Lugaro, por ejemplo, escribió en 1916: "Por un tiempo se creyó que cierto trastorno aglutinante de las neurofibrillas podía considerarse como el ‘principal indicador’ de una forma presenil (de la demencia senil) bautizada precipitadamente como enfermedad de Alzheimer". También Teofil Simchowicz opinó en 1924 que "Alzheimer y Perusini no sabían entonces que las placas eran típicas de la demencia senil (...) y creyeron que quizás habían descubierto una nueva enfermedad".


Arnold Pick

Tampoco Arnold Pick creyó estar descubriendo una nueva enfermedad al reportar en 1892 el caso de un varón de 71 años con deterioro mental, afasia y signos de atrofia temporal. Posteriormente el mismo Pick describió otro caso con atrofia frontal bilateral, y otros autores como Liepmann, Stransky y Spielmeyer publicaron otros casos de atrofia focalizada (llegó inclusive a plantearse el término "enfermedad de Spielmeyer", pero no prosperó). Alzheimer en 1911 denominó "cuerpos y células de Pick" a las alterciones patológicas encontradas en los cerebros con atrofia lobal, y en 1927 Carl Schneider propuso la denominación "enfermedad de Pick" para referirse a un proceso caracterizado inicialmente por alteraciones conductuales y síntomas de focalización, y finalmente por deterioro generalizado (demencia frontotemporal).


Desde mediados del siglo XIX la arteriosclerosis se había ido convirtiendo en el mecanismo preferido para explicar las diversas manifestaciones de la senilidad, de modo que hasta la década de 1960 la "demencia arteriosclerótica" había relegado a la enfermedad de Alzheimer a una causa rara de demencia de presentación temprana. Sin embargo, durante las décadas siguientes se fue aceptando que la clínica y la histopatología de las demencias seniles y preseniles eran prácticamente indistinguibles, independizándose a la postre el diagnóstico de la edad de inicio. De este modo, la Décima Clasificación de Enfermedades de la Organización Mundial de la Salud (CIE 10, 1992) utilizó el rótulo "Demencia tipo Alzheimer", aunque mantuvo la subdivisión entre aquella de inicio precoz (F00.0) y de inicio tardío (F00.1).

En la actualidad se sabe que las placas neuríticas (seniles) son depósitos de proteína beta-amiloide, un péptido patológicamente fragmentado de la proteína precursora de amiloide (PPA), normalmente presente en las neuronas; dicha fragmentación está mediada por proteínas denominadas presenilinas (PS1 y PS2). Por otro lado, los ovillos neurofibrilares están constituidos por agregados de proteínas tau anómalamente fosforiladas, las mismas que en las neuronas sanas estabilizan a los microtúbulos; de este modo, la hiperfosforilación de las proteínas tau lleva a la desintegración de aquellas estructuras. 

Aunque la enfermedad de Alzheimer se considera un trastorno genéticamente heterogéneo, se ha relacionado el gen de la apolipoproteína E4 con casos esporádicos de inicio tardío, en tanto que las presentaciones más tempranas suelen asociarse a mutaciones en los genes de la PPA, PS1 y PS2, mediante una herencia autosómica dominante. ¿Estaría de esta forma la genética respaldando la singularización de la demencia presenil y justificando de alguna manera la creación de la enfermedad de Alzheimer en 1910? En palabras de Berrios: "Desafortunadamente, esto no tiene valor retrospectivo, y no puede ayudar al historiador para explicar por qué Kraepelin las separó (la demencia presenil y la senil)". 


En el siglo XXI los avances en la medicina y la salud pública han dado lugar a un importante incremento en la esperanza de vida, con el consiguiente aumento de la población de ancianos. Paradójicamente, la constante renovación tecnológica lleva a que la experiencia acumulada se perciba como carente de valor; se va volviendo así habitual que las jóvenes generaciones sean las que lideren muchas áreas del conocimiento, en tanto que los adultos mayores deben recurrir a aquéllos para aprender ciertas cosas, lo que promueve a su vez la discriminación laboral. Se impone de este modo una cultura juvenil y una tendencia a negar la vejez. ¿Estamos hablando de una tendencia irreversible o solo de una de las tantas oscilaciones culturales que ha tenido la humanidad respecto a la vejez? 

Bibliografía


* Tema presentado en el Curso "Clínica, Investigación y Salud Mental en Poblaciones Geriátricas", organizado por la Universidad Peruana Cayetano Heredia, septiembre del 2013.