revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
del consumidor
        menu2
índice 127-128
siguiente 
anterior
PDF
                 
Información nutrimental las etiquetas de los productos 127B04  
 
 
 
Inés Gutiérrez Jaber  
                     
México es a la fecha uno de los países con mayor
índice de obesidad en adultos, niños y adolescentes. Esto se debe en parte a que la dieta de los mexicanos está cada vez más basada en productos prefabricados que generalmente contienen altas cantidades de azúcares añadidos, grasas y sodio. Esto, aunado a una educación nutricional deficiente, al bombardeo constante de publicidad de productos industrializados y los intereses económicos de las grandes empresas de alimentos, ha ocasionado un aumento inigualable de enfermedades relacionadas con la obesidad. Es por ello que se han comenzado a implementar políticas de prevención para reducir su impacto, incluyendo medidas para mejorar la información nutrimental en el etiquetado de alimentos y bebidas prefabricadas.
 
Se considera que el etiquetado de alimentos es una herramienta fundamental para comunicar al consumidor la información nutricional del producto que va a adquirir. En 2010 se puso en marcha una política nacional llamada “Acuerdo Nacional para la Salud Alimentaria, Estrategia Contra el Sobrepeso y la Obesidad (ANSA)”; como parte de este, algunas empresas como PepsiCo Inc., The Coca Cola Company y Kellogg’s Comapny se incorporaron a un proyecto que propone utilizar una forma especial de etiquetado en sus productos, conocida como etiquetado frontal gda (Guías Diarias de Alimentación), con el objetivo de brindar información útil a los consumidores que les permita tomar mejores decisiones en cuanto a los productos que consumen.
 
El proyecto para poner en marcha este tipo de etiquetado se llama “Checa y Elige: Claves de Nutrición” y comenzó a ser utilizado en enero de 2011 por empresas del Consejo Mexicano de la Industria de Productos de Consumo (ConMéxico), quienes señalaron que esta iniciativa nos coloca a la vanguardia mundial en regulación alimentaria, ya que Estados Unidos y algunos países de la Unión Europea utilizan esta forma de etiquetado. A pesar de este esfuerzo, diversos estudios internacionales han demostrado que este tipo de etiquetado no es eficiente para ayudar a los consumidores a tomar buenas decisiones alimentarias, principalmente porque es confuso y difícil de comprender. Un estudio realizado en países europeos demostró que solo 35% de los sujetos entendían qué indican los porcentajes indicados en el etiquetado.
 
El etiquetado nutrimental de productos procesados en México está regulado por la NOM-051-SCFI/SSA1-2010, en donde se indica que es obligación de las empresas etiquetar sus productos. Sin embargo, no existe ninguna norma que regule cómo se presenta la información, ni que asegure que los consumidores serán capaces de comprender en su totalidad la información proporcionada por la etiqueta. El Centro de Investigación en Nutrición y Salud del Instituto Nacional de Salud Pública se dio a la tarea de realizar un análisis profundo sobre el etiquetado frontal gda. Como parte de este estudio encuestaron a 112 estudiantes de distintos semestres de la carrera en Nutrición para analizar el nivel de comprensión que estos tenían del etiquetado frontal; basados en la noción de que cuentan con un mayor conocimiento sobre nutrición y debería ser fácil para ellos interpretarlo.
 
Limitaciones del etiquetado
 
El etiquetado frontal gda se define como una guía impresa que indica la cantidad de energía en kilocalorías (Kcal) que tiene un producto, así como los valores de grasas, grasas saturadas, sodio y azúcares, haciendo referencia al porcentaje que representan estos nutrimentos del porcentaje total de una dieta promedio de 2000 Kcal diarias, valor máximo recomendado de ingesta. Dichos nutrientes son reportados ya que la ingesta excesiva de ellos está asociada con la prevalencia de enfermedades como diabetes mellitus, hipertensión arterial y dislipidemias.
 
El consumo máximo de estos nutrientes es declarado en porcentajes y son conocidos como porcentaje gda (%gda). Estos fueron creados por un grupo de fabricantes de alimentos del Reino Unido, quienes reunieron información sobre recomendaciones nutricionales de diversas fuentes para generar valores de consumo máximo para hombres y mujeres de diversos grupos de edad, distinguiendo entre niños, adolescentes y adultos. Sin embargo, los valores gda acordados para usar en el etiquetado no son los mismos que los establecidos por este grupo; estos no distinguen entre hombres y mujeres y mezclan valores de los distintos grupos de edad.
 
Una importante limitación de este etiquetado es que no distingue entre máximos y mínimos, no hacen distinción entre los límites superiores de consumo para grasas, azúcares y sodio, mientras que para fibra y micronutrientes los valores propuestos corresponden al mínimo que un individuo debe consumir. Además, los valores del etiquetado se utilizan indistintamente para niños y adultos, inclusive en productos dirigidos específicamente a niños, los valores utilizados como referencia son aquellos de adultos. Algunos ejemplos de estos productos son Choco Krispis y Nesquik.
 
También, el gda ignora las recomendaciones mundiales de la OMS y las Recomendaciones de Ingestión de Nutrimentos para la Población Me-xicana Para Adultos Sanos. Recomienda un total de 70 gramos de grasas totales, cuan-do en promedio un adulto sano consume máximo 50 gramos al día. Recomienda un valor máximo de 6 gramos de sal al día, a pesar de que estudios científicos recomiendan que se consuman máximo 4 gramos diarios. En relación con el con-sumo de azúcares, la OMS recomienda que se consuman máximo 28.2 gramos provenientes de frutas, 17.5 gramos provenientes de lácteos y 50 gramos provenientes de azúcares adicionados, sumando un total de 95.7 gramos de azú-cares totales, mientras que el gda recomienda 35 gramos de azúcares provenientes de frutas, 10 gramos provenientes de lácteos y 55 gramos de azúcares adicionados. En el etiquetado indican el porcentaje con relación a los azúcares totales, a pesar de que la fuente de azúcares de sus pro-ductos es únicamente de azúcares adicionados, los consumidores podrían interpretar erró-neamente que 90 gramos de azúcares diarios son saludables, incluso si estos provienen únicamente de azúcares adicionadas.
 
Por otro lado, el etiquetado frontal gda utiliza tamaños de porciones arbitrarias que varían entre productos y cuando en un envase hay más de una porción, declaran los porcentajes nutrimentales de una sola, llevando a los consumidores a confundirse y pensar que los porcentajes declarados son con relación al total de porciones del envase. Por si fuera poco, el etiquetado gda selecciona de forma arbitraria cuáles nutrimentos incluir y cuáles excluir. En algunos casos, como en All Bran Original de Kellogg’s, se incluyen los porcentajes de nutrientes como hierro, vitamina B1 y zinc, mientras que en otros se deja fuera el contenido de kilo-calorías y grasas por porción.
 
Sin embargo, la mayor limitación de este etiquetado es que no se consideran la educación, ni el tiempo como factores que influyen en su comprensión. Se ha demostrado que el mal entendimiento del etiquetado se correlaciona con un bajo nivel de habilidades matemáticas y que incluso personas con alto nivel tienen dificultades para comprenderlo.
 
Encuesta a estudiantes
 
En el estudio del Instituto Nacional de Salud Pública para evaluar la comprensión del etiquetado frontal gda, se entrevistó a 112 estudiantes de Nutrición de distintos semestres de una escuela privada. Las preguntas hacían referencia al significado de los porcentajes gda, la comprensión del número de porciones por envase o paquete, la valoración de la calidad nutricional de un producto y al tiempo utilizado para interpretarlo.  
 
En cuanto al significado de los porcentajes, encontraron que 67.9% conocen el etiquetado gda, sin embargo, solo 12.5% lo definen correctamente. Cuando se les presentaron etiquetas de productos de una sola porción, 83% respondieron correctamente que contenían alto contenido de sodio y 66.1% que contenían alto contenido de grasas saturadas. Pero cuando se les presentaron etiquetas de productos con más de una porción, solo 43.8% fueron capaces de identificar que tenía más de una porción; 31.7% contestaron correctamente la cantidad total de Kcal y 14% contestaron correctamente cuál era el contenido de azúcar en la mitad del envase en etiquetas con más de una porción.
 
Se les presentó, sin que supieran que trataba de ese producto, la etiqueta de pan blanco Bimbo y 59.8% lo clasificaron como un producto saludable y 54.5% respondieron que lo consumirían de una a cuatro veces por semana. Sobre el tiempo utilizado para evaluar los productos fue de 3.34 minutos, sin considerar si las respuestas estaban bien o mal. 68.8% respondieron incorrectamente las preguntas, mientras que solo 1.8% respondieron bien todas las preguntas. Además de que, a mayor número de respuestas correctas, mayor tiempo les tomaba contestarlas.
 
Estos resultados demuestran que el etiquetado frontal gda no es la mejor opción para comunicar información nutricional a la población mexicana ya que puede ocasionar que productos industrializados no recomendables sean percibidos como saludables por los consumidores. Es tan confuso, que como parte del programa “Checa y Elige” se ha incluido una aplicación que enseña a niños y adultos a sumar y a realizar los cálculos necesarios para poder interpretar adecuadamente la información proporcionada.
 
Otros sistemas de etiquetado
 
Existen otros dos tipos de sistemas de etiquetado frontal: los sistemas de resumen y los sistemas de información por grupo de alimentos. Los sistemas de resumen hacen una evaluación global del producto en relación con el contenido nutrimental y su objetivo es proporcionar a los consumidores una forma escoger alimentos de mayor calidad nutricional sin tener que procesar información matemática a detalle. Los de información por grupo de alimento enfatizan determinados grupos de alimentos o componentes de un producto, suelen fomentar el consumo de frutas y verduras y productos lácteos bajos en grasa.
 
En 2016, el gobierno chileno lanzó una de las campañas más agresivas y ambiciosas para combatir la obesidad en su país. Prohibieron la venta de comida chatarra en primarias y secundarias, obligaron a las empresas a eliminar imágenes amigables como el conejo del cereal Trix, bajo la noción de que esto incentiva a los niños a relacionar imágenes positivas con productos que son sumamente dañinos para la salud. Seleccionaron una forma de etiquetado que informa de manera global la calidad de un producto, declarando si es alto en grasas saturadas, azúcares, sodio y calorías.
 
Este y otros ejemplos nos invitan a reevaluar nuestro sistema de etiquetado y proponer uno que sea transparente, accesible y efectivo para comunicar la información que necesitan los consumidores para reconocer productos convenientes para su salud. Además, de escoger un etiquetado con las características anteriormente mencionadas, podría incentivarse a las empresas a mejorar las fórmulas de sus productos y adoptar un perfil más saludable. Si a ello se suma una mejor educación nutricional a toda la población, la obesidad podría comenzar a disminuir poco a poco y a cobrar cada vez menos vidas.
     
Nota

Este texto se elaboró con base en trabajo siguiente:
Stern, D., Tolentino, L., y Barquera, S. 2011. Revisión del etiquetado frontal: análisis de las Guías Diarias de Alimentación (GDA) y su comprensión por estudiantes de nutrición en México. Instituto Nacional de Salud Pública.

E
n la red

https://goo.gl/TXWgW8
     

     
Inés Gutiérrez Jaber
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     

     
 
cómo citar este artículo


     

 

 

del corazón
        menu2
índice 127-128
siguiente 
anterior
PDF
                 
Ingerir nuez de castilla: un hábito que protege el corazón 127B01   
 
 
 
Martha Gabriela Campos Mondragón  
                     
La nuez de castilla es el fruto del árbol llamado
nogal (Juglans regia), del cual se comercializa la madera, pero sobre todo las nueces y su aceite para consumo humano; 65% de la energía que aporta la nuez de castilla proviene de sus lípidos de constitución, en su mayoría estructurados por ácidos grasos polinsaturados. Esta nuez se caracteriza por su contenido de ácido linoleico de la familia omega 6 y de ácido alfa linolénico de la familia omega 3, ambos indispensables para el ser humano —como el cuerpo no puede producirlos deben ser ingeridos mediante los alimentos que los contengan— y se destaca entre otras por contener de 9 a 900 veces más de ácido alfalinolénico (la nuez pacana tiene 1%, el pistache 0.26%, la macadamia 0.2%, el cacahuate 0.01% y la almendra 0%). Los aceites vegetales son la principal fuente del ácido alfa linolénico y en orden descendente, se encuentra en el aceite de linaza, de nuez de castilla, la canola, la soya y la oliva.
 
El resto de la energía de la semilla es aportada por su contenido de proteína (18%) y carbohidratos (17%). Otros de sus componentes también se han relacionado con un efecto favorable en la salud, como su cantidad de fibra (7 g/100 g) que favorece la regulación del tránsito intestinal, prolonga la sensación de saciedad y reduce la absorción de glucosa, ácidos grasos y colesterol; y por su contenido mineral alto en calcio (98 mg/100 g), magnesio (158 mg/100 g) y potasio (441 mg/100 g) y bajo en sodio (2 mg/100 g) resulta benéfico para el control de la presión arterial. Es rica en ácido fólico (98 mg/100 g) que cuando es deficiente en la alimentación produce una elevación en la concentración de homocisteína, lo cual constituye un factor de riesgo de padecer una enfermedad vascular con afectación del sistema nervioso central, el sistema vascular periférico, el coronario y el cerebral. Tiene un contenido relativamente alto de fitoesteroles (72 mg/100 g) que compiten con el colesterol por su interacción con la acil colesterol acil transferasa, reduciendo así la absorción de colesterol.
 
Beneficios para la sangre
 
Las enfermedades cardiovasculares son la causa número uno de mortalidad en el mundo. Aunque incluyen un numeroso grupo de afecciones del corazón y los vasos sanguíneos, la mayoría de las muertes identificadas en este grupo se atribuye a las cardiopatías coronarias y las enfermedades cerebro vasculares, que son el desenlace de un proceso de aterosclerosis en el que se forman depósitos de grasa en las paredes de los vasos sanguíneos, obstruyendo el flujo sanguíneo hacia el corazón o el cerebro, hasta provocar la muerte o infarto de tales órganos. Los principales factores de riesgo de estas enfermedades son la edad avanzada, la diabetes, la presión arterial elevada, el nivel elevado de colesterol, el tabaquismo, la inactividad física y la alimentación inadecuada.
 
En el estudio que hacen Hu y sus colaboradores se reportó que el consumo de cinco onzas de nueces (141.5 g) a la semana disminuyó significativamente el riesgo de enfermedad coronaria, en comparación a consumos menores a una onza (28.3 g) al mes.
 
Asimismo, se han reportado evidencias clínicas acerca del beneficio del consumo de nuez de castilla en cuanto al nivel de lipoproteínas. En la obesidad, con mayor acumulación de tejido adiposo en la zona visceral o abdominal, se manifiesta la denominada dislipidemia aterogénica, en la que se presentan simultáneamente niveles elevados en sangre de triglicéridos y bajas concentraciones de lipoproteínas de alta densidad. El nivel de éstas se correlaciona en forma independiente e inversa con la presencia de una enfermedad cardiovascular, por lo que constituye un factor protector antiaterogénico, que se le conoce como colesterol bueno debido a que su función es transportar el colesterol desde las arterias hacia el hígado para su excreción.
 
En Japón, según el equipo de Iwamoto, en sujetos sanos el consumo de cantidades moderadas de nuez de castilla, 50 gramos durante cuatro semanas, disminuyó la concentración plasmática de colesterol total y de lipoproteínas de baja densidad o colesterol malo.
 
En condiciones patológicas como hiperlipidemia (ya sea por niveles elevados de colesterol, triglicéridos o ambos en sangre) y diabetes mellitus tipo 2, el consumo de nuez de castilla como parte de la dieta ha evidenciado su efecto saludable. Los estudios de Zibaeenezhad probaron que el consumo de 20 gramos al día durante ocho semanas en pacientes con hiperlipidemia tuvo por efecto una concentración menor de triglicéridos (17.1%) y mayor de lipoproteínas de alta densidad (+9%).
 
Coincidente con el efecto favorable sobre el nivel de lipoproteínas de alta densidad en pacientes con diabetes mellitus tipo 2, las investigaciones de Tapsell mostraron la disminución de la relación colesterol total/lipoproteínas de alta densidad después de una ingesta de 30 g/día de nuez de castilla como parte de una dieta baja en grasa durante seis meses. Debido a que el nivel de colesterol total por sí solo suministra información insuficiente para estimar el riesgo cardiovascular, se considera de gran valor clínico el cálculo de la relación colesterol total/lipoproteínas de alta densidad, ya que predice el grado de riesgo de una enfermedad cardiovascular. En individuos obesos, la disminución del nivel plasmático de lipoproteínas de alta densidad es el principal factor por el que se incrementa la relación colesterol total/lipoproteínas de alta densidad, y por lo tanto el riesgo de enfermedad cardiovascular.
 
Por todo lo anterior, la inclusión de nuez de castilla en la dieta de sujetos con obesidad o alguna de sus comorbilidades, tales como dislipidemia o diabetes, puede proteger del riesgo de enfermedad cardiovascular. Particularmente, este alimento ha mostrado resultados favorables sobre la dislipidemia aterogénica al reducir el nivel de triglicéridos e incrementar el de lipoproteínas de alta densidad.
 
     
Referencias bibliográficas

Hu, Frank et al. 1998. “Frequent nut consumption and risk of coronary heart disease in women: prospective cohort study”, en BMJ, núm. 317, pp. 1341-1345.
Iwamoto, M. et al. 2000. “Walnuts Lower Serum Cholesterol in Japanese Men and Women”, en The Journal of Nutrition, vol. 130, núm. 2, pp. 171-176.
Ros, E. 2009. “Nuts and novel biomarkers of cardiovascular disease”, en Am. J. Clin. Nutr., vol. 89, núm. 5, pp. 1649S–1656S.
Tapsell, L. et al. 2004. “Including walnuts in a low-fat/modified-fat diet improves hdl cholesterol-to-total cholesterol ratios in patients with type 2 diabetes”, en Diabetes Care, vol. 27, núm. 12, pp. 2777-2783.
Zibaeenezhad, M., S. Shamsnia y M. Khorasani. 2005. “Walnut consumption in hyperlipidemic patients”, en Angiology, vol. 56, núm. 5, pp. 581-583.
En la red

E
n la red

www.nuthealth.org
     

     
Martha Gabriela Campos Mondragón
Facultad de Nutrición
Universidad Veracruzana.
     

     
 
cómo citar este artículo

     

 

 

Entrada127A09   menu2
índice 127-128
siguiente
anterior
PDF
 
     
Matías Ezequiel Hernández Rodríguez
     
               
               
Cada vez con más frecuencia oímos hablar acerca de la
inteligencia artificial y no son pocas las noticias que fantasean con un futuro apocalíptico en el que la raza humana es destruida por robots inteligentes o algún virus informático. La mayoría de esas noticias carecen de asidero científico y son fruto de la imaginación de autores no especializados. Es verdad que algunos científicos y filósofos de renombre —como Stephen Hawking, Noam Chomsky y Elon Musk— se han mostrado preocupados por el desarrollo indiscriminado de este tipo de tecnología; pero sus pronunciaciones suelen ser descontextualizadas o muy mal interpretadas.
 
Por otro lado las noticias que no resaltan el lado negativo de la inteligencia artificial suelen referirse a usos poco interesantes, aunque muy rentables, dentro de la industria del entretenimiento (por ejemplo, el mundo de los videojuegos). Como consecuencia de tanta manipulación mediática existe en el ciudadano un cierto recelo hacia la inteligencia artificial. Para revertir esta situación de rechazo es de vital importancia comunicarle a la sociedad las magníficas aplicaciones y desarrollos que la inteligencia artificial ya tiene en diferentes áreas de la ciencia íntimamente relacionadas con el bienestar del humano. Una sociedad bien informada no sólo mostrará interés en el tema sino que estimulará su desarrollo, algo más que deseable si tenemos en cuenta que es ésta una tecnología cuyos beneficios para la salud humana supera cualquier expectativa.
 
¿Qué es la inteligencia artificial?
 
Todo en la existencia resulta dinámico, mutable, en constante transformación, incluidas las definiciones. El concepto de inteligencia artificial, que no queda exento de la anterior observación, ha evolucionado desde 1955 —año en el que el informático John McCarthy esbozó una primera aproximación del mismo— hasta el presente. Y no resulta exagerado admitir que la idea actual de inteligencia artificial seguirá mutando, sobre todo si tenemos en cuenta que actualmente es una interdisciplina en la que convergen áreas tan diversas como la matemática, la neurociencia, la biología, la filosofía, las ciencias de la computación y la sociología.
 
Entre las sombras que envuelven a la inteligencia artificial destaca un error muy arraigado en el imaginario colectivo: la creencia de que ésta se reduce al intento de emular el intelecto humano, algo muy lejos de la realidad. El error se diluye haciendo notar que existen cuatro tipos de inteligencia artificial: a) la diseñada para pensar como un humano; b) la que se construye procurando que se comporte como un humano; c) la que piensa racionalmente; y d) la que actúa de manera racional.
 
Al interior de este paradigma se enmarcan las redes neuronales artificiales, inspiradas en el cerebro humano y los algoritmos genéticos, que simulan el proceso de evolución darwinista.
 
De manera muy general, la inteligencia artificial se puede definir como una entidad creada por el humano, la cual posee la capacidad de realizar cálculos, razonar, aprender a partir de la experiencia, encontrar relaciones y analogías, clasificar, manipular información, manejar un lenguaje natural, realizar generalizaciones, evolucionar y comprender ideas. Generalmente, en la práctica, una inteligencia artificial se centrará en una o dos de las características mencionadas anteriormente.
 
Una era de apogeo
 
La nuestra es una era de prosperidad sin igual en la historia de la inteligencia artificial, pero eso no siempre ha sido así. Desde sus inicios, en 1943, cuando se desarrollaron los primeros modelos de redes neuronales artificiales, la inteligencia artificial ha tenido periodos de auge y decadencia íntimamente ligados al progreso de la informática. Esto se debe a que uno de los factores adversos a la inteligencia artificial es la demanda de una gran capacidad de cómputo —lo cual se traduce en un elevado requerimiento de tiempo y dinero. Hasta hace un par de décadas, esto suponía realmente una limitación muy seria para el desarrollo de dicha tecnología; en la actualidad, sin embargo, se observa un crecimiento exponencial de dispositivos con una gran capacidad de cómputo y procesamiento de información, lo cual, junto al desarrollo de algoritmos cada vez más sofisticados, repercute positivamente tanto en la investigación sobre inteligencia artificial como en las aplicaciones prácticas de la misma.
 
Actualmente, se ha intensificado una retroalimentación muy común en la ciencia: por un lado se aplica la inteligencia artificial a la resolución de problemas prácticos provenientes de diferentes ámbitos y, por otro lado, de esos ámbitos emergen problemas más complejos que estimulan el desarrollo de tipos de inteligencia artificial más sofisticados, y así sucesivamente.
 
El diagnóstico médico
 
En una era como la nuestra, que tiende hacia la medicina personalizada, la inteligencia artificial tiene un papel protagónico. Actualmente los médicos disponen de una gran cantidad de información sobre sus pacientes: imágenes clínicas, análisis bioquímicos, signos clínicos, etcétera, información que se utiliza para realizar diagnósticos médicos, seleccionar tratamientos y, de ser posible, hacer predicciones. En el ámbito de enfermedades tales como el cáncer, Alzheimer, diabetes y las afecciones cardiovasculares, la inteligencia artificial ha resultado ser más eficiente que los métodos estadísticos estándares.
 
Este año se estima que en Estados Unidos serán diagnosticados 1 688 780 nuevos casos de cáncer y que 600 920 personas morirán por la enfermedad. Estadísticas similares en todo el mundo ubican el cáncer entre una de las principales causas de muerte del ser humano, por lo tanto, un diagnóstico certero y rápido y una terapia adecuada son esenciales para combatir la enfermedad. Es en este punto donde la inteligencia artificial ha mostrado ser muy eficiente.
 
A principios de 2017 se publicó un artículo en el que se revelan los resultados obtenidos luego de aplicar al diagnóstico de lesiones cutáneas una red neuronal convolucional, tecnología muy recurrida para el procesamiento de imágenes como el reconocimiento facial. La red neuronal que inicialmente fue entrenada con 1.4 millones de imágenes, actuó sobre un conjunto de 1 300 imágenes clínicas. Se requerían dos tipos de diagnósticos: 1) carcinomas de células escamosas versus queratosis seborreicas benignas; y 2) melanomas malignos versus melanomas benignos. El desempeño de la red neuronal fue comparado con los diagnósticos realizados por veintiún dermatólogos certificados y el resultado final demostró que la red neuronal tuvo un desempeño comparable al de los profesionales.
 
La inteligencia artificial también se utiliza para diagnosticar tanto el cáncer de mama como el de próstata. Un estudio realizado en 2014 muestra que un híbrido constituido por un kalgoritmo y una máquina de vector de soporte puede diagnosticar eficientemente el cáncer de mama. Después de trabajar diez veces, el híbrido puede incrementar su efectividad hasta 98%, lo cual demuestra una gran capacidad de aprendizaje.
 
La información clínica de un paciente no sólo puede utilizarse para realizar un diagnóstico, sino también para predecir la evolución de ese paciente después de ser sometido a un determinado tratamiento. Llevar a cabo predicciones de este tipo generalmente es una tarea muy complicada. El cáncer de ovario epitelial es una enfermedad sumamente impredecible debido a su heterogeneidad, esto significa que está constituido por células de diferentes sensibilidades a los tratamientos, motivo por el cual las técnicas estadísticas estándares resultan deficientes a la hora de predecir el tiempo de sobrevida de los pacientes o el resultado de una cirugía. Sin embargo, un estudio efectuado por Enshaei, Robson y Edmondson probó que una inteligencia artificial es capaz de predecir la sobrevida de un paciente de cáncer de ovario epitelial con una precisión de 93%. El modelo también pudo predecir el resultado de una cirugía con una exactitud de 77%. La inteligencia artificial utilizada en el estudio mencionado fue entrenada a partir de los datos obtenidos en 668 casos registrados a lo largo de diez años. Si tenemos presente que la inteligencia artificial se caracteriza por aprender a partir de la experiencia, los resultados de la investigación resultan ser sumamente interesantes. Las aplicaciones de las redes neuronales en el mundo de la radiología se centran principalmente en el diagnóstico y la clasificación de tumores cerebrales.
 
A futuro
 
Los ejemplos anteriores, unos pocos de entre muchos, tienen en común el uso de inteligencia artificial en el diagnóstico y predicción del cáncer. El desafío a futuro consiste en el desarrollo de inteligencia artificial con la capacidad de diseñar tratamientos personalizados, los cuales no vendrían dados de antemano sino que se irían delineando a medida que evoluciona el paciente.
 
Esto podría hacerse de la siguiente manera: en torno a una enfermedad concreta, como el cáncer de ovario epitelial, especialistas de todo el globo subirían a una base de datos global toda la información disponible (historiales clínicos) respecto de la evolución que diferentes pacientes hayan tenido luego de ser sometidos a diferentes tratamientos. Esa información sería el entrenamiento de la inteligencia artificial. Luego, frente a un paciente concreto el profesional de la salud inicialmente, utilizaría toda la información útil disponible de ese paciente (peso, análisis bioquímicos, imágenes clínicas, signos, etcétera) para tomar una decisión (por ejemplo, una primera dosis de radio o quimioterapia). A continuación, la evolución del paciente en respuesta a esa primera decisión plasmada en datos medibles sería utilizada por la inteligencia artificial junto con la información de entrenamiento a fin de tomar una segunda decisión, y así sucesivamente. Esta línea de investigación encuadra perfectamente en la mirada que actualmente se está formando en lo referente al tratamiento del cáncer, la cual consiste en considerar el cáncer no necesariamente como una enfermedad a curar sino más bien como una enfermedad crónica con la cual el paciente pueda convivir.
 
Hasta el momento, muchos resultados experimentales y computacionales tienden a indicar que las terapias derivadas a partir de este nuevo paradigma (caracterizadas por dosis pequeñas en periodos prolongados de tiempo) incrementa tanto la calidad como el tiempo de sobrevida de los pacientes. Este cambio de paradigma se debe al elevado índice de fracaso de los protocolos consistentes en aplicar al paciente las máximas dosis de fármacos tolerables. El efecto de esto es que inicialmente la enfermedad retrocede, pero ese retroceso suele ser ilusorio, pues interiormente puede ocurrir que se eliminaron las células sensibles a la terapia —que constituyen la mayor parte del tumor— al tiempo que sobrevivieron las resistentes. Como resultado queda un tumor resistente a la terapia que luego crece desenfrenadamente.
 
¿Un peligro para la humanidad?
 
Bien es cierto que la inteligencia artificial se caracteriza por hacerse más inteligente a medida que evoluciona, pero esto no implica que de una inteligencia artificial diseñada para resolver un problema concreto pueda emerger una autoconciencia capaz de deliberar y llegar por sí misma a la conclusión de que la humanidad debe ser destruida mucho menos que no pueda contar con los medios para hacerlo. Por ejemplo, en virtud del algoritmo que la define es imposible que una inteligencia artificial desarrollada para diagnosticar algún tipo de cáncer a partir de imágenes pueda evolucionar hacia una inteligencia autoconsciente.
 
El problema es que, como ocurre con casi todas las creaciones humanas, existen en torno a esta tecnología dos caras de una misma moneda: las aplicaciones para el bienestar de la humanidad y las aplicaciones bélicas, que no necesariamente colaboran con el progreso humano. Estas últimas son las que, al igual que muchas otras tecnologías militares, constituyen un peligro para la vida y el motivo por el cual hoy muchos exigen que el desarrollo de la inteligencia artificial sea estrictamente regulado.
 
Fuera del ámbito bélico, cierto tipo de inteligencia artificial utilizado en la administración pública ya tiene un impacto negativo en la sociedad. Por ejemplo, muchas multinacionales utilizan conjuntamente diferentes tipos de inteligencia artificial —algunas especializadas en el reconocimiento facial— para la selección de personal. En teoría esto supone optimizar el proceso de reclutamiento, pues facilita la comparación de perfiles. Sin embargo, si tenemos en cuenta que a medida que tal inteligencia evolucione y sea más eficiente menos intervendrá la mano del humano en la selección de personal, es evidente que aplicaciones de ese tipo contribuyen a la cosificación de la persona en el plano ético, pues procediendo de ese modo se diluye la dignidad humana.
 
A pesar de todo, las aplicaciones negativas de la inteligencia artificial no empañan los logros alcanzados en el ámbito de la oncología ni el futuro luminoso que le espera en el campo de la medicina en general. A final de cuentas, la inteligencia artificial es creada por el humano y, en última instancia, es éste quien decide si las aplicará de manera inteligente, es decir para beneficio de la humanidad o de manera destructiva.
 
     
Referencias Bibliográficas
 
Barrea, A. et al. 2015. “Sustainable Chemotherapy Schedules”, en VI Latin American Congress on Biomedical Engineering CLAIB 2014, Paraná, Argentina 29, 30 & 31 October 2014, Braidot A. y A. Hadad (eds.). Springer, Cham. Pp. 841-845.
Enshaei, A., C. N. Robson y R. J. Edmondson. 2015. “Artificial Intelligence Systems as Prognostic and Predictive Tools in Ovarian Cancer”, en Annals of Surgical Oncology, vol. 22, núm. 12, pp. 3970-3975.
Gatenby, R. A. et al. 2009. “Adaptive therapy”, en Cancer Research, vol. 69, núm. 11, pp. 4894-4903.
Hadjiandreou, M. M. y G. D. Mitsis. 2014. “Mathematical modeling of tumor growth, drug-resistance, toxicity, and optimal therapy design”, en IEEE Transactions on Biomedical Engineering, vol. 61, núm. 2, pp. 415-425.
Tate, A. R. et al. 2006. “Development of a decision support system for diagnosis and grading of brain tumours using in vivo magnetic resonance single voxel spectra”, en NMR in Biomedicine, vol. 19, núm. 4, pp. 411-434.
Waal, I. van der. 2017. “Skin cancer diagnosed using artificial intelligence on clinical images”, en Oral Diseases.
Zheng, B., S. W. Yoon y S. S. Lam. 2014. “Breast cancer diagnosis based on feature extraction using a hybrid of K-means and support vector machine algorithms”, en Expert Systems with Applications, vol. 41, núm. 4, pp. 1476-1482.

En la red

www.cancer.org
     

     
Matías Ezequiel Hernández Rodríguez
Investigador independiente, Argentina.

Es doctor en matemática egresado de la Facultad de Matemática, Astronomía y Física de la Universidad Nacional de Córdoba, Argentina. Ha publicado varios artículos científicos y de divulgación dentro de su área de estudio: la biomatemática. Además ha ejercido la docencia en diferentes universidades de su país.
     

     
 
cómo citar este artículo


     

 

 

Entrada127A01   menu2
índice 127-128
siguiente
PDF
 
 
     
Salvador Galicia Isasmendi, Everardo Avelino Cruz
y Rubén Vázquez Roque
     
               
               
La conducta alimentaria tiene componentes innatos
y aprendidos. En los mamíferos, por ejemplo, es común aprender de los padres lo que se incluye en la dieta; así que mediante una combinación de factores genéticos y aprendidos los seres vivos se hallan adaptados en cuanto a lo que deben escoger como alimento. Sin embargo, el humano parece ser diferente ya que a menudo prefiere alimentos que no son del todo idóneos para la salud, es decir, alimentos con un alto aporte calórico, ricos en carbohidratos, grasas trans y sodio, pero bajos en proteína y fibra. ¿Quién no posee recuerdos de la infancia cuando a uno lo obligaban a comer la sopa, el brócoli o demás cosas “nutritivas” sin que uno comprendiera el por qué de la correlación entre saludable y desagradable al gusto?
 
En teoría evolutiva, no saber qué comer parece una inconsistencia ya que los gustos alimentarios presentan variabilidad entre individuos; aquellos organismos que, dadas sus preferencias, no consuman los nutrimentos necesarios para alcanzar un desarrollo físico y reproductivo apropiado, dejarán un menor número de hijos y por tanto los genes asociados a sus preferencias, alimentarias (o a la determinación conductual de éstas) también disminuirán en los genes de la especie.
 
En el caso de la dieta humana actual priva la idea de que, más que proporcionarnos los nutrimentos y requerimientos que soporten nuestra salud, ésta es el motivo de una gran cantidad de enfermedades de tipo cardiovascular, obesidad y diabetes, e incluso enfermedades neurodegenerativas como el Alzheimer.
 
No obstante, nuestras preferencias alimentarias pueden explicarse argumentando que en el pasado nos volvimos forrajeros altamente eficientes (el término forrajeo se refiere a las conductas de búsqueda y obtención de alimentos). Algunas teorías proponen que, al existir un desfase entre la velocidad de la evolución cultural y la de la evolución biológica, se desembocó en los problemas de las conductas alimentarias que aquejan a los humanos actuales; sin embargo, el panorama parece ser un tanto más complejo que eso.
 
Etapas tempranas en la evolución de la dieta
 
El pasado humano puede remontarse a organismos arborícolas que contaban entre sus fuentes alimenticias las hojas y frutos de su hábitat, lo cual tuvo consecuencias importantes en su manera de alimentarse. La fibra que forma las paredes de plantas y hojas es dura y resistente a las enzimas digestivas de los mamíferos, por lo que se necesitan altos volúmenes para obtener una cantidad apropiada de energía. Además, las hojas son pobres en carbohidratos fácilmente digeribles, como el almidón y los azúcares, por lo que los animales arborícolas que basan su dieta en las hojas deben buscar otras fuentes de alimento complementarias para obtener glucosa. Una de esas alternativas la constituyen los frutos, ya que proporcionan carbohidratos de alto valor nutricional y son bajos en fibra, pero poseen pocas proteínas, por lo que estos organismos complementan su dieta con una variedad de hojas maduras, brotes tiernos, frutos, insectos y pequeños vertebrados.
 
Las posibilidades de combinación poseen dos extremos: el primero, ejemplificado por aquellos organismos que basan su dieta en el consumo de altos volúmenes de hojas maduras, las cuales se encuentran ampliamente distribuidas, además de ser de fácil acceso, pero de bajo valor nutricional y muy altas en fibra. Estos organismos han solucionado el problema de la obtención de nutrimentos de tales fuentes mediante modificaciones en el tracto digestivo —los monos colobos son un excelente ejemplo de dicha estrategia, pues a diferencia del tracto digestivo típico de los primates con un estómago simple ácido, incluyendo a los humanos, el de éstos cuenta además con un estómago alcalino semejante al de las vacas para el procesamiento de la fibra, proceso que se realiza con la participación de bacterias celulolíticas.
 
La segunda estrategia implica alimentarse de hojas tiernas y frutos pero, dado que éstos se encuentran distribuidos en manchones dispersos y poseen un carácter estacional, se requiere un repertorio conductual que facilite su obtención: básicamente un sistema nervioso con una alta capacidad de memoria y aprendizajes de tipo espacial y temporal. Para allegarse este tipo de alimentos sería necesario recordar la localización exacta de sus fuentes, las rutas más cortas entre éstas e incluso dicha información variando a lo largo de las estaciones del año. Esta estrategia implica una fuerte presión de selección que favorecería a aquellos individuos con cerebros bien desarrollados.
 
Si es correcta la hipótesis de que la presión para conseguir alimentos con un alto valor nutritivo (pero difíciles de obtener) fue solucionada mediante el desarrollo de sistemas nerviosos más complejos que volvieron altamente eficientes en la obtención de alimentos a quienes contaban con ellos, entonces los monos frugívoros debiesen poseer cerebros más grandes que aquellos monos que centran su dieta en el consumo de hojas maduras; y de hecho así ocurre, es el caso de los monos aulladores (filófagos) y los monos araña (frugívoros) que poseen casi la misma talla pero los últimos tienen el doble de tamaño cerebral.
 
El cerebro es un órgano altamente demandante en cuanto a la energía que requiere, glucosa primordialmente; así que la selección natural no favorecería el desarrollo de un cerebro grande a menos que el organismo obtuviese un beneficio de dicho crecimiento. De organismos que desarrollaron este tipo de estrategias provienen nuestros antepasados y en gran medida este hecho dio inicio a una carrera hacia la búsqueda de alimentos con un alto valor nutricional, carrera sostenida mediante el incremento en la complejidad de las capacidades mentales que requerían para soportar un órgano energéticamente costoso, pero que a su vez retribuía a sus poseedores con una mejor alimentación.
 
Los homínidos y el origen de la dieta humana
 
Caminamos en dos piernas, no tenemos pelo, ni garras ni dientes como armas para defendernos, poseemos el cerebro de mayor tamaño en relación a nuestro tamaño corporal y hemos colonizado casi cada rincón de la Tierra. Los biólogos y antropólogos han buscado por largo tiempo entender cómo nuestro linaje llegó a diferir tan profundamente de los demás primates que habitan el planeta.
 
Uno de los aspectos en los que también diferimos de los grandes simios actuales es precisamente en lo que comemos; las poblaciones contemporáneas de humanos poseen dietas ricas en calorías y nutrimentos de origen animal. Esto nos lleva a la pregunta: ¿en qué momento y cómo nuestros ancestros divergieron en hábitos alimentarios?
 
Los homínidos que vivieron entre 5 y 1.8 millones de años atrás, durante el Pleistoceno, sufrieron los cambios ambientales que llevaron a un clima más seco en África, el sitio de origen de la estirpe humana, lo que provocó que las selvas retrocedieran ante la sabana, dejando con ello las fuentes de alimento distribuidas en manchones sobre una amplia extensión de terreno. Si comparamos esas condiciones con las de las poblaciones humanas modernas de cazadores recolectores que aún subsisten y que viven en ambientes semejantes, podremos tener un buen modelo de los patrones de subsistencia temprana de la especie humana, en los cuales resalta que la capacidad de desplazamiento es uno de los factores principales de selección, ya que se necesita de un desplazamiento de entre seis y ocho kilómetros diarios para la obtención de alimentos.
 
Una de las características más notorias de nuestro género Homo es el bipedalismo, el cual se considera como una forma altamente eficiente de desplazamiento en largas distancias dentro de los rangos de velocidades en que toma lugar la marcha, por lo que se puede proponer al bipedalismo como una de las primeras adaptaciones en la evolución hacia la eficiencia en la obtención de alimento. Recientemente se ha propuesto la pérdida del pelaje como una más de las adaptaciones importantes asociadas a la locomoción de grandes distancias y al enfriamiento.
 
Otra de las características notorias de los humanos es el cerebro, que ha sufrido un incremento marcado en el tamaño durante su evolución. De acuerdo con el registro fósil, los representantes más tempranos de nuestro linaje (los australopitecos) tenían un cerebro de entre 300 y 400 centímetros cúbicos (cc). En contraste, en el género Homo se observó en un periodo de alrededor de 300 000 años un incremento substancial del tamaño cerebral: Homo habilis, el primer representante de este grupo, poseía un cerebro de 600 cc, mientras que Homo erectus, un representante posterior, tenía un cerebro poco mayor a 900 cc. Nuestro cerebro actualmente es, en promedio, de 1 350 cc.
 
Con esos volúmenes cerebrales es interesante resaltar, como lo indican los investigadores Teaford y Ungar, que el cerebro consume cerca de dieciséis veces más energía que el tejido muscular en reposo por unidad de peso. Por tanto, cuando estamos en reposo usamos entre 20 y 25% de la energía corporal para alimentar nuestro “hambriento cerebro”, mientras que en los simios su cerebro gastaría entre 8 y 10%, que también es superior al 3 a 5% que gastan en mantener su cerebro los mamíferos restantes.
 
Por lo tanto, el crecimiento del cerebro no pudo haberse sostenido hasta que los homínidos adoptaran una dieta eficiente, suficientemente rica en calorías para satisfacer el costo asociado al crecimiento cerebral. Los cazadores recolectores actuales obtienen en promedio de 40 a 60% de la energía de su dieta de productos de origen animal; en contraste, los chimpancés modernos obtienen sólo de 5 a 7% de sus calorías mediante este tipo de alimentos.
 
Los productos de origen animal son más densos en calorías y nutrimentos que la mayoría de los productos obtenidos de las plantas; 100 g de carne proporcionan más de 200 Kcal, mientras la misma cantidad de fruta proporciona entre 50 y 100 Kcal y una porción semejante de hojas proporciona entre 10 y 20 Kcal. Estas cantidades de energía sustentan la visión de que los representantes tempranos del género Homo pudieron solventar la adquisición de masa cerebral gracias a la búsqueda de comida densa en energía.
 
Los fósiles indican también un incremento en el consumo de alimentos altamente energéticos que acompañaron el crecimiento del cerebro: los australopitecos tenían esqueletos y estructuras dentales bien adaptadas para el procesamiento de plantas fibrosas. Australopithecus robustus, una rama extinta del árbol de nuestra familia, por ejemplo, poseía una cara masiva debido al gran desarrollo de musculatura y a sus grandes mandíbulas en forma de plato que sostenían a su vez fuertes molares muy esmaltados. La extensa musculatura se anclaba en surcos y en una marcada cresta sagital en la parte superior del cráneo que servía, sobre todo, para fijar sus bien desarrollados músculos masticatorios.
 
En contraste, los miembros tempranos del género Homo que descienden de grupos más relacionados con Australopithecus gracilis tenían caras, mandíbulas y molares pequeños, carecían de cresta sagital en el cráneo, a pesar de ser más grandes en términos del tamaño corporal total que sus predecesores. Estas características sugieren que el género Homo consumía menos material fibroso y más productos de origen animal.
 
Así que podemos decir que, al tratar con el problema de la alimentación, Australopithecus robustus lo resolvió por medio del desarrollo de adaptaciones morfológicas que le permitieron subsistir mediante el consumo de alimentos difíciles de masticar. Pero el género Homo tomó una ruta diferente, desarrollando estrategias que diversificaron sus fuentes de alimentación —evidencias de esta revolución conductual son visibles en el registro arqueológico que muestra un incremento en los restos de huesos de animales en los depósitos de homínidos de estos periodos—, a la par de evidencias en cuanto al trabajo con herramientas de piedra sobre los restos de animales.
 
El incremento en las propiedades calóricas de la dieta no puede por sí solo explicar por qué el cerebro de los homínidos creció ni las conductas alomaternas, el vivir en un ambiente social y el desarrollo asociado al lenguaje y la construcción de herramientas son otros de los factores señalados como fundamentales. Pero las estrategias de forrajeo sí parecen haber desempeñado un papel importante en dicho crecimiento y posteriormente, es probable que la dieta y la expansión del cerebro interactuaran sinérgicamente: cerebros grandes estaban asociados a comportamientos más complejos que condujeron a cambios en las conductas sociales y de forrajeo, que a su vez mejoraban la dieta y posibilitaban sostener una evolución cerebral todavía mayor.
 
La marcada expansión del tamaño del cerebro en los homínidos indica que probablemente nos volvimos tan exitosos porque la selección natural amplificó una tendencia inherente en el orden de los primates: aquella de usar su cerebro y el comportamiento para resolver sus problemas de alimentación; de hecho, los humanos tempranos, al disfrutar de dichas capacidades, pudieron incrementar sus poblaciones y eventualmente desplazar a otros homínidos como los neandertales. Así pues, el uso de herramientas simples y el fuego, con el posterior desarrollo de la cacería, la pesca y una muy eficiente recolección fueron los primeros logros del ser humano. La agricultura y la ganadería deben ser vistas entonces como una consecuencia natural de esa inteligencia que favoreció la obtención de los alimentos de manera más rápida y a un menor costo.
 
Parece ser entonces que la selección natural actuó sobre los homínidos volviéndolos excelentes forrajeros capaces de aprovechar una amplia gama de fuentes alimentiarias y con un especial interés en aquellos alimentos altamente energéticos qué, a su vez, soportaron una sorprendente evolución cerebral que desembocó en conductas por demás complejas y exitosas.
 
Si la selección natural actuó así, no es extraño entonces que también se haya fijado en los humanos un fuerte gusto por estos alimentos altamente calóricos. Lo que resulta importante es que después de un amplio espacio temporal, en los humanos persista ese gusto por comidas muy energéticas, cuando las condiciones ambientales y las relaciones entre el esfuerzo invertido y la obtención de alimentos han cambiado.
 
La dieta de los primeros humanos estaba basada en los productos vegetales de la recolección de alimentos y se complementaba con los productos animales obtenidos del carroñeo o la caza, pero estas actividades implicaban un gran esfuerzo que limitaba disponer ampliamente de dichas fuentes alimenticias. Con el aceleramiento de la evolución cultural, con la agricultura y la ganadería, el esfuerzo para la obtención de productos altamente energéticos disminuyó, y si bien en primera instancia fue benéfico a las poblaciones humanas, condujo a un desbalance en la dieta esencialmente omnívora de los humanos.
 
Este desfase entre nuestra adaptación a patrones alimentarios surgidos durante el paleolítico y nuestra dieta actual ha llevado a proponer que los humanos, tratando de evitar enfermedades metabólicas e hipertensivas, deberían basar su dieta en alimentos similares a los que los humanos cazadoresrecolectores tenían, esto es, vegetales, tubérculos, frutas, nueces, peces, carne magra, miel y en absoluto azúcares, harinas refinadas, grasas saturadas, productos procesados de animales domesticados o derivados de la leche no obstante, aunque es importante reconocer que las dietas “paleolíticas” son bajas en vitamina D y calcio, además de que, mal entendidas y aplicadas como moda, pueden conducir a deformaciones en la dieta que impidan aprovechar todas las fuentes alimentarias disponibles.
 
Por otro lado, existen críticas al modelo del desfase entre la evolución biológica y la evolución cultural para explicar la aparente inconsistencia de la dieta humana en los ambientes industrializados actuales; por ejemplo, en ella se da un peso muy grande a los aspectos genéticos en la determinación de la dieta y si bien sabemos que los niños poseen una fuerte tendencia innata a escoger alimentos suaves y dulces, así como una marcada neofobia ante alimentos desconocidos, el desarrollo de las preferencias al sabor y los patrones de combinación de diferentes fuentes alimentiarias dependen en gran medida de lo aprendido de los padres. Por lo tanto, los factores culturales deberían ser incluidos como un factor epigenético importante en la evolución de la dieta humana.
 
Otra crítica se refiere a que el humano pareciese entonces poseer raíces fuertemente ancladas en su pasado paleolítico que le impiden adaptarse a nuevas condiciones o al menos que lo hace lentamente; sin embargo, debemos recordar que la magnitud de la selección natural puede impactar sobre la velocidad de fijación de nuevas variantes adaptativas, por lo que si bien del neolítico a nuestra época no es demasiado tiempo en términos evolutivos, puede ser un tiempo suficiente para producir cambios evolutivos importantes —el tiempo prolongado no es finalmente un prerrequisito para la evolución—, por lo que habría que preguntarse sobre la magnitud de los cambios genéticos ocurridos entre el neolítico y las etapas posteriores, y es importante recordar que algo que caracteriza a la evolución humana es su gran flexibilidad y capacidad de adaptación a ambientes cambiantes. Además, el plantear que la dieta humana se adaptó y surgió durante un periodo específico de tiempo es equivalente a sugerir que la dieta humana es una, la misma para las distintas poblaciones humanas, cuando en realidad ésta posee una diversidad ecológica y cultural altamente dependiente de factores ambientales y de disponibilidad estacional.
 
Para terminar
 
Podemos señalar que la inclusión en abundancia de alimentos muy energéticos en nuestra dieta por una predisposición genética, que en primera instancia resultó benéfica para el humano, ha devenido en una multiplicidad de problemas en la salud porque implica una desviación de la dinámica en el gasto y obtención de energía. Por un lado, para los niños en países del tercer mundo y en vías de desarrollo, las dietas con baja concentración proteica y de otras substancias esenciales conducen a un pobre crecimiento físico y a altas tasas de mortalidad durante la vida temprana. En estos casos, los alimentos dados a los pequeños no son suficientemente densos en nutrimentos para suplementar las fuertes demandas asociadas a estos periodos de rápido crecimiento y desarrollo.
 
Inicialmente en el mundo industrializado y actualmente con más frecuencia en países como el nuestro, nos encontramos con un problema inverso: las tasas de obesidad en niños y adultos se han incrementado debido al consumo de alimentos con un alto contenido de grasas y azúcares, que se han vuelto fácilmente disponibles y “baratos”.
 
En cierto sentido la obesidad, al igual que otras enfermedades asociadas, es la continuación de una tendencia que empezó hace millones de años. Somos víctimas de nuestro propio éxito evolutivo por haber desarrollado dietas procesadas y empacadas ricas en calorías, mientras que hemos minimizado la energía gastada en obtenerla. Como posible solución al problema, y un tanto inspiradas en estas ideas, se han propuesto dietas llamadas paleolíticas, así como otras denominadas mediterráneas, que han mostrado impactar de manera positiva al disminuir los factores de riesgo de desarrollar un síndrome metabólico, esto es el riesgo de sufrir diabetes tipo 2 y enfermedades cardiovasculares.
 
Pero más bien debemos recordar que la estrategia básica de forrajeo en el humano es la omnivoría, por lo que la dieta no debería concentrarse en el consumo exclusivo de tipos únicos de alimento, ya sean dietas paleolíticas, vegetarianas u otras tendencias todavía más especializadas, sino que las estrategias de intervención sobre la calidad nutricional deberían centrarse en la flexibilidad y diversidad que caracteriza una gran parte de la evolución de la dieta humana, en lugar de retornar a un patrón idealizado de subsistencia de cazadorrecolector. Es necesario asegurar que se incluyan ácidos como el omega 3, polifenoles, esteroles de plantas y una proporción importante de fibra; de hecho, el humano posee una capacidad comparada a la de los chimpancés para procesarla por lo que ésta parece estar incluida en menor proporción de lo que debiese.
 
Por último, la aparente “incapacidad” del humano para comer lo que es saludable puede provenir en sí de nuestras propias visiones teleonómicas de la naturaleza que nos hacen pensar en una cierta “sabiduría del cuerpo” para seleccionar nuestro alimento en función de nuestras necesidades fisiológicas, lo cual no es así. Nuestro bagaje genético nos induce a escoger de manera innata alimentos suaves y dulces, mientras que el aprendizaje carga sobre sí el establecimiento final de las preferencias al sabor y de nuestra elección de fuentes alimentarias, por lo que en este factor cultural reside también, en gran medida, el origen del problema.
     
Referencias Bibliográficas
 
Bethany, L. T. y A. L. Thompson. 2013. “Beyond the Paleolithic prescription: incorporating diversity and flexibility in the study of human diet evolution”, en Nutr. Rev., vol. 71, núm. 8, pp. 501-510.
Burkart J. M. et al. 2014. “The evolutionary origin of human hyper-cooperation”, en Nature Communications, núm. 5, pp. 1-9.
Gibbons, A. 2009. “Ardipithecus ramidus. A new kind of ancestor: Ardipithecus unveiled”, en Science, vol. 326, pp. 36-40.
Isler, K. y Carel van Schaik. 2014. “How Humans Evolved Large Brains: Comparative Evidence”, en Evolutionary Anthropology: Issues, News and Reviews, vol. 23, núm. 2, pp. 65-75.
Jew, S., S. S. AbuMweis y P. J. Jones. 2009. “Evolution of the Human Diet: Linking Our Ancestral Diet to Modern Functional Foods as a Means of Chronic Disease Prevention”, en Journal of Medicinal Food, vol. 12, núm. 5, pp. 925-934.
Lieberman, D. E. 2015. “Human locomotion and heat loss: an evolutionary perspective”, en Compr. Physiol., vol. 5, núm. 1, pp. 99-117.
Maslin, M. A., S. Shultz y M. Trauth. 2015. “A synthesis of the theories and concepts of early human evolution”, en Phil. Trans. Royal Soc. B Biological Sciences, vol. 370, núm. 1663.
Steele, J., Pier F. Ferrari y Leonardo Fogassi. 2012. “From action to language: comparative perspectives on primate tool use, gesture and the evolution of human language”, en Phil. Trans. Royal Soc. B Biological Sciences, vol. 367, núm. 1585, pp. 4–9.
Teaford, M. F. y Peter Ungar. 2000. “Diet and the evolution of the earliest human ancestors”, pnas, vol. 97, núm. 25, pp. 13506–13511.
Treviño, Samuel et al. 2016. “El síndrome metabólico como un factor de riesgo para inducir la enfermedad de Alzheimer”, Revista Iberoamericana de Ciencias, vol. 3, núm. 4, pp. 68-74.
Wardle, J. y L. Cooke. 2008. “Genetic and environmental determinants of children’s food preferences”, British Journal of Nutrition, vol. 99, núm. 1, pp. S15–S21.
     

     
Salvador Galicia Isasmendi
Facultad de Ciencias Biológicas,
Benemérita Universidad Autónoma de Puebla.

Es biólogo y doctor en ciencias fisiológicas por la BUAP. Dirige el laboratorio de Neurobiología del Desarrollo en la Facultad de Ciencias Biológicas de la BUAP, en donde estudia el efecto de la experiencia sensorial temprana en la formación de circuitos neuronales.

José Everardo Avelino Cruz
Instituto de Fisiología,
Benemérita Universidad Autónoma de Puebla.

Es licenciado en biomedicina y maestro en ciencias fisiológicas por la Benemérita Universidad Autónoma de Puebla. Obtuvo su doctorado en fisiología y neurociencias en la Università degli studi di Pavia, Italia, actualmente dirige el laboratorio de Cardiología Molecular en el Instituto de Fisiología de la BUAP.

Rubén Vázquez Roque
Instituto de Fisiología,
Benemérita Universidad Autónoma de Puebla.

Es químico farmacéutico biólogo por la Facultad de Ciencias Químicas de la BUAP, maestro y doctor en ciencias químicobiológicas por la Escuela Nacional de Ciencias Biológicas del IPN. Estudia las enfermedades neurodegenerativas y los efectos de la interacción materna y el aislamiento social sobre modelos de conducta animal.
     

     
 
cómo citar este artículo


     

 

 

de las encuestas
        menu2
índice 127-128
siguiente 
anterior
PDF
                 
La percepción de la
relación entre alimentos
y diabetes
en una escuela secundaria
127B03  
 
 
 
Jesús David Alvarado Rodríguez  
                     
En enfermedades como la diabetes mellitus tipo 2,
el factor cultural suele tener una influencia decisiva en su devenir, por lo que debemos ir más allá del ámbito de lo técnico de la enfermedad y de la salud para incursionar en el padecer, en la esfera psicosocial, en las tradiciones, en las formas de vivir. Cada día se puede escoger los tipos de alimentos que se comerán, cómo se cocinaran (preferiblemente hervidos, asados, al horno, al vapor y evitar o disminuir los alimentos fritos), la cantidad que se comerá y la calidad de los productos (se recomienda que sean poco procesados). Se puede mantener la salud o acelerar su declive si no se planifica la dieta diaria.
 
Para indagar cómo se percibe esta relación se efectuó una pequeña investigación entre estudiantes de secundaria. El sondeo se llevo a cabo en la Escuela Secundaria General Número 2 y se seleccionaron al azar los sujetos siguiendo los siguientes criterios: alumnos que se encuentren actualmente estudiando en dicha institución que voluntariamente quieran participar en la encuesta. Se les dijo que la información sería confidencial. Al final hubo treinta participantes.
 
Algunas preguntas sólo eran para conocer su punto de vista, pero otras como: “¿sabes qué son los carbohidratos y cómo se relacionan con esta enfermedad?” buscaban conocer el nivel de conocimiento sobre el tema. A la pregunta: “¿conoces causas para desarrollar diabetes?”, todos los encuestados coincidieron en respuestas como sobrepeso, mala alimentación y falta de ejercicio. A: “¿sabes qué alimentos están relacionados con el desarrollo de la diabetes? (menciona algunos)”, 90% enumeraron la comida rápida, refrescos, dulces y postres como los alimentos que se relacionan con el desarrollo de esta enfermedad mientras que 10% mencionó no sólo estos alimentos, sino también que una dieta alta en grasa y no tener horarios de comida adecuados. “¿Qué alimentos conoces que contengan carbohidratos? (menciona algunos)”, 80% de los encuestados repitieron la respuesta anterior pero 20% mencionó que casi todos los alimentos que se consumen contienen carbohidratos, pero que es el exceso en su consumo lo que ocasiona que esta enfermedad se desarrolle.
 
“¿Crees que existe relación entre el grado de escuela cursado y el desarrollo de la diabetes? (sí, ¿por qué?) (no, ¿por qué?)”, 60% contestó “no sé”, 20% contestó que no tiene nada que ver y 20% que sí influye en el desarrollo de diabetes y que hay relación de hábitos alimenticios con el nivel de educación. «¿Qué alimentos evitarías consumir si padecieras diabetes?”, 46.6% contestó que evitarían la comida rápida, refrescos y dulces; 33.3% añadieron que el consumo de frutas y verduras es importante y evitar alimentos calóricos; sólo 20% mencionó que una dieta balanceada y de acuerdo con sus necesidades nutricionales, así como realizar alguna actividad física.
 
A pesar de las campañas efectuadas por diferentes instituciones, las personas muchas veces descartan lo anunciado en medios de comunicación masiva sobre estos temas. Al parecer existe poco interés o nula información sobre el tema en sus familias, no hay una necesidad de querer saber; sin embargo, algunos resultados mostraron que lo aprendido en la escuela proporciona conocimiento sobre el tema de la alimentación y la diabetes, y motiva a buscar más información, a ser sujetos que cuidan su salud.
 
Principalmente en relación con los hábitos alimenticios y cómo estos se relacionan, los encuestados sí demostraron tener un conocimiento en relación con la diabetes.
 
     
Referencias bibliográficas

Buyken, A. E., et al. 2010. “Optimal dietary approaches for prevention of type 2 diabetes: a life-course perspective”, en Diabetologia, vol. 53, núm. 3, pp. 406-418.
Franz, M. J., et al. 2010. “The evidence for medical nutrition therapy for type 1 and type 2 diabetes in adults”, en Journal of the American Dietetic Association, vol. 110, núm. 12, pp. 1852-1889.
Hodgson, J.M., et al. 2000. “Acute effects of ingestion of black and green tea on lipoprotein oxidation”, en Am. J. Clin. Nutr., vol. 71, núm. 1, pp. 1103-1107.
Leitzmann, C. 2005. “Vegetarian diets: what are the advantages?”, en Forum Nutr., vol. 57, núm. 1, pp. 147-156.
Porrata Maury, C., et al. 2007. “Efecto terapéutico de la dieta macrobiótica Ma-Pi 2 en 25 adultos con diabetes mellitus tipo 2”, en Revista Cubana de Investigaciones Biomédicas, vol. 26, núm. 2.
Risérus, U., Willett, W. C., y Hu, F. B. 2009. “Dietary fats and prevention of type 2 diabetes”, en Progress in lipid research, vol. 48, núm. 1, pp. 44-51.
Salas-Salvadó, J., et al. 2011. “The role of diet in the prevention of type 2 diabetes”, en Nutrition, Metabolism and Cardiovascular Diseases, vol. 21, núm. 1, pp. 32-48.
Shaw, J. E., Sicree, R. A., y Zimmet, P. Z. 2010. “Global estimates of the prevalence of diabetes for 2010 and 2030”, en Diabetes research and clinical practice, vol. 87, núm. 1, pp. 4-14.

     

     
Jesús David Alvarado Rodríguez
     

     
 
cómo citar este artículo

     

 

 

del contexto
        menu2
índice 127-128
siguiente 
anterior
PDF
                 
La repercusión de la economía en la salud 127B02  
 
 
 
Melissa Janel McElwain,
Miriam L. Zúñiga y
Emmanuel Bañuelos
 
                     
La salud es un concepto que abarca una serie
de factores
que se relacionan entre sí. La Organización Mundial de la Salud describe la salud como un estado de completo bienestar físico, mental y social, y no solamente como la ausencia de afecciones o enfermedades. De aquí se desprenden los tres principales determinantes de la salud, tanto del individuo como de la población en general.
 
El ámbito económico representa el primer determinante de salud, ya que está estrechamente relacionado con la incapacidad y falta de tiempo para hacer un seguimiento pertinente del estado físico y mental de una persona. Una futura privatización e inaccesibilidad a los servicios de salud representa un enorme impedimento para llevar una calidad de vida favorable; un segundo determinante es el trabajo, ya que, por ejemplo, una jornada de trabajo que abarca más de un turno no da la posibilidad de tener tiempo libre para la realización de actividades de recreación, lo que puede desatar serias repercusiones para el individuo que mantiene esta situación y para toda la familia. La situación política representa un tercer y último determinante; según la Constitución mexicana, en el articulo 123, se plantea la posibilidad de cubrir todas las necesidades en el ámbito familiar con el salario mínimo, lo cual representa meramente una idealización por parte de este documento y dista mucho de la realidad del país, ya que actualmente un trabajo que aporta el sueldo mínimo no brinda la posibilidad de llevar una vida digna en México.
 
La clase social a la que se pertenece es una manifestación de cómo ocurre la relación entre la situación económica y la salud y la enfermedad; la localización geográfica de la vivienda y el acceso a un centro de salud puede resultar complicado cuando intervine el nivel de escasez de transporte y la misma economía —la falta de un ingreso monetario— debido al alto costo de las consultas médicas, creando una barrera en la gestión de la atención a la salud, a poder dar seguimiento a un problema patológico, controlarlo o erradicarlo si es posible.
 
Este artículo trata de un estudio de caso que presenta una situación real en la cual se intersectan estas tres determinantes, lo que permite ver claramente las repercusiones que se desarrollan en cada una de ellas.
 
Un estudio de caso
 
Madre soltera de treinta y ocho años, labora en dos instituciones recibiendo un sueldo mínimo, se apoya vendiendo dulces, ya que no abastece sus necesidades con dos empleos y las condiciones la obligan a buscar una mayor remuneración económica. Tiene cuatro hijos: la mayor de veinte años, que ya tiene una pequeña de dos años; uno de diecinueve años, que también tiene un bebé de siete meses, y dos hijos menores, una adolescente de trece años y uno de doce. Viven en situación de hacinamiento, ya que son varias familias bajo un mismo techo. La vivienda consta de tres habitaciones, que son compartidas por los miembros de las familias; el piso es de cemento y la casa del mismo material. Tiene un tanque pequeño de gas y no cuentan con calentador de agua. Al trabajar dos jornadas laborales y vender dulces para poder abastecer tan sólo las necesidades básicas del hogar, podemos afirmar que un salario mínimo no está satisfaciendo las necesidades de esta esfera familiar.
 
La salud de la población no depende enteramente de algún servicio de salud, sino de las condiciones en las que vive. Un informe actual del Banco Mundial y del inegi afirma que durante los años 20112015 entre 5.7 y 6% del producto interno bruto se destinó a la salud. Esta información puede parecer errónea, ya que el porcentaje no refleja la situación que se observa cotidianamente.
 
Refiriéndose a la determinante social, analizamos que la comunicación es disfuncional entre los miembros involucrados a causa de la falta de disponibilidad de la madre. Debido a que las necesidades básicas fueron una prioridad, se dejó en segundo término las necesidades de afección y las psicológicas, lo cual repercutió en las decisiones tomadas y las relaciones de los hijos con amistades nocivas o relaciones desfavorables.
 
La convivencia familiar es fundamental para el crecimiento y desarrollo afectivo y social de cada integrante de la familia, pero en este caso observamos que no se prestó la oportunidad de llevar a cabo actividades recreativas.
 
Por otra parte, observamos la repetición de patrones en dos de los integrantes de la familia: la hija de veinte años concibió un hijo a una corta edad, lo cual alteró sus metas a mediano y largo plazo al verse en la necesidad de abandonar sus estudios y dedicarse a trabajar para poder sacar adelante a su hijo; en este caso el padre no responde por las necesidades del infante. En relación con el segundo hijo, se presentó una situación de embarazo precoz en su pareja, por lo que tuvo que abandonar sus estudios a temprana edad, lo cual constituye una repetición de un mismo patrón en el ámbito familiar.
 
En relación a la determinante política, percibimos una falta de priorización en la atención oportuna y adecuada, ya que la madre padece dos patologías: hipertensión arterial y obesidad, ambas sumamente relacionadas con la falta de actividad física y una nutrición inadecuada, la falta de tiempo para descanso y para actividades lúdicas y la inaccesibilidad a los servicios de salud, lo que no le permite un seguimiento adecuado a su plan terapéutico ni adquirir los medicamentos de manera oportuna. Las largas esperas para recibir atención médica, las fechas postergadas para cualquier estudio o intervención quirúrgica aunadas a la falta de tiempo de la jefa de familia son factores que repercuten en la calidad de vida, tanto de ella como de su familia. Las nuevas políticas en salud reducen cada vez más los servicios de salud ofertados, afectando directamente a los individuos.
 
El caso de esta familia es un ejemplo de lo que muchas familias mexicanas viven día con día. De acuerdo con el Consejo Nacional de Evaluación de la Política de Desarrollo Social, en 2014 se registró que 18.2% de la población mexicana presenta una carencia de acceso a los servicios de salud, lo que repercute en el bienestar de los individuos. De acuerdo con este indicador, 53.2% de la población presenta un ingreso inferior a la línea de bienestar, lo que propicia una disminución en la calidad de vida de los mexicanos.
 
Conclusión
 
Sabemos que actualmente la situación económica influye en gran medida en el desarrollo holístico del individuo que vive en sociedad. Esto se ve reflejado en un enfoque que se centra exclusivamente en las actividades laborales, resultando en una gestión inadecuada de la salud y las relaciones sociales.
 
Basándonos en una guía de promoción de la salud elaborada por el Instituto Mexicano del Seguro Social tomamos los temas más relevantes para diseñar el plan de intervención. Partimos de las necesidades de la familia e identificamos los siguientes temas a tratar: actividad física, salud sexual y reproductiva, salud mental y prevención en el uso de drogas.
 
Respecto de la actividad física, nos enfocamos en una rutina de ejercicio aeróbico sencillo de realizar, que implica poco tiempo y en el cual pueden participar todos los miembros de la familia, promocionando a la vez la convivencia familiar y el cuidado a la salud en la familia. En cuanto a la salud sexual y reproductiva, nos enfocamos en todos los miembros de la familia ya que tenemos dos casos de embarazo precoz, abordando también la planificación familiar y las enfermedades de transmisión sexual.
 
Para el tema de salud mental, se abordó un manejo de situaciones problemáticas, así como de las principales determinantes que afectan la salud mental. Finalmente, para la prevención en el uso de drogas se impartieron diez recomendaciones básicas que puede utilizar el padre de familia o tutor.
     
Referencias bibliográficas

Acosta, Ma. de la Luz, Martha B. Cárdenas, Navarrete, G., y María A. Ulloa, Martha B. Cárdenas. 2006. Compilación Nacional de Determinantes de la Salud. Secretaría de Salud, México.
Boldo E., et al. 2005. “Evaluación de Impacto en Salud: Una herramienta infrautilizada en salud pública: Ejemplo Apheis (Air Pollution and Health: a European Information System)”, en Boletín Epidemiol. Sem., vol. 13, núm. 9, pp. 97- 100.
Secretaría de Salud, México. 2006. Modelo Operativo de Promoción de la Salud. Subsecretaría de Prevención y Promoción de la Salud. Dirección General de Promoción de la Salud, México.

     

     
Melissa Janel McElwain Martínez
Miriam Lizeth Zúñiga Estrada
Emmanuel Bañuelos Aguilar

Universidad Iberoamericana de Tijuana.
     

     
 
cómo citar este artículo

     

 

 

del sexo
        menu2
índice 127-128
siguiente 
anterior
PDF
                 
Las adolescentes y el uso
del preservativo en los inicios de la vida sexual
 127B10  
 
 
 
Rusek Harit Morles Ochoa  
                     
 
Las oportunidades en la educación tienen un importante
efecto en la calidad de vida de los adolescentes de México y esto se ve reflejado en las condiciones en las que toman decisiones sobre su sexualidad; no obstante, se ven limitadas por las maneras y servicios con que cuentan para ello y de aquí se desprenden ciertos riesgos. En lo que respecta a la salud sexual y reproductiva, los principales riesgos de esta población son: 1) el inicio de su vida sexual no elegido, involuntario y sin protección; 2) embarazos no deseados, no planeados o la posibilidad de que se desarrollen en condiciones de riesgo; y 3) las infecciones de transmisión sexual.
 
Globalmente, una gran cantidad de adolescentes son sexualmente activos antes de cumplir veinte años de edad y de éstos un alto porcentaje son padres adolescentes debido a que alrededor de 60% no utiliza ningún método anticonceptivo. Los riesgos de un embarazo en la adolescencia están fuertemente ligados a las desigualdades, la pobreza y la inequidad de género. Las probabilidades de que las adolescentes de entre quince y diecinueve años mueran se deben a complicaciones durante el embarazo o el parto; dichas probabilidades duplican los de las mujeres que gestan entre los veinte y treinta años.
 
Los cambios físicos sufridos en la adolescencia, unidos a un interés creciente por saber sobre sexo y a la adquisición de información errónea sobre sexualidad, hacen que se vaya formando una identidad controversial. En este periodo se sale del seno familiar para ir entrando y compartiendo el mundo de los iguales, con lo que se supone un choque de las creencias transmitidas en la familia sobre sexo y sexualidad con las que otros adolescentes y los medios de comunicación aportan. De este modo se les presenta una disonancia entre qué valores asumir como propios, cuáles se van a rechazar y cuáles de los recibidos de los padres se conservarán. Todo ello se manifiesta en lo cambiante de su humor, de su irascibilidad y de ciertas reacciones irracionales, que son la expresión del conflicto interior que está viviendo.
 
Una duda que comúnmente tienen es cuándo se deben iniciar las relaciones sexuales, más si éstas incluyen el coito, lo que implica riesgo de embarazo y mayor peligro de contagio de infecciones de transmisión sexual. Lo ideal es que se llegue a ese momento preparado psicológicamente y que tanto el protagonista como sus progenitores y educadores lo interpreten como un acto de responsabilidad y libertad. Por lo tanto, la respuesta no se puede reducir a ofrecer una edad para iniciarse, porque el criterio cronológico no siempre se corresponde con la madurez afectiva. La respuesta supone un análisis de la situación que comprenda diferentes factores.
 
En primer lugar, el adolescente debe analizarse a sí mismo y descubrir cuál es su actitud personal ante el sexo, así como si es responsable para asumir las consecuencias de mantener relaciones sexuales con otra persona. Debe ser lo suficientemente maduro o madura como para adquirir una protección adecuada para prevenir un embarazo y las infecciones de transmisión sexual. Pero también hay que estar preparado para hacer frente a respuestas emocionales y complejas, importantes para definir el comportamiento futuro, pues se inician los problemas amorosos, el enamoramiento, la necesidad del otro.
 
Después llega el análisis del otro, es decir, de la persona con la que se va a tener relaciones. Hay que estar seguro de que ofrece confianza y respeto, pues es con quien se planea compartir la intimidad, y debe quedar claro que a este momento se llega desde la plena libertad, no con el propósito de satisfacer los deseos del otro sin conocer los propios.
 
Para terminar, merece la pena reflexionar sobre la familia, el entorno y el grupo. Las relaciones sexuales pertenecen a la intimidad de las personas y por ello no hay obligación de compartir con los demás detalles sobre ellas, salvo si se quiere hacer o se necesita hacerlo, mucho menos seguir los dictámenes de los otros sobre el ejercicio de la sexualidad. Los amigos deberían respetar al prójimo y no llevarlo a hacer cosas que no quiere o no está seguro de querer. A los padres y madres, por lo general, les costará concebir a sus hijos como seres sexuales, pero esto no debería empujarlos a coartar su libertad. Los adolescentes y jóvenes están expuestos a factores y conductas de riesgo, elementos que aumentan la probabilidad del desencadenamiento de algún hecho indeseable, enfermar o morir, las actuaciones repetidas fuera de determinados límites pueden desviar o comprometer su desarrollo psicosocial normal con repercusiones perjudiciales para la vida actual o futura.
 
La falta de información para protegerse de las infecciones de transmisión sexual y la alta actividad sexual sin protección son los factores y conductas de riesgo más frecuentes en la adquisición de estas enfermedades, que afectan sobre todo a la población comprendida entre los quince y los veinticuatro años, y constituyen un verdadero problema de salud en estas edades. Se añade el riesgo a la salud por el embarazo precoz y la frustración social que trae para la adolescente cambiar drásticamente su proyecto de vida.
 
Aunque existen algunos detractores del preservativo como medio eficaz de protección, mayoritariamente ligados a percepciones religiosas, está demostrado que es el mejor anticonceptivo en estas edades por su inocuidad y ausencia de efectos colaterales, además es la forma más eficaz de protección contra las infecciones de transmisión sexual.
 
Estado del arte
 
La necesidad de identificar el comportamiento sexual y el uso del condón como anticonceptivo y medio de protección contra las infecciones de transmisión sexual entre las adolescentes y jóvenes como etapa previa a la intervención fue el motivo de la realización de este estudio.
 
Se encontró que las mujeres ya no buscan el matrimonio durante la adolescencia y que sentirse y mostrarse como seres sexuales forma parte de la cotidianeidad, lo cual no significa que busquen encuentros sexuales, sino que es una manifestación de un sentimiento positivo hacia su cuerpo y su sexualidad. En lo que corresponde a la masturbación femenina, se habla sobre esta actividad y se ve como una práctica para aprender y experimentar el orgasmo, pero siempre se espera que sea el hombre el que le enseñe a la mujer. Para ellas el aprendizaje de la sexualidad se da por pares o por medios informativos populares y no se suele acceder a la pornografía. En cuanto al uso del preservativo, se muestra poco frecuente, señalando que el hombre no lo quiere usar, que pedir su uso puede generar desconfianza, así como que no les gusta. En cuanto a la maternidad, ya no es vista solamente dentro del matrimonio. También se señala que las mujeres adolescentes mantienen relaciones sexuales no sólo con su novio, sino con amigos, en ocasiones mayores que ellas. Comparativamente los varones tienen más contacto sexual que las mujeres, lo que parece demostrar su mayor disponibilidad para el sexo ocasional, el cambio de pareja y tener relaciones sexuales con varias chicas; consideran que la fidelidad es un sistema de monogamias sucesivas.
 
No obstante, cuando se les pregunta por prácticas sexuales concretas y explícitas (sexo oral, vaginal y anal) sólo hay diferencias significativas en el caso del sexo anal que es infrecuente en ambos casos, aunque más frecuente en chicos (8%) que en chicas (4.2%). Por otro lado, tan sólo 7% de los varones manifiesta no haberse masturbado nunca durante el último año, frente a 83% de las jóvenes. Esto puede deberse a que es una conducta mejor aceptada socialmente en los hombres; además, la anatomía de los varones favorece descubrir la masturbación más fácilmente que en el caso de las chicas.
 
Las conductas más convencionales —caricias no genitales, caricias en genitales por encima de la ropa, caricias genitales directas y coito vaginal— se hacen más frecuentes con la edad. Sin embargo, la práctica del sexo oral y del anal no sigue una clara secuencia en función de la edad. A la hora de ligar, 43% de los chicos y 58% de las chicas manifiestan que los dos tomaron la iniciativa.
 
Aunque tengan comportamientos similares, estos no tienen los mismos motivos ni el mismo significado para hombres y mujeres. Las diferencias más espectaculares son las referidas a las motivaciones por las que se tienen relaciones sexuales y de pareja. Las mujeres buscan preferentemente afecto y los varones buscan preferentemente sexo.
 
Por debajo de los quince años, las diferencias en la motivación para mantener relaciones sexuales son más marcadas. Los chicos buscan (en este orden): sexo y afecto, al contrario que ellas; 58.7% de las chicas de hasta quince años declara que en sus encuentros eróticos busca, sobre todo, afecto. A pesar de ello, 35.7% de las encuestadas de todas las edades declara que, sobre todo, practican el sexo para conseguir satisfacción emocional. Los chicos aseguran tener con mayor frecuencia fantasías sexuales que las mujeres y en ambos casos la incidencia aumenta con la edad.
 
Los investigadores destacan la existencia de un doble patrón para chicos y chicas con respecto de sus afectos y conductas sexuales. No obstante, dicho patrón aparece de manera más clara en los afectos que en las conductas.
 
Hombres y mujeres se sienten con derecho a tener relaciones sexuales si lo deciden; ambos sexos pueden tomar la iniciativa y de hecho tienen relaciones a una edad similar con un número de parejas cada vez más parecido. Todo indica que tales patrones están cambiando, pero es arriesgado predecir cómo evolucionará en la próxima década.
 
Encuesta y resultados
 
Se realizó una investigación de corte cualitativo sobre la percepción de las adolescentes en cuanto a no usar preservativo al momento de tener las relaciones sexuales. La muestra fue de un grupo de diez adolescentes de entre catorce y veinte años de edad. Se seleccionaron a las que tenían vida sexual activa y éstas dieron su punto de vista sobre el hecho de no usar preservativo durante las relaciones sexuales.
 
Se llevó a cabo la recolección de datos en la asociación civil Vifac de la ciudad de Veracruz; se aplicaron cuestionarios que fueron contestados por las adolescentes. El instrumento fue la entrevista semiestructurada para que las adolescentes no se limitaran al contestar el cuestionario.
 
En un periodo de cuatro meses se observó la frecuencia de los síntomas de decaimiento o depresión por no usar preservativo y que las llevó a tener un embarazo no deseado, pero también se notó cierta actitud positiva.
 
De acuerdo con nuestros resultados se encontró que cuatro de las diez pacientes originalmente incluidas, no padecían dicho síntoma de depresión, mientras las otras seis pacientes se ubicaron dentro de la escala con una puntuación que nos indica una probabilidad de padecer depresión. Como el instrumento no nos indica con seguridad que la tengan sería necesario vigilar la evolución de cada adolescente para confirmar el diagnostico. Entre esas seis, tres referían características como “me he culpado, pues mi pareja influyó de alguna manera en tener el acto de la relación sexual sin preservativo”, “me he sentido triste por abandonar la escuela”, “me he sentido tan infeliz que he estado llorando por la llegada de mi bebé”, “he sentido miedo y pánico sin motivo alguno, pero mi bebé es mi impulso y mi motor para seguir adelante” y “al no tener apoyo de mis padres, algunas cosas me oprimen y agobian”.
 
De acuerdo con la literatura, los factores más comunes que causan depresión o actitudes de decaimiento son: no tener apoyo de sus padres, que su proyecto de vida se ve afectado por abandonar la escuela, tener que trabajar y no contar con una pareja.
 
El estudio aquí presentado supone también una evaluación de la escala de depresión postparto al momento del alta hospitalaria, lo que limita los resultados a estado depresivo en los primeros meses.
 
     
Referencias bibliográficas

Alarcón Argota, R. 2009. “Factores que influyen en el embarazo en la adolescencia” en Revista Cubana de Enfermería, vol. 25, núm. 1-2.
Barrios, M., Góngora, A. y Suárez, C.J. 2006. Modelo de gestión para la garantía de los derechos sexuales y reproductivos de niños, niñas, adolescentes y jóvenes. Universidad Nacional de Colombia, Bogotá.
Cortés Alfaro, A., et al. 1999. “Comportamiento sexual, embarazo, aborto y regulación menstrual en adolescentes de tecnológicos de Ciudad Habana”, en Revista Cubana de Obstetricia y Ginecología, vol. 25, núm. 1, pp. 34-38.
Gonzalez Rodriguez, M. P y Velarde Mayol, C. 2011. “Salud sexual y reproductiva en adolescentes/ actitud de los hombres adolescentes ante el embarazo en la adolescencia”, Rev. Pediátrica Chilena.
González, E., et al. 2010. “Percepciones y experiencias del inicio sexual desde una perspectiva de género, en adolescentes consultantes en un centro universitario de salud sexual y reproductiva”, en Revista chilena de obstetricia y ginecología, vol. 75, núm. 2, pp. 84-90.
Lameiras Fernández, M., et al. 2006. “Evaluación de un programa de educación sexual con adolescentes: una perspectiva cualitativa”, en Diversitas: Perspectivas en Psicología, vol. 2, núm. 2.
Lameiras, M. y Rodríguez, Y. 2002. “Evaluación del sexismo moderno en adolescentes”, en Revista de Psicología Social, vol. 17, núm. 2, pp. 119-127.
Molina, M., et al. 2004. “Embarazo en la adolescencia y su relación con la deserción escolar”, en Rev. Méd. Chile, vol. 132, núm. 1, pp. 65-70.
Quintana, S. A. 1999. Investigaciones Recientes sobre Salud Sexual y Reproductiva de los Jóvenes en el Perú. redess, Lima.
Vázquez, A. 1999. “Embarazo en la adolescencia, repercusión biosocial durante el primer año de vida” en Rev. Cubana Ped., vol. 69, núm. 2, pp. 82-88.
     

     
Rusek Harit Morles Ochoa
Universidad Cristóbal Colón,
Boca del Río, Veracruz.
     

     
 
cómo citar este artículo


     

 

 

Entrada127A12   menu2
índice 127-128
siguiente
anterior
PDF
 
     
Flor Ángela Tobón Marulanda, Sonia Claudia Duque
Cuartas y Luis Alirio López Giraldo
     
               
               
Las ciencias farmacéuticas son una herramienta fundamental
para forjar una cultura en torno a la salud y están involucradas en la gestión de riesgo integral en el uso de medicamentos y afines por prescripción y automedicación. La actitud y práctica que prevalece hacia este asunto constituyen un factor de riesgo multifactorial para el ser humano y la salud pública, ya que se ignora, desconoce o se subestima el que los medicamentos son sustancias químicas bioactivas de origen natural, semisintético y sintético no inocuas, y que si bien son utilizados para la prevención, el tratamiento, la recuperación y el mantenimiento de la salud (su aspecto protector), a la vez constituyen un factor de riesgo.
 
Los medicamentos y afines presentan dos caras. Por una parte poseen un aspecto protector, para lo cual su prescripción es racional, con base en un diagnóstico preciso, y mediante esto se espera que se produzca un efecto benéfico en el complejo proceso de salud y enfermedad. Por otra parte, pueden presentar un aspecto de riesgo al producir simultáneamente efectos no deseados, como una reacción adversa medicamentosa. En la decisión de usarlo por prescripción o automedicación predomina el interés particular y económico por sobre el interés de seguridad del paciente y la promoción del autocuidado.
 
Es un hecho que las prácticas biomédicas son cambiantes por el progreso técnico y científico de la medicina, así como debido a las características propias de cada paciente y el nivel de atención en salud. No obstante, históricamente existen factores diferentes, como los motivos culturales (religión, consejo de amigo, costo, televisión) y la publicidad de la industria farmacéutica, que intervienen en dichas prácticas. Los farmacéuticos, las autoridades de educación, salud y justicia, las empresas promotoras y las instituciones prestadoras de salud y de la industria farmacéutica tienen la responsabilidad social de procesar esta situación desde la gestión de riesgo integral de problemas relacionados con el uso de medicamentos. Ésta se asienta en los siguientes cuatro pilares esenciales: 1) una educación en investigación formativa temprana acorde con las realidades sociales unida a la promoción de la salud, seguridad y eficacia de los medicamentos y afines, la cual debe ser transversal al currículo de estudiantes y profesionales; 2) una gestión de riesgo integral administrativa, financiera y de talento humano, con capacidades y habilidades que impliquen la atención primaria en salud y una política farmacéutica beneficiosa a fin de controlar conductas de uso irracional por la seguridad del paciente; 3) promover un clima de organización del servicio de atención farmacéutico como marco de atención a la salud; y 4) el mantenimiento de una ética a lo largo de todos los procesos de gestión de riesgo integral en la cadena que implican los medicamentos y afines.
 
La Organización Mundial y Panamericana de la Salud señalan que: "los farmacéuticos en todos los países tienen un rol esencial de asegurar una atención de las necesidades de los individuos y de la sociedad, relacionada al uso óptimo de los medicamentos a costo bajo". También refieren que, aproximadamente, un tercio de la población mundial carece de acceso a medicamentos esenciales, pues el modelo de seguridad social público subsidiado es exiguo y deficiente. Más de 50% de los pacientes a quienes se les prescribe o se automedican usan inadecuadamente los medicamentos. En los países en vía de desarrollo, el uso de medicamentos representa un gasto global en salud de 25 a 70%, mientras que en los países desarrollados constituyen menos de 10%. Alrededor de 90% de la población de ingresos bajos a medios tiene que costear los medicamentos de su minúsculo presupuesto, de ahí que las prácticas biomédicas y el uso de los medicamentos tengan un enfoque de factor de riesgo, pues están ligados a un sistema de salud inequitativo y globalizado.
 
Existe una responsabilidad social que implica disminuir la influencia de los factores de riesgo que puedan influir en el efecto terapéutico, el cual está interrelacionado con el paciente (su estado clínico), el medicamento o afín (molécula química, principio bioactivo de cada fármaco, elaboración farmacéutica) y el ambiente. Por tanto, una gestión de riesgo integral que prevenga las reacciones adversas medicamentosas y los problemas relacionados con el uso de medicamentos debe ir más allá del efecto terapéutico al ingerir una pastilla. Los factores de riesgo pueden ser de tipo humano, clínico, social, cultural, político y mercantilista, y su intervención puede provocar algún cambio en el efecto del medicamento en el organismo (de un ser humano a otro o de una comunidad a otra).
 
La pregunta es: ¿cómo sensibilizar a los responsables directos de la salud acerca de la importancia de mejorar y fortalecer el rol del farmacéutico en los servicios de atención a la salud?, ¿cómo lograr que se realicen estudios continuos farmacoepidemiológicos que profundicen en los problemas relacionados con el uso de medicamentos como un asunto fundamental para la salud pública?
 
Un enfoque de riesgo para la salud pública
 
La orientación de la gestión de riesgo integral de los problemas relacionados con el uso de medicamentos se fundamenta en que son moléculas químicas bioactivas y que no existe molécula química inocua, además de que son sintetizadas cada vez con mayor potencia para un supuesto beneficio terapéutico. Paralelamente, los medicamentos pueden causar reacciones adversas medicamentosas o interacciones con otros fármacos hasta ser tóxicos por accidente, sobredosis intencional o un efecto farmacológico iatrogénico.
 
Así, se puede agravar la situación clínica del paciente (factor de riesgo) al inducir un efecto no deseado (signos, síntomas o enfermedad) independiente de la dosis y frecuencia, de forma inmediata (desde una emergencia clínica hasta algo fatal), a corto, mediano o largo plazo. Entre los más relevantes están: el shock anafiláctico (penicilina G benzatínica, ampicilina, lidocaína y vacunas), el efecto teratogénico (talidomida, dietilestilbestrol, carbonato de litio, diazepam), el síndrome StevensJohnson (dipirona, sulfametoxazol, fenitoina), el efecto nefrotóxico (ibuprofeno, gentamicina), el cardiotóxico (fluoxetina, clorimipramina, etanol, cocaína, celecoxib), el hepatotóxico (acetaminofén, oxitetraciclina, rifampicina), rabdomiolisis (simvastatina), la colitis pseudomembranosa (lincomicina, ampicilina, cloranfenicol, oxitetraciclina), los gastrotóxicos (diclofenaco, betametasona, eritromicina) y hepatotóxicos (dipirona, ácido mefenámico).
 
Aunque se reconoce esta realidad, existe una medicalización generalizada con un criterio puntual y poco específico (ensayoerror) que excluye la influencia del entorno del paciente y los servicio de atención a la salud. Tales problemas relacionados con el uso de medicamentos, en la mayoría de los casos no se registran en la historia clínica ni se notifican a las autoridades de salud.
 
En este sentido, la responsabilidad social del farmacéutico es la observación y el análisis holístico sistemático de cómo coexisten comportamientos imprudentes y decisiones precipitadas latentes (factor de riesgo) que inducen a problemas relacionados con el uso de medicamentos, y estudiar el equilibrio entre la dualidad del beneficioriesgo de los efectos (factor protectorfactor de riesgo) mediante estudios rigurosos que evalúen indicadores de costo/efectividad y utilidad, riesgo/beneficio, entre otros, para señalar seguridad y eficacia terapéutica.
 
Para lograr este reto se requiere un cambio en el pensamiento, en la cultura deficiente de inspección, vigilancia y control de los problemas relacionados con el uso de medicamentos que facilita la sobredosificación o la subdosificación por el uso por prescripción o automedicación sin el diagnóstico preciso de la enfermedad (como placebo, sustituto de educación, estimulación de la libido, en la depresión reactiva causada por variables complejas). Todos estos usos no resuelven la causa del trastorno de la salud.
 
Otro asunto a considerar son las presiones de la industria farmacéutica sobre el uso sintomático —que no cura las causas de la enfermedad— como herramienta terapéutica única mediante despliegues publicitarios de información sesgada y no controlada por las autoridades responsables de la seguridad del paciente.
 
También está el desconocimiento o poco interés de los profesionales sanitarios en cuanto a la farmacocinética y la farmacodinamia del principio bioactivo del medicamento o afín. Son conceptos que forman parte de una medicina basada en la evidencia, en la patología, el diagnóstico, la necesidad y las características del paciente, ligadas a la farmacoepidemiología de uso, máxime en poblaciones vulnerables (inmunosuprimida, geriátrica, pediátrica, embarazada, entre otras). Así como el predominio de decisiones ligeras, poco éticas y sin una política pública benéfica, cuyo comportamiento permite o limita avanzar en la prevención y solución de los factores de riesgo que inducen los problemas relacionados con el uso de medicamentos.
 
Las instituciones de salud deben propender a la difusión global de estudios farmacoepidemiológicos acerca de los problemas relacionados con el uso de medicamentos, al igual que a la verificación experimental aleatoria mediante estudios controlados, basados en indicadores de seguridad y eficacia tanto pacientes hospitalizados como ambulatorios a un costo asequible en muestras poblacionales representativas en cada contexto específico. Dichos estudios deben estar fundamentados en determinantes ambientales y socioculturales y estar apoyados por los servicios de atención en el sector salud y por la industria farmacéutica. Asimismo, se requiere el consentimiento informado, comprendido y de acuerdo con el régimen de la farmacoterapia con el paciente, según las instrucciones médicas.
 
Es necesario un comportamiento reflexivo para el uso cuidadoso de fármacos en la gran variedad de síntomas y enfermedades frecuentes debidas a causas diferentes (cefaleas, artritis, artralgias, infecciones) sin contar con un diagnóstico preciso. El desafío es la difusión de un comportamiento de uso racional apoyado por un comité farmacoterapéutico integral (farmacéutico, médico, veterinario, enfermera y odontólogo) que indaguen, analicen, regulen y se reglamenten por consenso.
 
Por consiguiente, los servicios de atención en salud, los servicios de atención farmacéuticos y los responsables directos de la seguridad del paciente deben explorar y revelar a las comunidades las siguientes inquietudes: ¿cómo influye el comportamiento del uso de fármacos ligado al raciocinio de morbilidad y muerte por los problemas relacionados con el uso de medicamentos, ocurridos en las condiciones del modelo politicoeconómico neoliberal globalizado, el contexto geográfico, de raza y cultura? ¿Cuáles motivos predominan en la decisión de usar determinado fármaco sintético y no otra alternativa no farmacológica de origen natural? ¿Cuáles fármacos esenciales son de uso necesario en enfermedades emergentes de interés de la salud pública, como infecciones transmisibles por vectores en poblaciones desfavorecidas (virus del chikungunya y ébola, el plasmodio de la malaria, el tripanosoma del chagas, entre otros)? ¿Cuántos y cuáles medicamentos esenciales bajo la forma de genéricos son necesarios realmente en la terapéutica, en qué dosis, indicaciones precisas y precio justo, entre la gran cantidad de medicamentos que existen en el mercado? ¿Cómo es la conducta de responsabilidad social de los profesionales de la salud y del servicio de atención en salud frente al desarrollo de una política farmacéutica beneficiosa según las autoridades de salud nacional e internacional? ¿Cómo se enseñan y se unifican criterios de educación en capacidades y habilidades en salud (como los aprendizajes de las ciencias farmacológicas básica, clínica y de la farmacoterapia)? ¿Cómo debe ser la selección, las condiciones de transporte, el almacenamiento y la disposición final de los residuos del fármaco cuando se termina, se suspende el tratamiento o cuando se trata de medicamentos vencidos?
 
Abordar la salud pública
 
Los problemas relacionados con el uso de medicamentos se inician al ser emitida con la prescripción médica o al ocurrir la automedicación, la administración del fármaco, el monitoreo de los efectos deseados y no deseados, las interacciones medicamentosas con alimentos y las pruebas de laboratorio.
 
Todo esto esboza un proceso enmarañado que requiere una habilidad permanente de aprendizajes por parte del estudiante y el farmacéutico en su desarrollo integral —que debe ser sostenible, diverso y equitativo, centrado en la formación del ser, saber, hacer, servir, aprender a convivir y transcender. Es una herramienta teórica y filosófica esencial en la investigación formativa temprana para la observación analítica del comportamiento en el uso de medicamentos y afines, así como para lograr una gestión de riesgo integral conforme al saber hacer en el deber ser de las ciencias biomédicas para conseguir una comprensión multifactorial de los problemas relacionados con el uso de los medicamentos. En todo ello se deben considerar parámetros referentes de la farmacoepidemiología tales como: 1) el planteamiento de los problemas relacionados con el uso de medicamentos, contemplando posibles análisis de las causas estructurales de fondo como el interés por conocer los mecanismos de mercado de los medicamentos por los laboratorios farmacéuticos; 2) la identificación de problemas relacionados con el uso de medicamentos (reacciones adversas medicamentosas, interacciones), distinguiendo desde tres variables epidemiológicas básicas (frecuencia, prevalencia e incidencia) así como los fármacos en el mercado con índice terapéutico estrecho en poblaciones bajo condiciones críticas; 3) encontrar indicadores para los problemas relacionados con el uso de medicamentos pues son una herramienta que puede evitar la variabilidad biológica en la farmacoterapia; considerando asimismo la variación del paciente en forma favorable o desfavorable en función de la influencia multifactorial debida a la conducta humana y el tipo de medicamento o afín. Esto depende de dos factores de riesgo primordiales: la selección del medicamento con mayor seguridad, eficacia, mercadeo, política, acceso y costo; y la tendencia a usar empíricamente medicamentos promovidos por el mercadeo farmacéutico de mayor interés económico.
 
4) Un servicio de atención y cuidado farmacéutico, sea en el marco gubernamental o privado, que fomente una disposición a registrar en la historia clínica los problemas relacionados con el uso de medicamentos y los datos farmacoepidemiológicos relevantes relacionados con la causa fisiológica y patológica del proceso saludenfermedad de interés para la comunidad médica y científica; 5) tener en mente, como hipótesis, que existe una relación directa entre desarrollo humano integral sostenible, diverso y equitativo del prescriptor y la probabilidad de que recete fármacos prudentemente, es decir, cuando sean realmente necesarios; además, si los visitadores médicos son profesionales farmacólogos, deben tener conocimientos que faciliten la reflexión ética permanente en el saber hacer y el deber ser de las ciencias biomédica, farmacéutica, en lo humano y lo social; 6) mantener presente la importancia que tiene la comunicación entre el farmacéutico y el médico, así como entre el farmacéutico y el paciente o las comunidades, ya que esto genera confianza, lo cual ayuda a la recuperación y el mantenimiento de la salud.
 
7) El uso crónico de medicamentos puede generar una mayor probabilidad de aumentar los factores de riesgo en pacientes con más de una patología como, por ejemplo, la alteración del ritmo biológico por una conducta alimentaria, la actividad física, el sedentarismo, el uso de un agente psicotrópico (tetrahidrocannabinol, etanol, nicotina, cocaína), ya que puede antagonizar o potenciar los efectos del fármaco utilizado y presentarse efectos farmacológicos diferentes; y 8) la valoración de los factores de riesgo en el uso de medicamentos para la salud pública debido a su magnitud en términos de gravedad y duración del daño.
 
En síntesis, el servicio de atención farmacéutico y la gestión integral de riesgo de los fármacos deben de ser entendidos desde cinco ejes fundamentales: 1) una perspectiva de derechos humanos, esto es, que éstos se reconozcan, garanticen y se protejan como parte de la vida, la dignidad humana y la salud pública; 2) el perfeccionamiento humano, es decir, un compromiso social de contribuir a la satisfacción de las necesidades humanas existenciales (ser, saber, hacer, tener, estar, transcender y aprender a convivir) y axiológicas (afecto, subsistir, protección, entendimiento, participación, ocio, recreación, libertad, creación), unidas a la promoción de la salud y al uso óptimo de los medicamentos y afines en el proceso complejo de saludenfermedad; 3) el fortalecimiento de la salud integral ligada al progreso a partir de la educación temprana, con equidad, en capacidades de tipo ontológico, social, biopolítico, económico, tecnológico, de la ecología humana y ambiental; 4) el desarrollo humano unido a la salud integral, esto es, un reto para alcanzar metas de beneficio humanitario como la autonomía, la autoestima, la creatividad, la solidaridad y la felicidad para aprender, desaprender y reaprender a tejer resiliencia, y que el ser humano se adapte a los cambios y amenazas del entorno, convirtiéndolos en oportunidad de calidad de vida propia y colectiva; y 5) un plan de vida personal y colectiva, que se construya sobre las cuatro dimensiones anteriores, entendido como una directriz política personal que contribuya a un cambio personal y social más armónico y equitativo.
 
El farmacéutico
 
En la gestión de riesgo integral de los problemas relacionados con el uso de medicamentos se consideran las necesidades y las comodidades del paciente como un factor protector. Los factores de riesgo son más graves para fármacos de índice terapéutico estrecho en poblaciones vulnerables (gestación, niños, adultos mayores, con alguna enfermedad crónica e inmunosuprimidos) o cuando éstos se usan en acto ilícito que atente contra la salud y el ambiente. Esto contribuye a la eliminación de la farmacoterapia innecesaria, la reducción de problemas relacionados con el uso de medicamentos y la disminución de costos por menos consultas de urgencia u hospitalización. Es un desafío que exige el desarrollo de una estructura organizacional administrativa, financiera y de talento humano con capacidad y habilidad de iniciar planes, programas y proyectos articulados y coordinados con las autoridades sanitarias, aplicando la “ley del arte”, esto es, la ejecución de una tarea como debe de hacerse) con sentido humano.
 
Esta perspectiva contempla aspectos tales como: la promoción de conductas de vida saludable y la prevención de aquellos factores de riesgo relacionados con el uso de agentes psicotrópicos, nutracéuticos, cosméticos, sustancias psicoactiva, productos naturales y de aseo, entre otros, en la práctica cotidiana; la apropiación de la responsabilidad social, ética, civil y penal del seguimiento de los factores de riesgo que inducen o agravan efectos tóxicos e interacciones de medicamentos distintos y de medicamento y alimentos; y la motivación del paciente para adherirse al tratamiento, identificándolo y manteniendo informado al médico o farmacéutico de los problemas que enfrenta por el uso de medicamentos.
 
Para ello es necesario un conocimiento preciso de los problemas relacionados con el uso de medicamentos, seguimiento, control, evaluación e intervención en el proceso de suministro (selección, transporte, almacenamiento, distribución, dispensación, indicación y seguimiento de la terapia farmacológica en pacientes hospitalizados y ambulatorios con enfermedades crónicas), a partir de identificar pacientes con factor de riesgo y una intervención educativa permanente, observando la actitud y práctica de los pacientes al usar medicamentos por prescripción o automedicación. Asimismo, difundir el papel protagónico del farmacéutico capacitado en la inspección, vigilancia y control, en las campañas de prevención, recuperación y conservación de la salud e impulsando su participación en estrategias pedagógicas como visitas domiciliarias en familia, que propicien adhesión al cumplimiento correcto de las indicaciones médicas.
 
Otro reto consiste en la apertura de espacios de reflexión con profesionales sanitarios y representantes de la industria farmacéutica, donde se forje la comunicación relacional y se analice la conveniencia del uso de medicamentos por perfiles farmacoterapéuticos sólo cuando sean realmente necesarios. Además del consentimiento informado y comprendido del uso de los medicamentos y los posibles problemas relacionados con éste, debe de haber la obligación del prescriptor al prescribirlos y del farmacéutico al dispensarlos de hacerlo con base en estudios médicos, bien fundamentados en evidencias y registrados en la historia clínica.
 
Esto se puede alcanzar en Colombia —y se podría implementar en México— usando regularmente el formato de reporte de reacciones adversas a medicamentos a fin de encontrar efectos benéficos que mejoren la calidad de vida del paciente, y no sólo “cuando se tenga tiempo”, “si estamos interesados”, “si el médico me lo deja hacer”. Se deben superar las limitaciones en la ejecución de las prácticas farmacéutica forjando una cultura de notificar los problemas relacionados con el uso de medicamentos.
 
Se debe evitar el comportamiento apresurado al usar medicamentos o afines de primera opción sin un diagnóstico preciso. Existe una teoría sobre la responsabilidad objetiva llamada non fault, cuya hipótesis considera la culpa del médico por reacciones adversas medicamentosas que no tienen una explicación científica exacta, la cual en algunos casos induce la obligación de indemnización aun tratándose de eventos de carácter imprevisible, no evitable o de frecuencia muy baja (como el shock anafiláctico).
 
También se debe tomar en cuenta la prevención de la falla humana por alterar la seguridad y la eficacia del medicamento, como son las condiciones de almacenamiento inapropiado o la dispensación de fármacos vencidos y el uso de medicamentos más caros o más baratos, pues no siempre son los mejores. Asimismo, debe prevalecer la precaución y prudencia en la prescripción o recomendación de un medicamento contraindicado, ya que el uso conjunto de fármacos que interactúan en forma negativa aumenta la reacciones adversas medicamentosas ulcerogénica y nefrotóxica de ambos y el paciente empeora en caso de tener antecedente de patología gástrica o alteración renal.
 
Conclusiones y recomendaciones
 
Es necesario aumentar la conciencia en cuanto a una búsqueda permanente de estrategias holísticas sistémicas que eviten la automedicación, estimulen la voluntad y actuación del uso óptimo de fármacos, esto es, que se usen sólo cuando sean realmente necesarios. Esto implica tomar en cuenta los determinantes biológicos, psicológicos, sociales, culturales, políticos, económicos y ambientales, así como un diagnóstico de las características individuales de cada persona.
 
Se debe considerar también que la conducta de prescripción irracional no constituye sólo un uso incorrecto, sino que es también una manera de fomentar la producción de fármacos en exceso y sin ventajas terapéuticas sobre los existentes.
 
Esta reflexión permite evidenciar la necesidad de poner en marcha otra biopolítica pública (acciones que exalten la vida y la dignidad humana) que desarrolle modelos de aprendizajes de investigación formativa temprana en estudiantes y profesionales sanitarios en torno al factor de riesgo en nuestras realidades sociales.
 
     
Referencias Bibliográficas
 
Carvalho, José. 2005. Acerca del riesgo: para comprender la epidemiología. Lugar Editorial, Buenos Aires.
Chetley, Andrew. 1995. Medicamentos problema. Acción Internacional por la Salud América Latina y el Caribe-Europa, Amsterdam.
González, Benjamín. 2009. Medicalización, iatrogenia y ética de las relaciones con la industria farmacéutica. Tesis, Servicio de Urgencias del Hospital de Cabueñes (Gijón), España.
Girona, Lourdes, Joan Rovira y Núria Homedes (eds.). 2009. Medicamentos entre la salud y el mercado. fads-Icaria, Barcelona.
La Porte, Jr., Tognoni, G. 1993. Principios de epidemiolo-gía del medicamento (2a ed.) Italia: Editorial Masson-Salvat Medicina.
Le Tourneau, P., López, M., Bello, D., Ballesteros, J., Carillo, R., Cesano, J. 2007. Tratado de responsabilidad médica: responsabilidad civil, penal y hospitalaria. Deber de actuación diligente (Lex Artis). Buenos Aires: Legis Argentina.
Nussbaum, M. 2012. Crear capacidades. Propuesta para el desarrollo humano. Barcelona: Editorial Paidós.
Tobón, F., Mejía, M., Gutiérrez, P. 2012. Un mundo Mejor es Posible. Educación humanista hacia la búsqueda del ser humano en la Atención Farmacéutica y en la ciudadanía. Editorial Académica Española. Saarbrücken, Alemania.

En la red

goo.gl/XDd3R4
     

     
Flor Ángela Tobón Marulanda
Universidad de Antioquia.

Es profesora titular e investigadora de la Universidad de Antioquia, Colombia. Realizó una maestría en Farmacología y es integrante de los grupos de investigación Tecnología en Regencia de Farmacia de la Facultad de Química Farmacéutica y uni-PLURI/VERSIDAD de la Facultad de Educación, Colombia.

Sonia Claudia Duque Cuartas
Universidad de Antioquia y Universidad Pontificia Bolivariana.

Es profesora de idiomas en la Universidad de Antioquia y la Facultad de Educación de la Universidad Pontificia Bolivariana, Colombia. Realizó una maestría en Educación.

Luis Alirio López Giraldo
Universidad de Antioquia, Colombia.

Es Antropolólogo con Maestría en Salud Pública. Es profesor en la Facultad de Enfermería de la Universidad de Antioquia, Colombia.
     

     
 
cómo citar este artículo


     

 

 

del microcosmos
        menu2
índice 127-128
siguiente 
anterior
PDF
                 
Las infecciones
que nos acechan
en los hospitales
 127B12  
 
 
 
Mary Huitrón, Luis Jiménez, Magali Linarte, Manuel José Rivera y Agustín Ramiro Urzúa
 
                     
Las infecciones asociadas a la atención de la salud
son un problema de salud pública que ha ido en aumento en los últimos años, pues éstas conllevan un gran riesgo de morbimortalidad dado que muchos de los microorganismos habitan en el ámbito hospitalario. Es muy importante saber reconocer y tratar de manera oportuna las infecciones asociadas a la atención de la salud, pues de este modo el paciente tendrá una recuperación más rápida, menos complicaciones y evitará nuevos contagios.
 
A mediados del siglo xix aún no se conocían bien los mecanismos de la transmisión de las enfermedades infectocontagiosas, por lo que se producían epidemias. Esto cambió con el caso de la fiebre puerperal; fue el doctor Semmelweis, en el Hospital General de Viena, quien observó que en una sala de partos en especial era donde había una mayor mortalidad y se dio cuenta de que allí operaban médicos y estudiantes después de haber realizado procedimientos en cadáveres sin haberse lavado las manos y mucho menos cambiarse de vestimenta. Por el contrario, en otra de las salas, en donde la mayor parte de los partos eran atendidos por parteras, las mujeres morían menos. De estas observaciones concluyó que los médicos y estudiantes transmitían esta enfermedad de las secreciones purulentas a las mujeres puérperas por la vía de los tactos vaginales. Esto dispuso que médicos y estudiantes debían lavarse las manos con una solución clorada, reduciendo de esta manera el número de muertes maternas. Según los Centros para el Control y la Prevención de Enfermedades, agencias del Departamento de Salud de los Estados Unidos, las infecciones asociadas a la atención de la salud son aquellas que una persona puede contraer mientras recibe tratamiento dentro de una unidad de salud y pueden llevar al paciente a limitaciones en su funcionalidad orgánica o, en el peor de los escenarios, a la muerte.
 
El caso de México
 
En México se realizó un estudio en 2011 para estimar el problema de las infecciones asociadas a la atención de la salud. Se seleccionaron varios hospitales de diferentes instituciones en todo el país, como los del Instituto Mexicano del Seguro Social y del Instituto de Seguridad y Servicios Sociales para los Trabajadores del Estado. Los resultados obtenidos fueron los siguientes: de 7 461 pacientes hospitalizados, 4 274 padecía alguna de las infecciones asociadas a la atención a la salud. La más común fue neumonía (infección pulmonar) y luego la de vías urinarias. Las bacteriemias, presencia de microorganismos infecciosos en la sangre, se ubicaron en el quinto lugar (figura 1). Esto significa que por cada 100 pacientes hospitalizados, 21 tuvieron alguna infección.
 
Los microorganismos más comunes causantes de estas infecciones son las bacterias. Sobre todo las famosas superbacterias, llamadas así porque son resistentes a varios antibióticos y representan un verdadero problema de salud mundial, por lo cual se están tomando medidas sanitarias a nivel internacional.
 
Las infecciones por hongos, como Candida, son más comunes en hospitales de alta especialidad, sobre todo en pacientes con inmunosupresión, es decir, con defensas bajas, lo que incrementa su impacto en la mortalidad, ya que la mayoría de estos pacientes mueren.
 
Las más comunes
 
Actualmente, en los hospitales se usan varios aparatos que se colocan por procedimientos invasivos con el fin de ayudar al paciente a mejorar su condición o mantenerlo estable: catéteres o ventiladores que asisten mecánicamente la respiración del paciente. Sin embargo, una de las complicaciones más frecuentes de éstos son las infecciones.
 
Las neumonías intrahospitalarias son infecciones que afectan los pulmones y que al momento del ingreso no estaban presentes; generalmente se detectan a los tres días de haber ingresado al hospital. El riesgo de presentar una neumonía se incrementa en pacientes que están recibiendo ventilación mecánica. Los organismos causantes de las neumonías nosocomiales varían dependiendo del tipo de hospital y los factores de riesgo de los pacientes. Estos organismos pueden infectar los pulmones por varias vías: inhalación, las vías respiratorias o del tubo endotraqueal. por aspiración de flemas de la boca, diseminación a través de la sangre o infecciones cercanas a los pulmones.
 
Se puede sospechar que se trata de una neumonía cuando el paciente expulsa flemas de color amarrilloverdosas, comienza con fiebre y la radiografía del pecho sugiere que hay una enfermedad. El diagnóstico es más preciso cuando se obtienen muestras de flema y se procesan para lograr identificar el organismo responsable. Desde luego, la terapia antibiótica tiene que ser específica para el organismo que se obtuvo en las muestras. Parte fundamental de la prevención es evitar la automedicación, así como limitar el uso indiscriminado de antibióticos. Es importante seguir siempre las instrucciones del personal de salud para acercase a un paciente enfermo y utilizar el instrumental adecuado (bata y cubrebocas).
 
Por otro lado, están las infecciones de las vías urinarias. La uretra es el conducto por el cual sale la orina hacia la vejiga, órgano donde se almacena con el fin de drenarla. Cuando se introduce un catéter en la uretra es porque la persona es incapaz de orinar por sí misma o cuando está hospitalizada en la unidad de cuidados intensivos y el personal requiere saber la cantidad de orina que produce cada hora, entre otras cosas.
 
Las infecciones de la vía urinaria involucran desde el riñón (encargado de filtrar la sangre para producir la orina) hasta la uretra. Si una bacteria u hongo logra entrar por algún motivo o vía a un órgano, provoca una infección. Algunos síntomas que pueden llegar a presentar los pacientes son ardor al orinar, fiebre y dolor en la parte baja del abdomen. Es importante aclarar que algunas personas que presentan infecciones de la vía urinaria pueden no tener esta sintomatología —esto depende de la enfermedad.
 
La mayoría de tales infecciones se puede tratar con antibióticos, y prevenir con el cambio o retiro del catéter; también se pueden evitar teniendo el hábito de lavarse siempre las manos, antes y después de tocar el catéter, mantener la bolsa por debajo de la vejiga o no jalando ni torciendo el tubo.
 
Las infecciones asociadas al catéter venoso central son otras de las más comunes. Un catéter venoso central se introduce en una vena grande y profunda en el cuello, pecho o brazo, porque se comunica mejor con el corazón; se usa principalmente para administrar medicamentos, líquidos o incluso sacar muestras de sangre mientras esté internado el paciente, por lo que se puede dejar por varias semanas e incluso meses. La infección se presenta cuando gérmenes patógenos entran por el catéter y se considera de gravedad debido a que los microorganismos pasan hacia la sangre causando complicaciones. Algunos de los síntomas que se pueden llegar a presentar son fiebre, escalofríos, piel roja alrededor del catéter, dolor en el sitio de inserción del catéter, entre otras. Al aparecer los síntomas, los médicos deben realizar los estudios para cerciorarse de que realmente sea una infección asociada al catéter.
 
Se pueden prevenir. Se recomienda observar el área del vendaje e identificar si cambia de color; también hay que estar atentos por si se presenta alguno de los síntomas mencionados anteriormente. Se debe tocar lo menos posible el área donde está el catéter y todas las visitas deben lavarse las manos antes y después de entrar en contacto con el paciente.
 
Las infecciones de heridas quirúrgicas también son de relevancia. Éstas ocurren después de la cirugía en la parte del cuerpo en donde se realizó la operación. Si bien no es común tener una infección después de una cirugía, se estima que de uno a tres pacientes de cada cien puede contraer una infección. Esto va a depender mucho del tipo de cirugía que se haya realizado, de la localización y la extensión de la misma. Algunos de los síntomas más comunes que se llegan a presentar son: dolor alrededor del lugar de la cirugía, enrojecimiento, sensación de calor, fuga de líquido de mal aspecto y olor por la herida, y fiebre.
 
La mayoría de la infecciones se pueden tratar con antibióticos, basándose en el tipo de organismo que se haya logrado encontrar en el sitio de infección y en ocasiones puede llegar a requerir cirugía. La higiene es fundamental para prevenirlas y se sugiere nunca manipular la herida con las manos sucias. Si alguno de los familiares está a cargo del paciente en su recuperación, es fundamental que se lave las manos antes y después de tocar a su familiar, de ser posible es mejor que se usen guantes antes de manipular la herida.
 
Prevención
 
La higiene de manos es primordial para la prevención de infecciones asociadas a la atención de la salud, ya que son el principal medio por el cual los microorganismos se transmiten y pueden favorecer el desarrollo de enfermedades que ponga en peligro la vida de los pacientes durante su estancia hospitalaria.
 
Para evitar las infecciones asociadas a la atención de la salud, el personal y los acompañantes del paciente deben
 
     
En la red

goo.gl/NDvCFM
goo.gl/52wWTs
goo.gl/RC4XSq
goo.gl/XbHhZm
goo.gl/Ds40zs
goo.gl/iL2qU8
goo.gl/9iQLNh
     

     
Mary Huitrón García,
Luis Jiménez Rivas,
Magali Linarte Guerra,
Manuel José Rivera Chávez,
Agustín Ramiro Urzúa González.
Departamento de Medicina y Nutrición,
División de Ciencias de la Salud,
Universidad de Guanajuato.
     

     
 
cómo citar este artículo


     

 

 

Entrada127A08   menu2
índice 127-128
siguiente
anterior
PDF
 
     
Roberto Sánchez Sánchez
     
               
               
¿Cuántas veces has visto anuncios en la red, televisión
y radio acerca de las células madre o células troncales? ¿Alguna vez te has preguntado qué son estas células que prometen rejuvenecer tu piel, curar enfermedades terminales e incluso regenerar un órgano completo? Más allá de películas de ciencia ficción como Hulk o los XMen, la ciencia nos ha llevado a descubrir cosas maravillosas sobre la capacidad que tienen estas células para poder dividirse, reproducirse y diferenciarse en células distintas a la célula original, permitiendo incluso la regeneración en muchos organismos.
 
Antes de hablar de las células troncales es necesario tener claro que las células son los ladrillos con los que están hechos los órganos y tejidos. Todo nuestro organismo está constituido de diminutas células especializadas que en su conjunto pueden formar el cerebro, el corazón, la piel, etcétera. En el campo de la biología decimos que la célula es la unidad fundamental de la vida porque es lo más simple que podemos definir como vivo.
 
Durante el Primer Congreso Nacional de Células Troncales y Medicina Regenerativa celebrado en 2014, uno de los distinguidos expositores explicó por qué a la comunidad científica que trabaja con este tipo de células no nos parece adecuado el término madre y preferimos llamarlas células troncales. De manera bromista se refirió a una célula madre como aquella que regaña a su hija para que haga tal o cual cosa, sin embargo, no es precisamente la razón por la que no nos gusta este nombre. El motivo es que muchas de las células que conforman nuestro cuerpo están constantemente en proliferación o dividiéndose (una célula al dividirse forma dos células iguales a la original) y en este sentido la célula original podría ser la célula madre de aquellas recién formadas. En cambio, las células troncales van más allá de eso, éstas tienen la característica de poder autorrenovarse, lo que significa que cuando se dividen dan origen a una célula idéntica a ellas mismas. Hasta aquí podríamos pensar que el término “madre” aplica perfectamente para uno y otro caso, sin embargo, además de autorrenovarse tienen la capacidad de diferenciarse, es decir, adquieren una forma y una función determinada diferente de la original. Con base en esta definición podemos clasificar las células troncales dependiendo de su capacidad de diferenciación (potencialidad) y es aquí donde prometen ser la panacea en el campo de la ingeniería de tejidos y de la medicina regenerativa.
 
Una variedad de células troncales
 
Dependiendo de su potencial de diferenciación, las células troncales se pueden clasificar en: pluripotentes, multipotentes y unipotentes.
 
Las células troncales pluripotentes son capaces de diferenciarse en cualquiera de los linajes celulares que se requieren para formar un embrión y por ende pueden formar todos los tejidos de un individuo. Imaginemos que queremos desarrollar un corazón en un laboratorio de ingeniería de tejidos, pues bien, para poder crear un órgano tan complejo como el corazón vamos a necesitar cada una de las partes que lo conforman, de esta manera requeriremos distintos tipos de células como las del músculo del corazón (cardiomiocitos), las que forman los vasos sanguíneos (endotelios), neuronas, células sanguíneas y otras más. Dado que necesitamos distintos tipos de células con orígenes variados, es muy alentador saber que existe un grupo de células troncales denominadas pluripotentes, las cuales podrían permitir generar diferentes linajes celulares, incluyendo las células del corazón que deseamos formar. Aunque dichas células no son capaces de dar origen a las membranas extraembrionarias, que son desarrolladas por otro grupo de células.
 
Las células troncales pluripotentes pueden ser obtenidas de diferentes fuentes, una de ellas es durante las primeras etapas del desarrollo de un embrión, y por esta razón se les denominan células troncales embrionarias pluripotentes. Resulta que en un momento específico del desarrollo de los mamíferos, el embrión se encuentra en una etapa denominada blastocisto y está compuesto de dos tipos de células bien diferenciadas, a uno de ellos se le conoce como células del trofoblasto, que formarán las membranas extraembrionarias necesarias para el desarrollo del embrión. Al otro tipo se le conoce como células de la masa celular interna, y son las que darán origen al embrión, de donde se obtienen las células troncales embrionarias pluripotentes. Tal vez te estarás preguntando cómo podemos generar órganos destruyendo un embrión con el potencial de crear un individuo completo, cuestión que ha representado un dilema ético en controversia por mucho tiempo y que es precisamente uno de los principales motivos (no el único) por los que actualmente tales células no se han podido emplear en clínica. Es importante mencionar que los avances en el campo de las células troncales embrionarias pluripotentes se han realizado con células de modelos animales como las de ratón, pero también hay muchos avances utilizando células humanas, que se obtienen de embriones fecundados para su uso en clínicas de fertilización in vitro y que de no usarse con fines de investigación son desechados.
 
Fue en este contexto cuando, en el año 2012, Shinya Yamanaka recibió el Premio Nobel junto con John Gurdon por desarrollar un método que permite reprogramar las células somáticas (células diferenciadas) para generar las llamadas células troncales pluripotentes inducidas. Estos investigadores descubrieron la manera de hacer que las células ya diferenciadas lograran comportarse como células indiferenciadas y por lo tanto tener nuevamente la capacidad de generar cualquier linaje celular que se deseé. Su estrategia consiste en hacer que las células expresen ciertos genes (secuencias de adn que codifican para formar proteínas; Oct 3/4, Nanog, Sox2, cMyc, Klf4) que producen cambios en el arreglo del adn (epigenéticos) y permiten que las células no produzcan proteínas de células especializadas sino de células indiferenciadas. Si regresamos a nuestro sueño de generar un corazón, imagina lo importante que sería para una persona que requiera un trasplante que se pudieran aislar las células de una biopsia de piel, reprogramarlas y tener a disposición cada uno de los ladrillos con los cuales se le construya uno nuevo.
 
Existe además otro tipo de células troncales pluripotentes, se trata de las células germinales embrionarias y las teratocarcinomas. Al igual que las células troncales embrionarias pluripotentes y las células pluripotentes inducidas, se ha demostrado que tales células tienen las propiedades de generar las tres capas germinales (endodermo, mesodermo y ectodermo) de las cuales se derivan todos los tejidos y órganos especializados. Quizá las células troncales pluripotentes son las que logran acaparar los reflectores en las películas de ciencia ficción; sin embargo, existe otro tipo de células troncales cuya capacidad de diferenciación no es tan grande pero logran generar una amplia variedad de células diferenciadas. Nos referimos a las células troncales multipotentes.
 
El trasplante de médula ósea es algo tan común actualmente que muchas veces no nos detenemos a pensar lo que representa. En 1961, un grupo de investigadores canadienses llevó a cabo un trasplante de células de médula ósea de ratones sanos a ratones irradiados letalmente, es decir, todas las células hematopoyéticas (células del linaje sanguíneo) de estos ratones estaban muertas y sólo podrían sobrevivir si las células inyectadas lograban implantarse y proliferar. El experimento resultó ser exitoso y ahora el trasplante de células troncales hematopoyéticas es uno de los avances más significativos en el uso de las células troncales. Este procedimiento es una maravilla en lo que respecta a la aplicación clínica de las células troncales, ya que una célula troncal hematopoyética es capaz de generar todo el linaje sanguíneo. Esto quiere decir que la célula troncal hematopoyética tiene la capacidad de diferenciarse en linfocitos, eritrocitos, neutrófilos, eosinófilos, etcétera. En este caso, cuando se destruye la médula ósea de pacientes con cáncer y se hace un trasplante de células troncales hematopoyéticas, éstas regeneran el sistema inmune del sujeto que lo recibe, lo que nos hace pensar en la importancia de su estudio y aplicación.
 
Al igual que las células troncales hematopoyéticas, las células troncales mesenquimales tienen la capacidad de diferenciarse en un amplio número de células especializadas: cartílago, tejido adiposo, hueso y neuronas, entre otras, y presentan una gran disponibilidad en el organismo, por lo que se ha logrado aislar de diferentes fuentes (médula ósea, tejido adiposo, cordón umbilical, pulpa dental, periostio y otras). Tal característica ofrece una gran ventaja frente a las demás células troncales, ya que su aplicación no representa dilemas éticos pues en individuos adultos existen distintas zonas para su obtención. Imaginemos que deseamos generar cartílago para un individuo que se lesionó jugando futbol, podríamos aislar sus células del tejido adiposo y diferenciarlas para formar un cartílago que cubra el área de la lesión. Dado que estaríamos realizando un trasplante autólogo (del mismo individuo) no se generaría rechazo por inmunocompatibilidad, que es uno de los problemas cuando se donan órganos o tejidos de un individuo a otro (trasplantes heterólogos).
 
Es impresionante cómo los avances en la ciencia cambian de un momento a otro por completo lo establecido. El campo de las neurociencias y las células troncales del sistema nervioso no es la excepción. Hasta hace pocos años se creía que una vez que se formaba el sistema nervioso, ya no se generaban nuevas neuronas (neurogénesis); sin embargo, gracias a los avances de muchos investigadores en el mundo y en especial a las investigaciones de Arturo ÁlvarezBuylla (neurobiólogo mexicano) se logró describir la presencia de células troncales neurales en el cerebro adulto. Son células que tienen la capacidad de diferenciarse en neuronas, astrocitos y oligodendrocitos. El hecho de encontrar células troncales neuronales en el adulto es muy importante porque nos permite plantear mecanismos de regeneración utilizando tales células para el tratamiento de enfermedades neurodegenerativas.
 
Otras células troncales
 
Las células troncales están presentes en nuestro cuerpo y contamos con una gran variedad. Día a día nuestro cabello crece gracias a una población de células troncales que se divide manteniendo su potencial y al mismo tiempo se diferencia para dar origen al crecimiento del cabello, además de que también pueden contribuir a la formación de o tros linajes, como las glándulas sebáceas. Estos mismos procesos ocurren con la piel, con células capaces de mantenerse en un estado indiferenciado y a su vez generar los queratinocitos (células de la piel) que con el tiempo van madurando y desechándose. De esta manera podemos ver que las células troncales están presentes en muchas partes de nuestro organismo cumpliendo la función de mantener un equilibrio (homeostasis) mediante la generación de nuevas células y la muerte de otras. Cuando el equilibrio se pierde es probable que se generen enfermedades como el cáncer, en donde ocurre una proliferación (división) excesiva de dichas células.
 
Además de hallar células troncales en nuestro organismo, en el desarrollo embrionario se ha encontrado una cantidad inimaginable con distinto potencial de diferenciación, de aquí surge la necesidad de estudiar, entender y comprender los procesos que se llevan a cabo durante el desarrollo, lo que a su vez nos permitirá poder manipular, expandir y diferenciar las células a las que tenemos acceso. Por ejemplo, el estudio del desarrollo embrionario nos ha permitido conocer cuáles proteínas están presentes cuando se forma el sistema nervioso, por lo que ahora nosotros usamos estas mismas proteínas para poder diferenciar células troncales embrionarias pluripotentes en linaje neuronal si deseamos generar neuronas. De la misma manera el estudio de las células troncales en organismos modelo de regeneración como las planarias, ajolotes y salamandras, entre otros, nos ayuda a entender cuáles son las señales que se requieren para regresar una célula a un estado indiferenciado o para activarlas y generar los ladrillos que se requieran durante la formación de una estructura como el corazón, una aleta o el intestino.
 
Algunos avances
 
Aunque por el momento no hemos podido generar órganos tan complejos como el corazón o el cerebro, se ha logrado tener avances muy importantes en el campo de las células troncales. Existen muchos modelos donde se han utilizado las células troncales embrionarias pluripotentes para diferenciarlas en una gran diversidad de linajes celulares; sin embargo, su uso representa problemas éticos además de la posibilidad de desarrollar tumores. Por su parte, las células pluripotentes inducidas también han logrado avances para la curación de enfermedades en distintos modelos animales; mediante ésta y la terapia génica (inserción de genes para modificar las condiciones celulares) se ha logrado curar (en ratones) la anemia falciforme, enfermedad causada por la mutación de un gen llamado betaglobina. En estos experimentos, los investigadores aislaron células somáticas (diferenciadas, no germinales), las reprogramaron para que adquirieran una condición pluripotencial, restauraron el gen mutado mediante la inserción de otro gen normal, diferenciaron las células en linaje hematopoyético y las trasplantaron a un ratón enfermo al que se le eliminó todo su sistema inmune mediante radiación. El experimento fue un éxito y después de dicha terapia los ratones no presentaron signos de la enfermedad. Éste es uno de los muchos ejemplos en donde las células pluripotentes inducidas prometen ser de gran utilidad; no obstante, uno de los problemas para su uso clínico es que, al igual que las células troncales embrionarias pluripotentes, tienen el riesgo de generar tumores.
 
Además de utilizar las células troncales hematopoyéticas en los trasplantes de médula ósea, éstas también se aplican en el tratamiento de enfermedades cardiovasculares, ya que se ha descrito que las células troncales hematopoyéticas pueden diferenciarse en cardiomiocitos y ayudar a reparar lesiones en el corazón. En la actualidad, las células troncales mesenquimales también se han empleado en pacientes con quemaduras; algunos trabajos científicos muestran cómo promueven la formación de nueva piel y favorecen la cicatrización en pacientes con úlceras. Otros protocolos muestran el uso de tales células en la generación de cartílago para su posterior aplicación en lesiones de cartílago.
 
Es muy importante mencionar que, aunque hay avances en el campo de las células troncales y las expectativas para su uso son grandes, muchas empresas que no tienen un sustento científico pueden lucrar con la promesa de curar diversas enfermedades. Por lo anterior, es indispensable que el uso y la aplicación de estas células se regule en nuestro país.
 
Por el momento no tenemos la capacidad de regenerar tejidos como Wolverine, pero si damos un vistazo a la ciencia podremos conocer muchos modelos como los ajolotes, las planarias, el pez cebra y las hidras, entre otros, que utilizan células troncales para poder regenerar desde una extremidad hasta la mitad de su estructura corporal.
 
     
Referencias Bibliográficas
 
Donovan, P. J. y Gearhart, J. 2001. “The end of the beginning for pluripotent stem cells”, en Nature, vol. 414, núm. 6859, pp. 92-97.
Pelayo, R., et al. 2011. Células troncales y medicina regenerativa. Universidad Nacional Autónoma de México, p. 157.
Sánchez Alvarado, Alejandro y Yamanaka, Shinya. 2014. “Rethinking Differentiation: Stem Cells, Regeneration, and Plasticity.” en Cell, vol. 157, núm. 1, pp. 110-119.
Sánchez-Sánchez, Roberto y Velazquillo-Martínez, Cristina. 2012. “Un panorama general de las células troncales”, en Investigación en Discapacidad, vol. 1, núm. 2., pp. 66-71.
     

     
Roberto Sánchez Sánchez
Instituto Nacional de Rehabilitación.

Estudió biología en la Facultad de Ciencias de la UNAM y realizó sus estudios de doctorado en el posgrado de ciencias biomédicas de la misma universidad. Actualmente es investigador en ciencias médicas “D” en el Instituto Nacional de Rehabilitación.
     
     
 
cómo citar este artículo


     

 

 

You are here: Inicio Búsqueda Titulo revistas revista ciencias 127-128