Bioética y nutrición: consideraciones de interés para la formación de profesionales de la nutrición (página 2)
En el habla corriente, ética y moral se manejan de manera ambivalente, es decir, con igual significado, pero dada la evolución semántica analizada por varios estudiosos del tema, queda establecido que la moral es el conjunto de acciones y normas que regulan los actos considerados buenos, deseables o correctos para una cultura determinada. En cambio, la ética comprende la reflexión sobre los actos morales. Con esto puede afirmarse que la moral tiende a ser particular, por la concreción de sus objetos, mientras que la ética tiende a ser universal, por la abstracción de sus principios. No es equivocado, entonces, interpretar la ética como la moralidad de la conciencia:
La conciencia juzga nuestro funcionamiento como seres humanos; es (como lo indica la raíz de la palabra con-scientia) conocimiento de uno mismo, conocimiento de nuestro éxito o fracaso en el arte de vivir.1
En términos prácticos, podemos afirmar que la ética es la disciplina que se ocupa de la moral, de algo que compete a los actos humanos exclusivamente, y que los califica como buenos o malos, siempre y cuando éstos sean libres, voluntarios, conscientes. Asimismo, puede entenderse como el cumplimiento del deber. Vale decir, relacionarse con lo que uno debe o no debe hacer.
Se considera, además, que la ética es una ciencia, puesto que expone y fundamenta científicamente principios universales sobre la moralidad de los actos humanos. No es una ciencia especulativa, sino una ciencia práctica, por cuanto hace referencia a los actos humanos. Aquí es importante diferenciar lo que consideramos como «actos humanos» y «actos de los hombres»; los primeros siempre son producto de la reflexión y el dominio de la voluntad, mientras que los segundos pueden no serlo, como los actos que surgen de la prevalencia de los instintos, pasiones o impulsos, sobre la voluntad.
En otras palabras, la ética y la moral, como tales, se encuentran firmemente ligadas a la libertad y solo pueden expresarse a través del respeto por la autonomía de la voluntad de cada ser humano, como bien lo expresa Kant: «la autonomía de la voluntad es el único principio de todas las leyes morales.»
1. 2. ¿Qué busca la moral?
La moral se relaciona con lo «bueno» y lo «malo», lo que uno debe o no debe hacer. Al mismo tiempo, está determinada por las costumbres y, dado que las costumbres son cambiantes, la moral también lo es.
La moral, que se identifica también con el obrar bien, ha sido interpretada a la luz de las diferentes escuelas filosóficas (positivismo, hedonismo, institucionalismo, utilitarismo, idealismo, materialismo dialéctico, etc.), lo cual ha conducido a pluralidad de conceptos, difíciles de conciliar algunos.
La palabra «moral» designa una institución social, compuesta por un conjunto de reglas que generalmente son admitidas por sus miembros. Se trata, pues de un código moral elaborado por la comunidad, cuyos principios o mandatos son de carácter obligatorio.
Hay instituciones como el estado y la Iglesia que se encargan de establecer normas de moral, siendo las que dicta el primero de obligado cumplimiento por todos los asociados, en tanto que las que promulga la segunda sólo obligan a sus adeptos.
Con todo esto, podemos afirmar que la moral intenta establecer códigos de comportamiento para individuos de un determinado grupo humano, con el fin de instaurar un régimen de convivencia que sea satisfactorio para todos los miembros que lo conforman.
1. 3. Lo bueno y lo malo.
Entiendo por bueno lo que sabemos con certeza que nos es útil. Por malo, en cambio, entiendo lo que sabemos con certeza que impide que poseamos algún bien.2
El establecer un concepto adecuado de lo que son el bien y el mal, ha traído controversias y ha sido durante siglos objeto de discusión entre las diferentes corrientes éticas. La concepción de Spinoza se refiere que son buenos todos los actos que sean compatibles con la plena expresión de lo que nos identifica como seres humanos, es decir, aquellos que son originados en el ejercicio de la libertad individual y son mediados por la razón, ausentes de influencias de carácter pasional o afectiva, y que busquen el bienestar propio y/o ajeno.
2 Baruch de Spinoza. Ética. Madrid: Editora Nacional, 1984. Pag: 268.
Por su parte, Kant nos dice: «obra de manera que puedas querer que la máxima que gobierna tu acción pueda convertirse en ley para todos los seres racionales.» En otras palabras, si yo considero que algo es bueno para mí, debe serlo necesariamente para el resto de la humanidad, sino, no lo es.
Para el filósofo católico Rodríguez Luño las acciones que lesionan los fines esenciales de la naturaleza humana, son intrínsecamente malas; las que los favorecen, son buenas, entendiendo naturaleza como el término final del proceso de perfeccionamiento del hombre. Para el mismo autor, la ley moral es la norma que regula los actos humanos en orden al fin último, que en la concepción católica cristiana, y siguiendo las enseñanzas de Santo Tomás de Aquino, es alcanzar la felicidad sobrenatural, que es la posesión perfectísima de Dios, la cual es intuitiva y por eso se llama «visión beatífica».
Si se condiciona lo bueno al fin último del hombre, se crea otro conflicto, también insoluble, pues ese fin pueden ser varios. Por ejemplo, para los existencialistas es la autorización de una sociedad justa; para los utilitaristas, la felicidad es el más importante de los fines de la conducta y, consecuentemente, uno de los criterios de moralidad. Ante esta diversidad de criterios, la posición más inteligente podría ser, como lo expresa Erich Fromm: «el hombre tiene solamente un interés verdadero y éste consiste en el pleno desarrollo de sus potencialidades, en su desarrollo como ser humano.»3 Refiriéndose con «interés» al «propio provecho» descrito por Spinoza cuando afirma que, «cuanto más se esfuerza cada cual en buscar su propio provecho, esto es, en conservar su ser, y cuanto más lo consigue, tanto más dotado de virtud está; y al contrario, en tanto que descuida la obtención de su propio provecho – esto es, de su ser – , en esa medida es impotente»4; queriendo significar con esto que el ser humano, en esencia, tiene la capacidad de identificar y escoger aquellos actos que lo conducen a la perfección y al enriquecimiento de su propia persona, es decir, lo bueno.
1. 4. La conciencia moral y la reflexión ética.
Sin embargo, el actuar ético o moral, o el cumplimiento del deber, no es producto exclusivo de la conciencia; y esto ya lo expresó Aristóteles: «Las acciones referidas a las virtudes, no serán justas o moderadas de cualquier modo que se lleven a cabo, sino que es menester que quien las ejecute se encuentre dispuesto de cierto modo a ello. En efecto, en primer lugar, si actúa, debe poseer conocimiento de lo que hace; luego, si elige, debe elegir por voluntad propia y por el fin de aquellas; y en tercer término debe hacerlo con firmeza y constancia.»5
Kant, por su parte, afirma que la conciencia es el sentido del deber, pero este sentido no se forma al azar, ni por simple intuición (al menos, no solamente), sino que es alimentado por fuerzas externas.
3 Erich Fromm. Ética y psicoanálisis. México: Fondo de Cultura Económica, 1953. Pag: 147.
4 Baruch de Spinoza. Ética. Madrid: Editora Nacional, 1984. IV. Prop. 20.
5 Aristóteles. Ética a Nicómaco. Buenos Aires: Gradifco, 2006. Pag: 50-51.
No olvidemos que la conciencia es transmitida por nuestra propia inteligencia; y la inteligencia es, sin duda, susceptible de ser educada.
Cuando clasificamos una acción como «buena» o «mala», ese juicio de valor debe estar respaldado por una norma moral o una unidad de medida. De esta manera, la moral no depende solo de un componente subjetivo de conciencia, sino que para concretarse precisa además de un componente objetivo que es suministrado por la misma persona, con miras a cumplir con su deber, luego de un proceso reflexivo, voluntario y racional.
Por eso los moralistas consideran a la conciencia como «la norma subjetiva de moralidad». La conciencia no es ningún ente misterioso; es sencillamente nuestro mismo entendimiento en cuanto se ocupa de juzgar la rectitud o malicia de una acción. A esa moral subjetiva la llama Fromm «conciencia humanística». El papel que desempeña la moral subjetiva o conciencia es, sin duda, fundamental, pues es la que determina el camino que debemos tomar en las situaciones ordinarias de nuestra vida.
El ejercicio de la conciencia moral consiste en distinguir entre las posibles soluciones de una situación dada, aquella que permita preservar la autonomía de los seres humanos implicados en esa situación.
Precisamente, con el fin de evitar arbitrariedades o extravíos, la sociedad ha fijado normas de conducta que sirven para orientar y facilitar el camino que decida seguir la conciencia. La autoridad de esas normas radica en que están sustentadas en valores y principios morales. Es lógico entonces que adquieran carácter de conciencia autoritaria o imperativo categórico.
Cabe destacar que no basta que nuestra conducta se sustente en esa conciencia o moral objetiva para considerar que nuestro actuar es ético. Kant decía que la ética sólo se interesa por las intenciones, es decir, que está sujeta a la bondad intrínseca de las acciones. Si actuamos de acuerdo a las leyes, más por miedo al castigo que por repulsión a las malas acciones, ese actuar es parcialmente moral. Para que sea completamente moral debe haber sido sometido al juicio de la conciencia, subjetiva o humanista.
Para asentar la ética práctica sobre una base firme, es necesario demostrar que el razonamiento ético es posible. Como se mencionó anteriormente, cualquier persona con capacidad reflexiva está en posibilidad de discernir éticamente, a condición de que lo haga con claridad y coherencia. Lo que se necesita para elegir una cosa en lugar de otra es una buena razón, y ¿qué mejor razón que la de la búsqueda de la obtención del bienestar propio y el de toda la humanidad?
B. ¿QUÉ ES BIOÉTICA?
Según la Organización Panamericana de la Salud (OPS), basada en la «Encyclopedia of Bioethics» del Kennedy Institute of Ethics, la bioética es: «el estudio sistemático de la conducta humana en el campo de las ciencias biológicas y la atención de la salud, en la medida que esta conducta se examine a la luz de principios y valores morales».6
Objeto de la bioética.
La bioética se ocupa de los problemas relacionados con los valores, que es precisamente donde se involucra la ética médica, y además, a) interviene en todo lo relacionado a las investigaciones biomédicas y sobre el comportamiento en las mismas; b) analiza las cuestiones vinculadas con lo social: salud pública, ocupacional, internacional, control de la natalidad; y c) comprende además todo lo que atañe a la vida de animales y plantas, desde lo experimental hasta los conflictos con el medio ambiente.
Teniendo en cuenta esto, podemos afirmar que se ha puesto al ser humano ante el creciente avance técnico-científico, enfrentándolo con situaciones de tipo ético y moral que unas veces podrá resolver y otras llegar hasta el simple planteamiento, esperando dar con la solución a través del profundo y comprometido análisis multidisciplinario por parte de la filosofía, el derecho, la teología, teniendo un marco ético de referencia que pueda hacerlo posible.
Además de los avances en biología y medicina, los adelantos en ingeniería genética aplicados a la vida humana, nuevas técnicas de reproducción humana, como la fecundación asistida, los trasplantes de órganos, los progresos técnicos en la práctica de la reanimación y en el diagnóstico prenatal, los cambios en la práctica de la medicina debidos a la constante tecnificación de sus instrumentos; el surgimiento de un nuevo concepto de salud orientado a la prevención, lo cual exige nuevas consideraciones, tales como planificación familiar, planificación del medio ambiente, nutrición, así como también una concepción diferente de la relación médico-paciente, basado en la libertad y los derechos del enfermo. Este constante crecimiento científico-tecnológico ha contribuido a extender la esperanza de vida del ser humano, así como a mejorar su calidad de vida. Sin embargo, a su vez, ha generado controversias a nivel moral por el abuso de su aplicación, como es el caso del comercio de órganos, el alquiler de úteros, la eutanasia, la eugenesia y la clonación. En vista de lo expuesto, la bioética intenta establecer criterios válidos que contribuyan a promover y preservar la integridad de la existencia humana y del medio ambiente.
6 Horacio Dolcini, Jorge Yansenson. Ética y bioética para el equipo de salud. Buenos Aires, Akadia: 2004. Pag: 42.
El término «bioética» fue utilizado por primera vez en 1970 y podría decirse que tiene un doble origen, casi simultáneo; por un lado con el oncólogo norteamericano, Rensselaer Potter que es quien lo acuña; por otro, con André Hellegers en la Universidad de Georgetown, quien en 1971 crea el Joseph and Rose Kennedy Institute for the Study of Human Reproduction and Bioethics, dando origen a la institucionalización de los estudios de bioética.
Desde su creación, el término goza de una aceptación generalizada, probablemente por dos motivos.
En primer lugar la palabra misma, a través de la combinación de los dos componentes que la conforman – bios y éthos – parece hacer referencia a las exigencias planteadas a la ética planteadas por la nueva situación del hombre, por el alcance de sus acciones producto de su poderío técnico:
«Surge, por consiguiente, la necesidad de una nueva ética que no viene a reemplazar a la ética tradicional, sino a complementarla; y, como bien lo expresa Hans Jonas, los viejos preceptos de esa ética «próxima» – los preceptos de justicia, caridad, honradez, etc.- siguen vigentes en su inmediatez íntima para la esfera diaria, próxima de los efectos recíprocos. Lo que sucede, sin embargo, es que esta esfera queda eclipsada por un creciente alcance del obrar colectivo, en el cual el agente, la acción y el efecto no son ya los mismos que en la esfera cercana y que, por la enormidad de sus fuerzas, impone a la ética una dimensión nueva, nunca antes soñada, de responsabilidad.»7
En segundo lugar, puede decirse que esa combinación le otorga al término una ambigüedad que le permite desarrollar respuestas satisfactorias para interrogantes y dilemas de grupos bien diversos. Así, por ejemplo, desde el ámbito de las ciencias de la salud se lo ve como medio para renovar la ética médica y para buscar solución a las cuestiones morales surgidas como resultado de la moderna capacidad de manipulación de la vida humana; para los ecologistas, es una oportunidad para establecer fundamentos para la conservación del medio ambiente y la lucha por la biodiversidad; analizado desde el punto de vista político, constituye un aporte para la defensa de los derechos de ciertas minorías postergadas; para la filosofía se traduce como el principio del renacimiento de la reflexión ética; y para la teología representa una invaluable herramienta para la reformulación del concepto de sacralidad de la vida.
Podría decirse que el doble origen mencionado anteriormente, dio asimismo al término una doble concepción de su significado.
Potter, por un lado, entiende a la bioética como una disciplina que combina el conocimiento biológico de las ciencias de la vida con el conocimiento de los sistemas de valores de valores humanos concebidos por las sociedades, considerándolo de vital importancia para la supervivencia de la humanidad.
André Hellegers, por su parte, entiende a la bioética como una ética médica renovada. Se genera, de esta manera, un doble sentido del término. Por un lado, el que le dio Potter, el de una bioética global con una orientación más bien ecológica, evolucionista y de preservación del medio ambiente, en donde el concepto de responsabilidad juega un rol fundamental; Potter define a esta bioética como «un programa secular para desarrollar una moralidad que exija decisiones en el cuidado de la salud y en la preservación del medio ambiente natural»8. Esto lleva a una doble orientación de la bioética: en primer lugar, una orientación ecológica cuyo principal objetivo es el cuidado del medio ambiente; y en segundo lugar, una bioética médica centrada en las capacidades y fragilidades humanas. El otro sentido que se le da a la bioética, es un sentido más restringido, sostenido por Hellegers y el Instituto por él fundado, que aplica las tradiciones éticas y religiosas a la biomedicina y, como resultado, al cuidado y la preservación de la vida del individuo.
El creciente desarrollo de la bioética, sin embargo, propició que se vaya dejando a un lado de manera progresiva el modelo propuesto por Potter de una bioética global, para centrarse en el de Hellegers, el cual por ser más restringido, resultó más concreto y aplicable.
1. El Informe Belmont.
En gran medida, como respuesta a algunos experimentos aberrantes realizados en los Estados Unidos de Norteamérica con niños deficientes mentales y personas de raza negra, que produjeron la conmoción de la opinión pública, en 1974 el Congreso Norteamericano creó la National Comission for the Protection of Human Subjects of Biomedical and Behavioral Research y la encomendó la elaboración de los principios éticos básicos que deberían regir las actividades de investigación con seres humanos.
Cuatro años más tarde, en 1978, la Comisión publica el Informe Belmont en el cual se presentan tres principios éticos considerados fundamentales que deberían servir como complemento de códigos ya existentes, como el de Nüremberg, por ejemplo, dadas las dificultades que este presentaba en el momento de su aplicación.
Los principios definidos, cuyo objetivo sería regular las condiciones a que se enfrentarían los individuos sujetos a experimentación, fueron los de autonomía, beneficencia y justicia, a partir de los mismos, se formularían además procedimientos que asegurarían su adecuada aplicación.
2. El «Principialismo».
En el año 1979 se publica Principles of Biomedical Ethics, de Tom L. Beauchamp y James F. Childress que pretende ampliar la reflexión ética que la National Comission centrara en los problemas derivados de la investigación con seres humanos, al ámbito completo de la práctica clínica y asistencial. Esta obra constituye el punto de partida de una ética biomédica cuyo procedimiento, consistente en la aplicación de principios generales para la resolución de problemas surgidos de la práctica médica, se conoce como «principialismo».
Dicho procedimiento, de gran aplicación en la bioética hasta nuestros días, intenta sintetizar en los cuatro principios que formula un conjunto de valores universales e indiscutibles que, en su calidad de tales, aparecen como evidentes para el sentido común sin necesidad de incurrir en intrincadas explicaciones teóricas. De esta manera, el principialismo representaría la solución práctica del enfrentamiento teórico, propio de la tradición ético-filosófica occidental, entre deontología y teleología.
La principal novedad introducida por estos autores sería la ampliación de los principios formulados por el Informe Belmont, que en lugar de tres, serían cuatro con la adición del principio de «no maleficencia», antes incluido en el de «beneficencia». Esta distinción fue necesaria debido al hecho de que la obligación de no hacer el mal a otros resulta más exigente que la de hacer el bien.
D. PRINCIPIOS DE LA BIOÉTICA.
Según el Diccionario de la Real Academia, principio es la «norma o idea fundamental que rige el pensamiento o la conducta». En ética se manejan principios morales, es decir, aquellos que permiten o facilitan que los actos sean buenos.
Por supuesto que para que sea así se hace necesario que esas normas autoricen acciones cuyas consecuencias sean mejores que las que pudieran derivarse de cualquier otra acción alternativa.
Los principios que en la actualidad hacen las veces de leyes morales en Ética Médica o Bioética son: autonomía, beneficencia, no maleficencia y justicia.
1. Principio de autonomía.
La autonomía del paciente, como principio moral del actuar ético del médico, no fue contemplada en el Juramento hipocrático. La introducción del principio de autonomía a la Ética Médica como fundamento moral trajo consigo una verdadera revolución en el ejercicio profesional, de la cual muchos médicos y muchos pacientes no tienen aún conciencia. El concepto de autonomía, por interpretarse de muchas maneras, ha hecho que la relación médico-paciente se torne conflictiva, no obstante el sano espíritu filosófico que anima a dicho principio.
La autonomía hace referencia a la libertad que tiene una persona para establecer sus normas personales de conducta, es decir la facultad para gobernarse a sí misma, basada en su propio sistema de valores y principios. La palabra deriva del griego autos que significa «mismo» y nomos que significa «regla», «gobierno», «ley», es decir, expresa autogobierno, sin constricciones de ningún tipo. La persona autónoma determina por sí misma el curso de sus acciones de acuerdo a un plan escogido por ella misma. Por supuesto que durante el acto médico la autonomía tiene que ver con la del paciente y no con la del médico.
Además, como lo explica Fernando Lolas, «se dice que una persona actúa con autonomía cuando tiene independencia respecto de controles externos y capacidad para obrar de acuerdo a una elección propia», al mismo tiempo, «lo que se juzga al considerar la autonomía es el grado de intencionalidad de los actos, la comprensión que de ellos tiene el agente, y la ausencia de coerciones o limitaciones.»9
Si los valores morales del paciente entran directamente en conflicto con los valores de la medicina, la responsabilidad fundamental del médico es respetar y facilitar la autodeterminación del paciente en la toma de decisiones acerca de su salud.
9 Fernando Lolas, Bioética. El diálogo moral en las ciencias de la vida. Santiago, Mediterráneo: 2003. Pag: 64.
El respeto por la autonomía de las personas en tanto agentes morales capaces de tomar decisiones informadas es central en el diálogo bioético. Solo el permiso otorgado por alguien puede legitimar una acción que lo involucre. El valor de las personas es incondicional y ello obliga a considerarlas fines, no medios, con libertad de vivir y decidir libres de interferencias. Emanuel Kant y John Stuart Mill son dos de los filósofos más influyentes en relación al concepto de autonomía.
Esta política de hacer primar la voluntad o autonomía del paciente frente a la del médico limitó el poder de éste y protegió a aquél de un abusivo entretenimiento, culpable de muchas aberraciones, como son las hospitalizaciones no voluntarias o las cirugías no consentidas. Sin embargo, el deseo del paciente, no puede interpretarse como una orden de obligado cumplimiento por parte del médico, en casos como la aplicación de cesáreas o la eutanasia, no obstante poder ser determinaciones coherentes con el sistema de valores y actitudes frente a la vida por parte del paciente, el médico tiene la obligación de consultar sus propios valores y principios, su buen juicio, para acceder o no a la demanda que se le hace.
El principio encuentra aplicación en reglas de conducta como «respetar la privacidad de otros», «decir la verdad», «aportar información fidedigna», «pedir permiso para intervenir sobre el cuerpo de las personas», entre otros.
2. Principio de no maleficencia
En esencia, la obligación corporizada en este principio es la de no dañar intencionalmente. Según algunos autores, el más básico y fundamental de los principios bioéticos. Una de sus más antiguas versiones se encontraría en el precepto hipocrático Primum non nocere, «primero no hacer daño».
No hacer daño parece estar próximo a hacer el bien. Por lo tanto la no maleficencia sería un aspecto de la beneficencia, como sugieren algunos autores, para quienes, no infligir daño o mal es la primera de las cuatro obligaciones beneficentes.
Al mismo tiempo, el peso de la argumentación debe estar respaldado por un adecuado concepto de lo que es malo o dañino, lo cual, como sabemos, responde a una amplia esfera de doctrinas y creencias. Por ejemplo, para la medicina griega, era malo todo lo que fuera contra el orden de la naturaleza. En cambio, en sociedades como la romana, más influenciada por preceptos jurídicos, era malo lo que contrariaba la ley. Por último, en el contexto religioso, es malo todo lo que se opone al orden divino. De ahí que evitar hacer daño o mal sea una expresión vaga e imprecisa, que adquiere consistencia solo ante casos concretos, en los que deben especificarse las reglas prácticas que materializan el principio de no maleficencia.
Algunas pueden ser, por ejemplo, «no matar», «no causar sufrimiento a otros», «no ofender». Se trata obviamente de preceptos no absolutos, cuya exacta especificación debe tomar en cuenta el contexto.
3. Principio de beneficencia.
Existe una forma de beneficencia, llamada positiva, que consiste en proporcionar beneficios, lo que parece obvio. A ella debe sumarse la utilidad, que consiste en un balance positivo entre lo positivo y lo negativo. También se dice que se beneficia alguien si, al recibir algo debe dar algo en retribución. La utilidad es la diferencia en «plus» que recibe.
El concepto se refiere a actos, no a actitudes. Para estas, cuando son positivas, se reserva el término benevolencia. El principio de beneficencia impone la obligación moral de actuar en beneficio de otros. El ejemplo clásico se encuentra en la parábola del buen samaritano y en el concepto de «prójimo» que ilustra. Es necesario distinguir entre una beneficencia específica, dirigida a grupos identificables; y una beneficencia general, que en teoría incluiría a todos los seres humanos y el mundo animado en general.
Entre las reglas de conducta derivables de un principio de beneficencia general puede haber algunas como «proteger y defender los derechos de los demás»,
«ayudar a los discapacitados», «colaborar en disminuir peligros que amenazan a otros». Las normas son siempre positivas, incitando a modos de actuar o a acciones concretas. Su incumplimiento total o parcial no significa motivo de castigo o sanción legal.
La tradición médica occidental, especialmente desde la introducción del cristianismo, ha asignado a ciertos roles sociales, como el del médico, la obligación de la beneficencia. De hecho, algunos oficios que exigen especial «vocación» son considerados «éticos» por involucrar formas de ejercicio particularmente vinculadas al bien público. En el caso de la medicina, se traduce en buscar el bien del que sufre, no importa quién sea ni en qué circunstancias. Esta beneficencia, en la medicina, se ha acompañado históricamente de una restricción de la autonomía de las personas cuando caen enfermas. Una de las características del «estar enfermo» es la dependencia y la necesidad de buscar ayuda competente. El enfermo queda relevado transitoriamente de sus obligaciones sociales, y se espera que haga todo lo posible por sanar, confiándose en primer lugar, a profesionales competentes. El abuso de la beneficencia o, en otras palabras, la beneficencia sin autonomía, se conoce como paternalismo, y ha caracterizado a la medicina occidental desde los escritos hipocráticos. Si bien se asocia esta palabra a actitudes médicas autoritarias, existe una forma de «paternalismo pasivo» que consiste en no hacer lo que desea un enfermo para «protegerlo de sí mismo». A veces, los principios de autonomía y beneficencia entran en conflicto. La forma de resolver los dilemas no procede de los principios en sí, y es por ello tema de constante debate. La aplicabilidad de los principios y la jerarquía relativa según el caso son materia del diálogo que funda el trabajo de los comités.
4. Principio de justicia.
Una reflexión ligada a la justicia señala que los iguales deben ser tratados igual y los desiguales, desigualmente. Este es un principio formal, porque no define en qué consiste la igualdad ni bajo qué presupuestos debe ser aplicada. Esta asignación de lo igual a lo igual y lo desigual a lo desigual es la equidad. Lo que está en juego no es que todos deben recibir lo mismo, sino que cada uno debe recibirlo proporcionado a lo que es, a lo que se merece, a lo que tiene «derecho». Decimos de un trato que es justo cuando es equitativo y merecido. Si ampliamos la reflexión a toda la sociedad, se encuentra el concepto de justicia distributiva, que alude a la distribución ponderada, equilibrada y apropiada de los bienes y cargas sociales basada en normas que detallan el sentido y fin de la cooperación social.10
El principio de justicia en su concreción bioética es de singular trascendencia para el mundo desarrollado en general. Casi siempre, la planificación de los servicios sanitarios se lleva a cabo con una idea preconcebida de las necesidades de sus usuarios y procura satisfacerlas en un marco político de toma de decisiones.
El concepto de «derecho a la salud» debe examinarse de forma sumamente crítica, sobre todo cuando se toma conciencia de la diversidad de las sociedades contemporáneas.
En Ética nicomaquea se lee: «Llamamos justo a lo que produce y protege la felicidad y sus elementos en la comunidad política». Estrechando este concepto de Aristóteles para aplicarlo en la esfera médica, justo sería que haga el médico a favor de la vida a través de la salud de su paciente, circunstancia que favorece asimismo la felicidad. Esta sería la justicia individual o particular, que ha pasado a un segundo plano en la concepción actual de la ética médica, pues en el marco de la atención de la salud, justicia hace referencia a la anteriormente mencionada «justicia distributiva», es decir, la distribución equitativa de bienes escasos en una comunidad, y que equivale a la justicia comunitaria o social, de cuya vigencia debe responder el Estado.
Es sabido que el concepto teórico de justicia sigue siendo discutible en el ámbito socio–político contemporáneo. Para unos el ideal moral de justicia es la libertad; para otros la igualdad social; para los demás la posesión equitativa de la riqueza.
Como podemos ver, la aplicación de una justicia de orden universal o absoluta, resulta difícil, por lo cual, al parecer tenemos que conformarnos con una justicia relativa, es decir, aquella que depende muchas veces de las circunstancias. Así parece ocurrir con la justicia distributiva relacionada con los asuntos de la salud.
10 Fernando Lolas, Bioética. El diálogo moral en las ciencias de la vida. Santiago, Mediterráneo: 2003. Pag: 67.
Desde la perspectiva de la justicia distributiva se acepta que no sólo la sociedad tiene la obligación moral de proveer o facilitar un acceso igualitario a los servicios de salud, sino que además todo individuo tiene el derecho moral a acceder a ellos. Pero, ¿la obligación moral se constituye en obligación legal? ¿El derecho moral es un derecho legal? En principio, debe entenderse que cuando la sociedad y el Estado aceptan derechos morales adquieren la correspondiente obligación traducida en términos legales. Por eso es por lo que algunos gobiernos han incluido en su Constitución y en otros códigos disposiciones legales destinadas a cumplir con la obligación moral de brindar salud a todos sus asociados. No obstante, contados son los que hacen realidad su compromiso, restándole vigencia al principio moral y legal de justicia distributiva. Puede decirse que aquellos sistemas de gobierno de carácter socialista son los que más se acercan a ese ideal, pues al no existir diferencias de clases la repartición de los recursos puede hacerse de manera semejante, equitativa; en asuntos de salud, la posibilidad de acceso a los servicios, al igual que la calidad de éstos es la misma para todos. En cambio, en aquellas naciones donde los servicios médicos se prestan en mercado libre, se establece una visible desigualdad, contraria al principio ético de justicia.
E. LA ÉTICA MÉDICA.
1. Surgimiento y evolución.
No es poco común pensar que la Ética Médica arranca desde la época de Hipócrates, con su famoso Juramento. Puede considerarse cierto si se habla de la cultura occidental. Pero si le damos un marco más ecuménico, debemos retroceder más en el tiempo y detenernos en la Mesopotamia del siglo XVIII a. C., cuando reinaba el rey Hammurabi. Fue entonces cuando la sociedad, en este caso el Estado, dictó las primeras leyes de moral objetiva relacionadas con las medicina, estableciendo con ellas la responsabilidad jurídica del médico frente a su paciente.
La época en que se dice que vivió Hipócrates corresponde a la misma en que vivió Sócrates (siglos V y IV a. de C.), quien es reconocido como uno de los padres de la filosofía y de la ética. A la vez, su contemporáneo Hipócrates es considerado uno de los padres de la medicina y de la ética médica. Hay que tener en cuenta que en aquel entonces en Grecia, el ejercicio de la medicina estaba a cargo de individuos de diferente extracción social y cultural, la mayoría de ellos autodidactos. En virtud de sus escasos conocimientos, estaban muy desprestigiados; la sociedad no les tenía confianza. Ante esta situación, y preocupados por la desconfianza de la comunidad hacia los que se ocupaban del arte de curar, decidieron redactar un documento a través del cual se comprometían, bajo la gravedad del juramento, a ejercer la profesión, ceñidos a unos principios cuyo fin único era favorecer los intereses del paciente. De esa manera los mismos médicos se trazaron normas de moral, de obligado cumplimiento para quienes formaran parte de la secta, pero carentes de responsabilidad jurídica. Así surgió el «Juramento hipocrático».
El Juramento, tal como pasó a la posteridad, encierra valores morales intemporales: el respeto por la vida, no hacer daño nunca, beneficiar siempre, ser grato, ser reservado. Esos valores, ciertamente, giran alrededor del hombre. Siendo así, debe aceptarse que a partir de Hipócrates la medicina comienza a perder su carácter sagrado y empieza a secularizarse. Así, las enfermedades, no tienen origen sagrado y el médico comienza a cuestionarse acerca de lo que son y cómo deben ser tratadas.
Más tarde, la religión judeo-cristiana reforzó la orientación naturalista de la medicina griega. Existe un documento, escrito 200 años antes de Cristo e incluido en los Libros sagrados del Antiguo Testamento, que hace referencia a esto y constituye una invitación a honrar a la medicina y al médico. Luego de señalar que la medicina tiene carácter divino, advierte que el médico fue hecho por Dios para beneficio del enfermo, es decir, que es un intermediario suyo. Como la enfermedad es consecuencia del pecado, la curación se obtiene con la oración y el arrepentimiento. No obstante, de la naturaleza creó Dios los medicamentos, cuya virtud Él les permitió a los médicos conocer. Al sentirse enfermo, el individuo no debe descuidarse, sino que debe apartarse del pecado, purificar el corazón, dedicarse a la oración, hacer ofrendas y oblación. Sólo entonces será posible que obre el médico, quien, a su vez, debe rogar al Señor para que surtan efecto sus remedios.
Es lógico entonces que la medicina quedara en manos de los clérigos durante muchos siglos. Con ellos nacieron los hospicios y los hospitales, y las iglesias y los monasterios se convirtieron en lugares de peregrinación para los enfermos.
Esa medicina teologal, manejada desde la «Iglesia Terapeuta», como se conocía a la congregación compuesta por clérigos curadores, pierde vigencia cuando la enfermedad ya no es compatible con la religión. Se comienza a dudar del poder de Dios cuando las epidemias diezman a las poblaciones, es decir, cuando no pueden detenerse con oraciones ni invocaciones, como ocurrió a lo largo del siglo X en Europa. Ya no se necesitan médicos de almas, sino médicos del cuerpo. Al entregar los sacerdotes a los laicos la responsabilidad de curar, la medicina se hace mundana. Al desaparecer de la escena la Iglesia terapeuta se consolida el concepto de que las enfermedades no son consecuencia del pecado sino de factores sociales y ambientales; por lo tanto ameritan un tratamiento político, con prescindencia de lo religioso. Entonces los hospitales pasan a manos del poder político central y son los reyes y los señores quienes se atribuyen la legitimidad divina para administrar los bienes y los cuerpos.
La medicina para estas épocas (finales de la Edad Media y principios del Renacimiento), se distancia del orden natural. La ciencia, en general, comienza a cuestionarla y a revelar lo que antes era tenido como misterioso. En otras palabras, la razón los sustituye, convirtiéndose ésta en el nuevo orden moral.
A pesar de semejante vuelco, el médico continuaba oficiando a la manera de los hipocráticos: con gran respeto por la vida humana, con el propósito firme de proporcionar beneficio, pero sobre todo con un exagerado instinto paternalista. El enfermo o paciente continuó siendo tratado como incapacitado mental, sometido al criterio de un déspota ilustrado: el médico.
Sustentadas en una profunda confianza en la razón humana, nuevas corrientes del pensamiento, como el Idealismo y la Ilustración fueron imponiéndose. El orden establecido fue perdiendo adeptos, en tanto se fortalecía la causa cuya premisa preconizaba que sólo debía creerse en lo que pudiera ser confirmado por los sentidos. Sin duda, con la Ilustración se derrumbó el dogmatismo medieval. El estudio de las ciencias era el camino para llegar a la sociedad perfecta. La autoridad, el paternalismo de los soberanos, sustentados en el concepto de que éstos eran intermediarios divinos, se desmoronaron asimismo para darle paso al concepto del Estado con orientación secular. La Revolución Francesa constituyó el corolario de toda esa ideología con la promulgación de los Derechos del Hombre y del Ciudadano que hiciera la Asamblea Nacional Francesa en 1789. Esto otorgó al individuo su verdadera condición de persona, vale decir, un sitio respetable dentro de la sociedad. Igualdad, libertad y fraternidad constituían, sin duda, una nueva moral de proyección ecuménica. Con ella muere el despotismo y nace el pueblo soberano.
Ya hacia el siglo XIX, Augusto Comte con su Discurso sobre el espíritu positivo refuerza las tesis anteriores, dándoles un carácter social. Según él, todas las especulaciones reales, convencionalmente sistematizadas, harán posible la preponderancia universal de la moral, «puesto que el punto de vista social llegará a ser necesariamente el vínculo científico y el regulador lógico de todos los demás aspectos positivos». Decía que la felicidad privada será posible a través del bien público. Igual papel desempeñó John Stuart Mill al dar a conocer, por la misma época sus obras El utilitarismo y Sobre la libertad. La moral utilitarista reconocía en los seres humanos la capacidad de sacrificar su propio mayor bien por el bien de los demás.
Ese espíritu positivo continúa hasta el siglo XX, que es la centuria durante la cual la ciencia da muestra fehaciente de todas sus posibilidades. Lo pragmático, lo útil, es el signo del tiempo. Los derechos de la persona se ven insuficientes y es necesario ampliarlos. Por eso, en 1948, la organización de la Naciones Unidas promulga la Declaración Universal de los Derechos Humanos, que aseguran la autonomía de la persona, su libertad de pensar y actuar, su derecho a la vida privada, su derecho a que la vida y la salud le sean tuteladas.
Como se ha visto, en todos estos cambios de las costumbres, la participación de los filósofos ha sido definitiva. En particular en la Ética Médica, los aportes realizados por el filósofo inglés W. David Ross en 1930 fueron de gran importancia. Su teoría de los deberes prima facie, dentro de los cuales incluyó el de beneficencia y el de justicia, amplió el espectro de los principios éticos morales en ésta disciplina. Además, sostuvo que la moral no podía girar alrededor de un principio universal, sino que debía ajustarse a las circunstancias, siendo responsabilidad del individuo decidirse por aquel que a su juicio tuviera en un momento dado mayor validez.
Finalmente, cabe señalar que en los últimos años del siglo pasado y en los pocos que llevamos del siglo XXI, se viene imponiendo desde el ámbito jurídico una doctrina que reconoce en cada ser humano lo que llaman «derechos personalísimos»11, lo que significa que cada individuo tiene potestad para optar por lo que más le plazca en cuanto a propuestas de tipo diagnóstico o terapéutico por parte de su profesional tratante. Hasta puede negarse a lo que médicamente esté por todos indicado. Esta negativa, tomada como el pleno ejercicio de la «autonomía», está respaldada por la jurisprudencia, la cual está dando a todo acto médico realizado sobre otra persona que tenga capacidad de discernimiento, el carácter de cumplimiento de un contrato entre dos «agentes morales», sin tomar en cuenta la asimetría de conocimientos específicos que pueda haber entre uno y otro contratante.
Es evidente que el tema de la responsabilidad profesional de los médicos y el personal de salud, interpretado como un simple y frío contrato entre jueces y abogados, es una cuestión que en la actualidad puede llegar a tener consecuencias, gravísimas a veces, cuando ocurre una desgracia. Se hace entonces imperativa la búsqueda de un equilibrio en cuanto a la elaboración de leyes que se ajusten a la situación actual con vistas al futuro presumible.
Cabe aclarar en este punto el concepto de «personal de salud». Con dicho término se pretende involucrar a todos aquellos que se ocupan del cuidado de la salud humana y que son conocidos también como «sanitarios». Durante muchos siglos esa labor fue competencia exclusiva de los médicos. En la actualidad, cuando prima un criterio más amplio acerca de la salud, varias son las disciplinas de nivel universitario que se hallan vinculadas a esa misión. En efecto, al lado de la medicina están la odontología, la enfermería, la psicología, las terapias, la rehabilitación y la nutrición, que tienen en común el manejo inmediato de pacientes.
11 Horacio Dolcini, Jorge Yansenson. Ética y bioética para el equipo de salud. Buenos Aires, Akadia: 2004. Pag: 45.
Siendo la medicina la más antigua de estas profesiones, y la de más jerarquía, posee su propia ética, como que desde hace veinticinco siglos se establecieron normas morales de conducta para quienes la ejercen. ¿Puede este sistema ético servir también a esas otras profesiones sanitarias? La respuesta es positiva por cuanto quienes las desempeñan tienen como objeto de su oficio al ser humano y como misión la de conservar o devolver su salud. Por eso cuando se haga referencia a la ética médica, lo dicho hará relación también con las demás profesiones de la salud.
2. El consentimiento informado.
El «consentimiento informado» es un término nuevo que traduce un derecho del paciente dentro de la neoética médica. Su principal objetivo, y tal vez el único, es proteger la autonomía del paciente.
En él se establece que el médico solamente empleará medios diagnósticos o terapéuticos debidamente aceptados por las instituciones científicas legalmente reconocidas. Si en circunstancias excepcionalmente graves un procedimiento experimental se ofrece como la única posibilidad de salvación, éste podrá utilizarse con la autorización del paciente o sus familiares responsables y, si fuere posible, por acuerdo en Junta médica. Además queda prohibido para el médico intervenir quirúrgicamente a menores de edad, a personas en estado de inconsciencia o mentalmente incapaces, sin la previa autorización de sus padres, tutores o allegados, a menos que la urgencia del caso exija una intervención inmediata. Asimismo, el médico no expondrá a su paciente a riesgos injustificados. Pedirá su consentimiento para aplicar los tratamientos médicos y quirúrgicos que considere indispensables y que puedan afectarlo física o síquicamente, salvo en los casos en que ello no fuere posible y explicará al paciente o a sus responsables de tales consecuencias anticipadamente.
Puede advertirse que el consentimiento informado directo –es decir, el que se obtiene del paciente mismo- es registrado en diferentes legislaciones sólo como registro previo al empleo de procedimientos experimentales y a tratamientos médicos y quirúrgicos que eventualmente pueda derivar en complicaciones o efectos secundarios negativos. No queda obligado el médico, por lo tanto, a tener en cuenta el consentimiento informado de manera rutinaria. Sin embargo, la prudencia hace recomendable que siempre el paciente conozca por boca del médico cuáles son sus condiciones de salud y reciba de él su autorización para adelantar cualquier procedimiento, hasta el más simple. El consentimiento informado indirecto no sólo debe ser tenido en cuenta cuando se trata de intervención quirúrgica, como señala la ley, sino también cuando se van a adelantar procedimientos diagnósticos invasivos o no, o se va a utilizar recursos heroicos, tal como la respiración asistida en un paciente en estado terminal.
Para efecto de la toma de decisiones, no todos los pacientes hacen uso de su derecho de autonomía: unos por incapacidad absoluta (neonatos, ancianos incompetentes mentalmente, pacientes en estado comatoso), otros por incapacidad relativa (pacientes con confianza de la determinación de su médico). Tanto en una como en otra circunstancia la autonomía puede ser delegada en el médico: en la primera por los familiares, en la segunda por el mismo paciente. En esta última, el paciente se pone en manos del médico, «se entrega a él», quiere se manejado de manera paternalista. Gran responsabilidad para el médico en ambas circunstancias. Entra entonces en juego, de manera dominante, el principio de beneficencia, la defensa de los mejores intereses del enfermo.
3. El secreto profesional.
El ocultismo de la verdad se menciona ya en el Juramento hipocrático: me refiero a la reserva o secreto profesional. En efecto, el Juramento prescribe: «Lo que en el tratamiento, o incluso fuera de él, viere u oyere en relación con la vida de los hombres, aquello que jamás deba trascender , lo callaré teniéndolo por secreto» . Por su parte, en el juramento (que es el aprobado por la Convención de Ginebra de la Asociación Médica Mundial en 1948) obliga a «guardar y respetar los secretos a mí confiados». Entiéndase por secreto profesional médico aquello que no es ético o lícito revelar sin justa causa. El médico está obligado a guardar el secreto profesional en todo aquello que por razón del ejercicio de su profesión haya visto, oído o comprendido, salvo en los casos contemplados por disposiciones legales. Teniendo en cuenta los consejos que dicte la prudencia la revelación del secreto profesional se podrá hacer:
a. Al enfermo, en aquellos casos que estrictamente le concierne y convenga. b. A los familiares del enfermo, si la revelación es útil al tratamiento.
c. A los responsables del paciente, cuando se trate de menores de edad o de personas mentalmente incapaces.
d. A las autoridades judiciales o de higiene y salud, en los casos previstos por la ley.
e. A los interesados, cuando por efectos físicos o enfermedades graves infecto- contagiosas o hereditarias, se ponga en peligro la vida del cónyuge o la de su descendencia»
El médico velará por que sus auxiliares guarden el secreto profesional. La relación médico-paciente es elemento primordial en la práctica médica. Para que dicha relación tenga pleno éxito, debe fundarse en un compromiso responsable, leal y auténtico, el cual impone la más estricta reserva profesional.
4. El principio de doble efecto.
La iglesia católica en algunas circunstancias invoca como lícito este principio, que consiste en hacer moral una acción que aparentemente no lo es, por cuanto el efecto dañino es considerado como un efecto indirecto, sin intención. Un ejemplo típico es la extirpación o la irradiación del útero grávido afectado de cáncer. El daño al feto es indirecto, pues la primera intención es el tratamiento del cáncer intentando salvar la vida de la madre. De todas maneras, es un principio muy discutido. Para que tenga validez moral se requiere cuatro condiciones:
1. La acción en sí misma debe ser buena, o por lo menos moralmente indiferente.
2. El agente debe mirar sólo el efecto bueno y no el malo.
3. El efecto malo no puede ser el medio para alcanzar el efecto bueno.
4. Debe haber proporcionalidad o balance favorable entre los efectos bueno y malo de la acción.
El principio al que se acude para que el balance entre daño y beneficio se incline a favor de este último, tiene que ver con el de utilidad, si se entiende la búsqueda del beneficio como un acto utilitarista. Pesando riesgos (daños) y beneficios podemos maximizar éstos y minimizar aquellos. Tal reflexión ética es muy útil en las investigaciones que vayan a adelantarse sobre sujetos humanos. Cuando un acto beneficente supone riesgos, son inevitables las consideraciones de no maleficencia. Si los riesgos del procedimiento son razonables respecto a los beneficios esperados, la acción es moralmente permitida. Para evitar la no maleficencia se requiere que el médico esté atento y actúe cuidadosamente. El deber moral –y legal- de evitar el daño puede ser violado sin que actúe con mala intención, como también por omisión. Infortunadamente no existe una regla moral contra la negligencia como tal. Para los profesionales de la salud, las normas legales y morales del cuidado debido, incluyen conocimiento, destrezas y diligencia. Actuar sin tener en cuenta esas normas es actuar negligentemente.
Vemos cómo la capacidad técnica del método está implicada en el principio de la beneficencia. De ahí que las escuelas de medicina, con la calidad de sus programas de pre y postgrado, asuman una inmensa responsabilidad frente a la Ética Médica. Lanzar a ejercer a profesionales pobremente capacitados es un asunto que deja en entre dicho la contextura moral de quienes lo permiten.
Capitulo II: Nutrición
A. Alimentaci6n y nutrici6n humana: evoluci6n hist6rico-cultural.
B. El comportamiento alimentario.
C. Historia de Ia ciencia de Ia nutrici6n. D. Perfil del profesional nutricionista.
A. ALIMENTACIÓN Y NUTRICIÓN HUMANA: EVOLUCIÓN HISTÓRICO-CULTURAL.
La periodización de la historia de la dieta humana debe considerar, para una mejor comprensión de su establecimiento, una serie de circunstancias:
– Que la evolución de los hábitos alimenticios ha seguido los mismos patrones que la del comportamiento sexual: la inicial conducta alimentaria (y sexual), impulsada por los apetitos naturales fue modificándose en función de patrones socioculturales.
– Que la humanidad en su conjunto, con excepción de una pequeña minoría dominante, nunca tuvo realmente libertad en la elección de sus alimentos. Siempre estuvo sujeta a factores naturales, fisiológicos, políticos y sociológicos.
– Que los patrones socioculturales de comportamiento se modifican bastante más lentamente que las circunstancias de carácter técnico-económico, con lo que las repercusiones de éstas últimas no influyeron de forma inmediata sobre los hábitos alimenticios. Por lo tanto, la historia de la alimentación debe ser vista mediante el establecimiento de grandes períodos a fin de abarcar, dentro de las posibilidades, las causas y los efectos.
Teniendo en cuenta esto, pueden distinguirse las siguientes etapas en la historia de la alimentación:
1. La Prehistoria: los nómades.
Los primeros hombres se alimentaron casi exclusivamente a base de una dieta vegetariana, la cual estaba formada, en su mayoría, por diversos tipos de bayas, raíces, semillas y hojas. Más adelante, con el enderezamiento del tronco, lo cual dejaba las manos libres, se produjo un incremento de las proteínas animales, mediante el consumo de insectos, huevos y pequeños animales. Luego, con el uso de armas rudimentarias, el desarrollo de técnicas de caza coordinadas y la institución de las primeras divisiones de trabajo, los capacitó para la caza de animales más grandes, con el consiguiente incremento de proteínas animales en la dieta.
Con todo, el punto más significativo en esta etapa fue el descubrimiento del fuego, el cual produjo una mejora sustancial en la calidad y conservación de los alimentos, al mismo tiempo que significó el origen del desarrollo de la cocina.
2. Revolución neolítica: el sedentarismo.
La caza se tornó un recurso precario de obtención de alimentos, sobre todo durante el pleistoceno, cuando el aumento de los diferentes grupos de cazadores produjo significativas bajas en las reservas de caza, forzando durante el neolítico a nuevas formas de supervivencia basadas en el sedentarismo. Este fenómeno, casi simultáneo en diversas partes del planeta, constituyó lo que se conoce como revolución neolítica. A través de ella, el hombre pasó a llevar formas de vida cada vez más sedentarias, con la consecución de sus medios de subsistencia a través de la agricultura y la ganadería.
El desarrollo de estas actividades trajo consigo múltiples beneficios, como la disminución de la dependencia del hombre hacia su medio ambiente, la acentuación de la división social del trabajo con la consiguiente aparición de actividades más propiamente humanas (artes, ciencias, religiones, política y filosofía), así como el surgimiento de los primeros tabúes que originaron las preferencias y aversiones alimentarias.
Al mismo tiempo, la extensión de la agricultura y la ganadería, trajo también algunas desventajas, como la pérdida de estatura y longevidad que se produjo en la población humana; probablemente por la instauración de una creciente monotonía en la dieta, basada fundamentalmente en alimentos ricos en carbohidratos (algunos cereales y tubérculos), acompañado por algún alimento de complemento (carne). Entonces, aparecieron los problemas de malnutrición cuantitativa, cuando no era suficiente la producción del alimento base, y la malnutrición cualitativa, por escasez del alimento de complemento (déficit de aminoácidos esenciales, vitamínicos o minerales de diversa índole). Esta carencia de carne, según los expertos, podría ser el origen del ansia de consumo de carne que caracteriza a la población industrial occidental moderna.
3. Culturas opuestas: la grecorromana y la bárbara.
En el período comprendido entre el 800 a. C. y el 500 d. C. se desarrollaron en forma simultánea dos modelos diferenciados de consumo y producción de alimentos: el clásico-mediterráneo y el bárbaro-continental.
El modelo clásico-mediterráneo se extendió por toda el área de influencia de la civilización grecorromana, la cual tenía como centro de referencia fundamental la ciudad y el campo cultivado que la circundaban. La agricultura, principalmente de trigo y cebada, y la arboricultura, con la vid y el olivo como primeros productos, constituían la base de su economía. A estas actividades se sumaban, de forma complementaria, la horticultura y la ganadería (ovina y caprina). La pesca tuvo asimismo un amplio desarrollo.
Bajo estos recursos se estableció un sistema de alimentación que fue el origen de lo que hoy conocemos con el nombre de dieta mediterránea, con una marcada tendencia vegetariana.
Claramente este modelo de alimentación, de características vegetarianas, se desarrolló en torno a la considerada como planta de la civilización: el trigo.
Junto a este, el modelo bárbaro-continental, se caracterizaba por su economía silvo- pastoril con su dieta basada en la caza, la pesca, la recolección de frutos silvestres y la ganadería de bosque. El cultivo de cereales era rudimentario y esporádico, y tenía como objetivo primario la fabricación de cerveza y solo secundariamente la obtención de farináceos. Con el dominio del imperio romano se impuso fuertemente el cultivo de la vid. Las bebidas más populares eran la leche de burra, la sidra y la cerveza. Entre las grasas, lo más utilizado para untar y cocinar eran la manteca y el tocino.
A diferencia del modelo mediterráneo, esta cultura se desarrolló en torno a lo que podría considerarse el animal de la civilización: el cerdo.
Cabe destacar además, tres circunstancias surgidas en esta época, que influyeron fuertemente en la alimentación de la población. En primer lugar, la estrecha relación que se estableció entre el alimento y el ritual religioso, con el uso litúrgico de ciertos alimentos (pan, vino, sal y aceite) y las pautas en relación al ayuno. En segundo lugar, la progresiva evolución de la cocina para convertirse con el tiempo en arte culinario. Y, finalmente, la aparición a través de la díaita hipocrática, de la dietética médica o conjunto de prescripciones relacionadas con la alimentación destinadas al mantenimiento o recuperación de la salud.
4. La crisis en los siglos medios.
A partir del siglo VI, un choque de culturas produjo un sistemático entrecruzamiento de los dos modelos anteriormente descriptos. Del sur al norte se propagaron la cerealicultura, la vinicultura y la olivicultura, al mismo tiempo que el modelo bárbaro- continental fue también penetrando en las zonas meridionales imponiendo la explotación de la caza, el pastoreo, la pesca y la recolección.
De esta combinación nació el modelo agro-silvo-pastoril dominante en la Europa medieval. El sistema alimentario resultante era una combinación de los productos vegetales (cereales, legumbres y hortalizas) y los animales (carne, pescado, huevos y queso). Se impuso una agricultura de supervivencia, con lo que el trigo fue relegado, con la preferencia de otros cereales de inferior calidad pero que eran más resistentes (centeno, avena, cebada, mijo, sorgo, etc.) con la consiguiente diferenciación social en el consumo de cereales: los ricos se alimentaban con pan blanco, mientras que los pobres lo hacían con panes negros o bien, con sopas o potajes preparados con los cereales inferiores. La diferenciación social también se trasladó al consumo de carne: la carne fresca era para los ricos, mientras que para los pobres quedaban las carnes en conserva ahumadas o saladas.
El modelo agro-silvo-pastoril empezó a entrar en crisis a lo largo del siglo VIII como resultado de un importante crecimiento demográfico, que llevó a la población a la población a una crisis alimenticia durante los siglos VIII y IX.
La extensión de la agricultura, en detrimento de los recursos económicos derivados de bosques y pastizales, fue la respuesta más fácil y eficaz para cubrir las necesidades de la población.
En la primera mitad del siglo XIII parece haberse alcanzado cierto equilibrio entre recursos y población. Pero la prosperidad no duró mucho y a raíz de las pésimas cosechas obtenidas, el hambre volvió a hacerse presente a principios del siglo XIV.
A pesar del drástico bajón demográfico, la situación alimenticia de la población sobreviviente mejoró a finales del siglo XIV, sobre todo por el incremento del consumo de carne y de trigo.
El consumo de carne se subordinó a una serie de restricciones religiosas, con lo cual adquirieron importancia los alimentos sustitutivos: legumbres, queso, huevos y pescado.
5. Periodo entre los siglos XVI y XVII: etapa de descubrimientos.
El auge de las especias bajomedieval, forzó a la búsqueda de nuevas rutas comerciales, hacia el Este primero y después hacia el Oeste. El viaje de Colón tenía por objeto acortar la vieja ruta a las Indias, tierra de las especias. Sus viajes proporcionaron nuevos alimentos al viejo continente, pero su aceptación no fue inmediata. La primera fase de implantación de estos nuevos alimentos se dio a través de las numerosas expediciones, y fue impulsada por el importante incremento demográfico que se observó en Europa en el siglo XVI. La insuficiencia de la producción de alimentos forzó al tradicional aumento de la superficie cultivable y la consecuente deforestación. Se hicieron evidentes, además, algunos cambios en la práctica de la agricultura (mejora de los aperos y de los sistemas de canalización de las aguas), y la introducción de nuevos cultivos, en especial el arroz, el alforfón o trigo sarraceno, el maíz y la papa. Aunque estos productos tuvieron una relativa aceptación en el siglo XVI, cayeron en el olvido a lo largo del XVII y resurgieron definitivamente a lo largo del XVIII.
El aumento poblacional, el incremento de las tierras dedicadas al cultivo y la disminución de bosques y prados, no pudo menos que acompañarse de una disminución del consumo de carne por los europeos entre los siglos XVI y XIX. Al mismo tiempo, el pan – cada vez de menor calidad – pasó a ser la fuente energética principal, con mayor importancia cuanto más bajo el nivel social. Esto explica la grave problemática de desnutrición que invadió a Europa en el siglo XVII.
Por otro lado, la Reforma luterana (en especial la negación de la legitimidad de las normas alimenticias eclesiásticas) y las numerosas bulas expedidas en los países católicos franquearon el camino para un cambio en el gusto de los europeos. Dicho cambio se evidenció sobre todo por un aumento en la utilización de grasas para las preparaciones culinarias y el resaltamiento de lo dulce.
La preponderancia de las grasas se muestra en la imposición de la moda de las salsas de manteca y aceite en la alta cocina europea de los siglos XVI y XVII, y la sustitución de las salsas de la cocina medieval, que eran magras, ácidas y especiadas (de gran predominio en la cocina italiana); para dejar lugar a preparaciones más grasas e inclinadas hacia la preferencia por los productos autóctonos, tomando como modelo la cocina francesa.
El predominio de consumo de grasas se acompañó por un aumento del gusto por lo dulce, traducido en un incremento del consumo de azúcar (hasta ese momento, de uso predominantemente medicinal). En el siglo XVI se considera al azúcar ya un alimento indispensable, y su creciente demanda hizo que se llevara la caña de azúcar a América para implantarse en las colonias en calidad de monocultivo a partir de entonces. La preferencia hacia lo dulce propició que se pusieran de moda los licores en el siglo XVII.
Al mismo tiempo, la progresiva consolidación de la burguesía y del naciente capitalismo y la ética del trabajo y de la productividad, encontraron en las nuevas bebidas de este período (el café y el té), un símbolo a medida y, posiblemente, un aliado para su desarrollo. El vino y la cerveza de los obreros abotargaban e impedían el rendimiento en el trabajo, mientras que el café burgués despejaba, estimulaba y fomentaba el rendimiento y la racionalidad. A finales del siglo XVII el café dejó de ser una bebida selecta para extenderse a las clases populares. En Inglaterra y Holanda, el té desempeñó el rol del café, y de forma similar se popularizó completamente a lo largo del siglo XVIII.
El chocolate nunca fue considerado como una bebida estimulante y promotora de la racionalidad, por el contrario, se lo relacionaba con la holgazanería y la pereza, aunque siempre se reconocieron sus propiedades nutritivas.
Finalmente, es importante mencionar que en esta etapa se desarrollaron diversas costumbres relacionadas a la comida y la mesa de considerable significación: la aparición del plato individual y del tenedor (en el siglo XVII, en Italia), y la adopción de la mantelería (siglos XVII y XVIII).
6. La era del capitalismo agrario y el auge de los cultivos milagrosos.
Los hechos acontecidos en el siglo XVI volvieron a repetirse, pero con mayor magnitud, en el siglo XVIII: aumento demográfico, oleadas de hambre, desarrollo agrícola y deforestación.
El aumento de la población se acompañó de la consecuente expansión de los cultivos, que esta vez se llevó a cabo acompañada de nuevas técnicas de producción. Estas prácticas, junto a la abolición de los terrenos comunales y el cercamiento de los campos, sentaron las bases para la progresiva desaparición de la agricultura minifundista y el surgimiento de un capitalismo agrario que significó el primer paso hacia la economía industrial.
Sin embargo, la expansión y desarrollo de la agricultura no habría sido suficiente si no se hubiera acompañado por el redescubrimiento de aquellos cultivos que tuvieron alguna importancia en el siglo XVI: el arroz, el trigo sarraceno, el maíz y la papa. Sobre todo los dos últimos, que fueron conocidos como los «cultivos milagrosos», ya que el maíz producía una cosecha de 80 granos por cada grano cultivado, mientras que el trigo solo cinco; y la papa, a igualdad de superficie cultivada, podía alimentar a un doble o triple de personas que los antiguos cereales inferiores.
Los nuevos cultivos aseguraron la alimentación de grandes masas poblacionales, pero la monofagia a la que se sometió a gran parte de estas personas tenía sus riesgos. La dieta basada exclusivamente en maíz, que carece de niacina, hizo aparecer la pelagra, que surgió en Asturias en 1730 y luego fue dejando sus terribles secuelas de llagas, locura y muerte por Francia, Italia y los Balcanes, durante los siglos XVIII y XIX.
Con todo, el aumento demográfico no se detuvo y se produjo a pesar de que la población europea siguió esta dieta durante todo el siglo XVIII y la primera mitad del XIX. La disminución de la talla media, prácticamente generalizada, observada en los reclutas de finales del siglo XVIII y principios del XIX, y la pérdida de talla media de la población, parecen ser el resultado de estas carencias alimenticias.
7. La dieta desde la segunda mitad del siglo XIX.
Por primera vez en muchos siglos, la abundancia ocupó el lugar de la carencia en la relación entre el hombre y los alimentos. Esta situación se dio debido a los siguientes hechos:
La revolución de la producción alimentaria, que se llevó a cabo a raíz de dos circunstancias: el vertiginoso desarrollo de la maquinaria agrícola y la selección de las especies vegetales y animales más productivas. La extensión de estos procederes no solo multiplicó la producción de manera significativa, sino que además mejoró radicalmente la calidad nutritiva de los productos.
La instauración de los métodos modernos de conservación. La pasteurización, la fabricación de latas y otros métodos, abrieron el camino al enlatado hermético, y fueron la base de todos los avances subsecuentes: desecado, refrigeración, congelación, liofilización, precocinados, etc.
La revolución del transporte. Dos inventos fueron de vital importancia en este punto: el barco a vapor y el ferrocarril. La consecuencia principal de la revolución del transporte fue la caída del precio de numerosos productos.
La aparición de la legislación alimenticia. La producción y transformación industrial de los alimentos indujo a todo tipo de fraudes y adulteraciones; como por ejemplo el agregado de alumbre, tiza o carbonato amónico al pan para que pareciera más blanco, tiza o cal a la leche, cal y acónito a la cerveza por el efecto espumante y para acentuar el sabor. Ante este estado de cosas, en 1860 se aprobó en Gran Bretaña la primera ley contra el fraude, y en 1876, se emitió la Ley de Comercialización de Alimentos y Drogas. Con ellas se establecieron las bases legales para los controles estatales y las posteriores legislaciones alimenticias.
La configuración de la nutrición científica. La segunda mitad del siglo XIX y las primeras décadas del XX vieron como surgía, en el contexto de la aparición de la medicina científica, la ciencia de la nutrición. Con ella se conocieron con mayor certeza las necesidades energéticas, de aminoácidos esenciales, vitaminas y micronutrientes. El resultado fue que los alimentos pasaron a ser objeto de minucioso estudio con la consecuente clasificación en sanos y nocivos.
En resumen, la alimentación de la era de la abundancia queda definida por lo siguiente:
a- El cambio del binomio ricos / pobres por el de primer mundo / tercer mundo. b- La creciente uniformidad. El desarrollo de los medios de comunicación, de transporte y el turismo masivo, hicieron que pierda significado la antigua relación entre comida y territorio.
c- El establecimiento del modelo alimenticio y estético de la delgadez. De amplio dominio en el siglo XX, impulsado por el discurso científico en torno a lo nutricionalmente sano, que se ha expandido extensa e intensamente. El miedo a la obesidad ha ocupado el lugar dejado por el ancestral miedo al hambre.12
12 Hernández Rodríguez, Sastre Gallejo. Tratado de nutrición. Madrid: Díaz de Santos, 1999. Pag: 3.
B. EL COMPORTAMIENTO ALIMENTARIO.
Todos los organismos vivos necesitan para realizar sus funciones básicas, sustancias energéticas y de sostén que obtienen a través de los alimentos. Esto nos demuestra que comer es una necesidad primaria, aunque en torno a ella se encuentren una serie de sensaciones, conscientes e inconscientes, hábitos y factores culturales, además de condicionamientos económicos importantes.
Este fenómeno complejo es el que conocemos con el nombre de comportamiento alimentario. Él nos define los factores que influyen en los hábitos de alimentación, y que podemos resumir en los siguientes aspectos:
1. Alimento como necesidad fundamental.
Comer es una necesidad fundamental para el mantenimiento de la vida. En los países desarrollados estas necesidades están cubiertas sin inconvenientes, existiendo más patologías ligadas al exceso que al déficit en la alimentación.
Estas necesidades dependen de ciertos factores:
– Disponibilidad de alimentos: la alimentación de una población es la determinada a los alimentos disponibles en su entorno, los cuales influyen de manera decisiva en la formación de los hábitos. Así, la alimentación en zonas rurales suele ser algo diferente que en las ciudades, aunque en los países industrializados, debido a la facilidad del transporte y conservación, y a la gran emigración procedente de otras culturas, la alimentación tiende a uniformizarse.
– Factores económicos: estos son decisivos a la hora de conseguir alimentos. Es obvio que muchos alimentos no son accesibles para ciertos sectores, de manera que la alimentación será diferente de un sector social a otro dependiendo del poder adquisitivo. Esto no quiere decir necesariamente, que los que tienen acceso a más variedad de alimentos, estén mejor nutridos en cuanto a equilibrio se refiere.
2. La alimentación como fuente de placer.
Es evidente que comer proporciona sensación de placer. Prueba de ello es el paso del hambre al apetito y de la alimentación a la gastronomía.
Debemos al psicoanálisis, sobre todo a Freud, esta relación entre la alimentación y la cavidad bucal como fuente de placer, y así vemos definida la etapa oral en el desarrollo psicosexual del niño.
En el adulto, la boca es un lugar de placer privilegiado. La oralidad se manifiesta en la gula, en el alcoholismo y en el tabaquismo y, naturalmente, en el beso amoroso.
Podemos observar en todas las culturas expresiones lingüísticas como: «apetito sexual», «mujer apetitosa», «está para comérsela», que demuestran este paralelismo y la evidencia del placer que significa comer.
3. Factores socioculturales.
Los alimentos tienen una vertiente social muy marcada. Así, el marisco o el caviar, entre otros, se consideran alimentos para ricos, mientras que las papas y legumbres son para muchos alimentos de pobres.
También hay alimentos adecuados para obsequiar y otros que no se consideran aptos para ofrecer a unos invitados.
Por otra parte, el «alimento compartido» supone un enlace social importante. Compartimos la mesa con los amigos. En ella, además de los alimentos, intercambiamos ideas y opiniones y así, el acto de comer se convierte en un medio de acercamiento a los seres queridos.
El comportamiento alimentario también puede ser un medio de presión social, como en el caso de la huelga de hambre.
Cabe destacar que la civilización occidental, en la actualidad, es contradictoria, ya que la abundancia de alimentos por una parte, y la disponibilidad por otra, potenciadas por la publicidad, impulsan al público a un consumo excesivo de alimentos, fomentando la obesidad, mientras que los cánones de estética promueven una figura delgada como ideal de belleza.
Este fenómeno es contrario al que se observaba hace años, en los que las formas redondeadas eran símbolo de salud y belleza.
Asimismo, es necesario mencionar los factores familiares, ya que las costumbres alimentarias de una familia están influidas por las tradiciones y el seguimiento de lo que hacían los padres y abuelos, que a su vez imitaban las costumbres de sus antepasados próximos. Así se mantienen, a veces, hábitos poco justificables en la actualidad, pero que tenían sentido años atrás.
4. El simbolismo en los alimentos.
El pan tiene una fuerte carga simbólica, nacida de una tradición al mismo tiempo cultural y religiosa. Muchas parábolas y episodios del cristianismo giran alrededor de este alimento, como la multiplicación de los panes y peces, la última cena… desde esta concepción, comer el pan significa la incorporación de algo divino, y por tanto, nada tiene que ver con la nutrición. El pan también es el símbolo del trabajo, sin el cual no podríamos cubrir nuestras necesidades, y así, aparece en la frase bíblica: «Ganarás el pan con el sudor de tu frente».
Casi todas las religiones tienen reglas alimentarias precisas, como la prohibición de la carne de cerdo entre los judíos por ser considerado un animal «impuro». Los mahometanos también consideran impura la carne de cerdo y de todos los animales muertos por enfermedad, estrangulamiento o a golpes. El Ramadán prescrito en el Corán, que consiste en ayunar desde la salida hasta la puesta del sol durante el noveno mes del año lunar musulmán, es necesario para el perdón de los pecados. La religión católica proclama la penitencia en forma de ayuno y abstinencia.
Ciertos grupos sociales o religiosos relacionan el carácter con la forma de alimentarse. Así, el rechazo al consumo de carne representa un deseo de «no violencia», es decir que la carne tendría un simbolismo agresivo en esta caso, mientras que los vegetales serían pacíficos.
En el plano individual este simbolismo puede tener extrema importancia, como en el caso de algunas mujeres afectadas de anorexia nerviosa, que no aceptan la realidad biológica de su propio cuerpo: el ciclo menstrual, las formas femeninas, y las necesidades fisiológicas en general, a través del rechazo a los alimentos.
5. La influencia de factores personales en la alimentación.
En ocasiones, circunstancias relacionadas con el ritmo de vida moderno, como la falta de tiempo disponible, condicionan la compra y preparación de los alimentos, lo que influye en gran medida en el tipo de alimentación.
También, a través de la alimentación, puede expresarse disconformidad, cuando algún miembro de la familia se niega a ingerir los alimentos habituales en ella.
Hay quien basa su alimentación en la imagen publicitaria del momento (determinados productos asociados a determinadas personas pueden influir en el tipo de alimentación).
Por otra parte, hay que tener en cuenta los horarios y la distribución de las comidas, los cuales están determinados por los horarios de trabajo, escuelas, etc., que a su vez están influidos por el clima. Es evidente, entonces, que el ser humano no puede tener hábitos alimentarios que dependan solamente de sus necesidades biológicas, sino que debe adaptarse al trabajo, a los hábitos familiares y demás condicionamientos, de modo que existen individuos que llegan a adquirir la costumbre de alimentarse solo dos o tres veces al día.
Es importante mencionar el desequilibrio que puede producirse en personas que trabajan en horarios nocturnos, y que pueden llegar a desarrollar trastornos alimentarios, como la obesidad o la delgadez.
Son numerosos los individuos que no desayunan, iniciando la alimentación diaria con el almuerzo, lo que supone un ayuno de varias horas, considerando que la última comida realizada fue la cena del día anterior. Aunque no está científicamente probado, parece lógico y razonable aconsejar a la población un buen desayuno, que prepare a las personas para realizar las actividades diarias, y una comida que no sea excesiva para evitar una sobrecarga digestiva y así poder desarrollar una actividad normal por la tarde. La merienda es aconsejable, sobre todo en niños y ancianos, y en personas que cenan tarde. La cena debería tomarse temprano, a fin de poder iniciar el descanso nocturno cuando la digestión está casi acabada.
6. Factores relacionados al padecimiento de enfermedades.
Siempre se ha dicho que la alimentación y la salud caminan juntas.
Actualmente hay algunos cambios del patrón alimentario habitual, ligados a ciertas patologías, por ejemplo, en la prevención de la obesidad, socialmente no aceptada y que desde el punto de vista sanitario es fuente de complicaciones y enfermedades.
Hay varias personas sometidas a dietas terapéuticas, es decir, dietas que forman parte del tratamiento de una enfermedad, como la dieta baja en sodio para los afectos de hipertensión arterial, dietas para disminuir el colesterol sanguíneo, para la diabetes y otras.
Este cambio de hábitos alimentarios es difícil de conseguir a pesar de la motivación que puedan tener algunas personas cuando de su salud se trata.
7. Configuración del patrón alimentario.
Puede afirmarse, después de lo expresado anteriormente, que los alimentos, o sea, el «menú» que una persona adopta de forma habitual, es una expresión del grupo sociocultural al que pertenece.
Cada cultura es diferente, por lo que sus integrantes ven y comprenden las cosas de una forma muy diversa.
Página anterior | Volver al principio del trabajo | Página siguiente |