Desarrollo Sostenible
April 13, 2017 | Author: mateba11 | Category: N/A
Short Description
Download Desarrollo Sostenible...
Description
Alejandro Canut de Bon L. Lo anterior se logra mediante un conjunto de artículos, de diferente naturaleza, que cumplen con introducirnos en los conceptos, ideas, argumentos o discusiones que supone la sustentabilidad. Conceptos de economía, ciencia ambiental, filosofía y derecho se van entrelazando a lo largo de estas
páginas, para ir complementando un entendimiento global del Desarrollo Sustentable. Economía de Ciclo de Vida, Curva de Kuznets, Tragedia de los Comunes, Teoría de los Juegos, Dilema de los Prisioneros, Óptimo de Pareto, Equilibrio de Nash, Teorema de Coase, Externalidades, Normas de Emisión, Normas de Calidad, Royalty, Rentas Ricardianas, Regla de Hotteling, Licencias Sociales, Responsabilidad Social Corporativa, Renta Hicksiana, Ecocidios, Ecología Profunda, Hipótesis de Gaia, Normas ISO, Principio Precautorio, El Que Contamina Paga, y muchos otros conceptos e ideas, se relacionan en la búsqueda de un entendimiento general.
DESARROLLO SUSTENTABLE Y TEMAS AFINES
El presente texto resume los principales hitos del nacimiento del movimiento ambiental, y de la evolución del Desarrollo Sustentable. Nos explica como este último concepto ha adquirido dos acepciones, una fuerte y una débil, que pugnan entre sí, y que producen -a su vez- un interesante debate que se da en diversas arenas (económica, filosófica, jurídica, etc).
DESARROLLO SUSTENTABLE Y TEMAS AFINES
Alejandro Canut de Bon L.
El autor, nacido en La Serena, Chile (1966) terminó su educación escolar en Oregón, Estados Unidos (1983-1984). Estudió Derecho en la Universidad de Concepción (1985-1990) y participó en la expedición a la Patagonia organizada por la institución inglesa Operación Raleigh International, de diciembre 1992 a marzo 1993. Posteriormente realizó diversos estudios de postgrado, entre los que cabe destacar un Master en Derecho Minero y de Aguas (1994-1995), un Master in Business Administration (MBA-Economía, 19981999) y, un Master en Natural Resources and Environmental Law, (2004-2005). Actualmente es candidato a un Master en Humanidades (Historia de la Filosofía e Historia del Arte, en Occidente). A los postgrados anteriores se suma un Diplomado en Derecho Ambiental (2002), un Diplomado en Ingeniería Ambiental (1997) y un Diplomado en Legislación Tributaria (1996). Ha ejercido continuamente la abogacía en el área de los recursos naturales por quince años, trabajando en el sector minero, y desempeñándose como abogado, y actualmente- como Gerente Legal de una de las mayores compañías mineras del mundo. De manera paralela ha ejercido la docencia, en cursos de pre y post grado en diferentes universidades (entre otras, la Universidad de Chile, la Pontificia Universidad Católica de Chile, la Universidad de La Serena y la Universidad de Antofagasta). Es coautor de un libro sobre Contratos Mineros publicado en 1995, y autor de un libro sobre un capítulo de la historia religiosa del país publicado en 1996, como así también de numerosos artículos, en revistas especializadas, en Derecho e Historia.
Desarrollo Suste n t a b l e y temas afin e s
Alejandro Canut de Bon L.
I.S.B.N. 978-956-310-733-3 Registro Propiedad Intelectual Inscripción N° 154.750 Primera Edición Agosto 2007, 1.000 ejemplares, publicado por el Consejo Minero. Impreso en los talleres de IGD Ltda. Santiago de Chile
a María Fernanda
Alejandro Canut de Bon L.
Índice
Introducción;
11
Un concepto, dos interpretaciones 1.- La Edad Contemporánea y los inicios del movimiento ambiental 2.- Un nuevo concepto: Desarrollo Sustentable 3.- Las dos interpretaciones: Sustentabilidad Débil y Sustentabilidad Fuerte 4.- Conservacionistas versus Preservacionistas
13 15 20
Economía y Medioambiente 5.- En la búsqueda del equilibrio 6.- La Economía Ambiental y la Economía Ecológica 7.- El Análisis Económico del Derecho y la Economía de los Recursos Naturales 8.- Economía de Ciclo de Vida 9.- La Curva de Kuznets 10.- La Tragedia de los Comunes 11.- La Teoría de los Juegos 12.- El Dilema de los Prisioneros 13.- El Óptimo de Pareto 14.- El Equilibrio de Nash 15.- El Teorema de Coase, las Externalidades y los Costos de Transacción 16.- Normas de emisión, normas de calidad y una solución de mercado 17.- Contabilidad Verde 18.- ¿Cuánto vale el medioambiente?... 19.- Royalty, Rentas Ricardianas y Regla de Hotteling 20.- Los commodities y la importancia de los costos de producción
24 27 31 33 38 42 45 49 52 57 61 63 65 67 73 76 79 84 90
Desarrollo Sustentable y temas afines
Pesimistas y Optimistas 21.- ¿Los Límites del Crecimiento? 22.- ¿Recurso naturales no renovables? 23.- La maldición de los recursos naturales 24.- ¿Puede la minería ser sustentable?
93 95 100 105 110
Sociedad y Sustentabilidad 25- Responsabilidad Social Corporativa 26.- La Renta Hicksiana 27.- La importancia de una sociedad responsable 28.- La participación ciudadana y las licencias sociales
117 119 124 127 130
Humanidad y Medioambiente 29.- La explosión demográfica. ¿Cuántos somos? 30.- Ecocidios 31.- Evaluación de los Ecosistemas del Milenio 32.- El Ecologista Escéptico
133 135 138 141 147
Ética y Medioambiente 33.- El Dilema del Último Hombre 34.- Ecología Profunda 35.- Prohibir es más fácil
151 153 157 160
Ciencia y Medioambiente 36.- ¿Qué es la ciencia? 37.- La Teoría del Caos 38.- Nuestro lugar en la historia de la Tierra 39.- Estudios de Impacto Ambiental, naturaleza e incertidumbre 40.- Hipótesis de Gaia
165 167 178 184
Globalización y Medioambiente 41.- La destrucción del ozono y el Calentamiento Global 42.- Las normas ISO. Estandarizando el cuidado del medioambiente
193 196 201 203 211
Alejandro Canut de Bon L.
Derecho y Medioambiente 43.- Principio Precautorio 44.- Principio “El Que Contamina Paga” 45.- Y más principios de Derecho Ambiental
215 217 222 226
Epílogo Bibliografía
229 231
El presente texto es la primera publicación integra de un proyecto concebido originalmente hace unos tres años atrás, en el momento que iniciaba los estudios del Master of Law in Natural Resources and Enviromental Policy, de la Facultad de Derecho de la Universidad de Denver, Colorado (programa que se imparte, para abogados, con la cooperación técnica de la Colorado School of Mines) Como alumno de ese programa, comprendí en las primeras clases la necesidad de acercarme rápidamente a ciertas ideas y teorías, que se relacionan -directa o indirectamente- con los recursos naturales y con el entendimiento del concepto de Desarrollo Sustentable. No obstante, no encontré un libro que lograra resumir a modo meramente introductorio, conceptos de naturalezas tan diferentes. Nació así la idea de procurar un texto que cumpliera dicha finalidad y que diera a la vez cuenta de las lecciones y, sobretodo, de las discusiones sostenidas en las clases. Este texto es el producto de esa idea.
Alejandro Canut de Bon L.
Desarrollo Sustentable y temas afines Introducción El Desarrollo Sustentable es uno de aquellos conceptos que en pocos años se posesiona en la mente y en las conversaciones de las personas que se relacionan con una determinada temática -en este caso con el cuidado del medioambiente y con el desarrollo económico- al punto que después de un tiempo, de tanto repetirse, se logra casi de manera mágica que las nuevas generaciones no se cuestionen su real significado o contenido. Se cumple así, de peculiar forma, el viejo adagio que nos enseña que “las cosas por sabidas se callan y por calladas se olvidan”... con la diferencia de que en este caso debiéramos decir que “por escuchadas se repiten, y por repetidas no se conocen”. Ello ha ocurrido con especial fuerza en el caso de este concepto. Se utiliza y se argumenta en relación a él, sin haber -en muchas ocasiones- reparado primero en su esencia. Por ello, y porque estimamos que este concepto es de suma importancia para la industria de los recursos naturales, es que el objetivo final de este texto es ayudarnos a meditar sobre su contenido, resumiendo a modo de introducción muchos de los temas que supone el entendimiento de la sustentabilidad. Procuramos también exponer algunas de las discusiones y debates que subyacen a las recurrentes y ambiguas definiciones que comúnmente se dan al hablar de Desarrollo Sustentable. Para lograr este objetivo el presente texto se divide en capítulos y estos en apartados o artículos que guardan entre sí un común denominador. Se trata, en todo caso, sólo de un En la literatura española se suele hablar de “Desarrollo Sostenible”, mientras que en la literatura latinoamericana de “Desarrollo Sustentable”. Se trata en todo caso de conceptos sinónimos.
11
Desarrollo Sustentable y temas afines
conjunto de resúmenes de temas de diferente naturaleza, que cumplen con introducirnos en algunos de los conceptos, ideas, argumentos o discusiones que supone el entendimiento de la sustentabilidad. Este último aspecto lo destacamos con la mayor de las fuerzas. No pretende este libro ser un aporte a una literatura especializada, ni menos aún encerrar todo aspecto necesario para la comprensión de la sustentabilidad. Un experto en la materia encontrará una aproximación sólo básica a los temas tratados. El texto no pretende tampoco ser una tesis, que -como tal- plantee un problema y busque críticamente vías para su solución. Es sólo -reiteramos- un conjunto de resúmenes que presentan aspectos del tema que nos preocupa, y siempre de manera introductoria. Algunos de estos aspectos se relacionan directamente con el medioambiente, mientras que otros sólo lo hacen de manera indirecta. Estos últimos, no obstante, los hemos incluido en este texto porque -en nuestra experiencia docente- cubren aspectos que suelen captar la curiosidad de los alumnos que buscan una mayor comprensión de esta temática. Cabe señalar que la lectura de cada uno de estos capítulos o apartados se puede hacer de manera independiente y en el orden que se estime. Esto, puesto que no existe necesariamente un claro hilo conductor que deba seguirse. No obstante, se sugiere el orden dado, puesto que algunos artículos presuponen el conocimiento de otros anteriores. Destacamos por último que hemos procurado referirnos, en cada artículo, sólo a los hechos fundamentales, sin acometer un acabado conocimiento de cada tema. Los detalles aparecen de esta manera sólo como una lógica consecuencia de los aspectos generales. Cada vez que ha sido menester añadir un comentario o profundizar en una determinada materia, en términos que excederían los objetivos que corresponden a un texto de esta naturaleza, hemos recurrido al arbitrio de emplear notas al pie de página. 12
Alejandro Canut de Bon L.
Un concepto, dos interpretaciones
En este capítulo nos referiremos al nacimiento del movimiento ambiental, a la formación del concepto de Desarrollo Sustentable, y a las dos interpretaciones o entendimientos que de este concepto se han ido concretando en la sociedad actual. Estas dos interpretaciones nos acompañarán a lo largo de todo este texto y -como se podrá apreciarestán en la raíz de muchos de los debates que subyacen a los artículos de los próximos capítulos.
13
Alejandro Canut de Bon L.
La Edad Contemporánea y los inicios del movimiento ambiental
A fines de la Edad Moderna las fuentes de energía continuaban siendo las mismas que el hombre había utilizado desde el inicio de la historia. Los ríos, el viento y los animales (incluido el propio hombre) eran los únicos “motores” existentes. Por otro lado, la técnica seguía siendo artesanal, y era básicamente la misma que se había transmitido generación tras generación sin registrar mayores mejoras. Esto cambió drásticamente junto con el inicio de la Edad Contemporánea. En efecto, si bien el desarrollo de la ciencia durante la Edad Moderna había producido principalmente conocimientos de carácter teórico, durante el siglo XVIII dichos conocimientos empezaron a encontrar aplicaciones prácticas que coincidieron con la popularización del espíritu utilitarista y con una fuerte fe en el progreso material. Nació, en resumen, la ciencia moderna aplicada, es decir la tecnología, y con ella numerosos inventos que modelaron la sociedad contemporánea, altamente industrial. Quizás el más importante de estos inventos -por el gran impacto y consecuencias sociales que tendría- fue la máquina a vapor. En 1768, el escocés James Watt (1736-1819) fabricó la primera de estas máquinas capaz de producir un servicio realmente útil en muchos nuevos aspectos. A partir de entonces el hombre ya no dependió de los ríos, del viento, o de los animales. Como es sabido, la Historia se suele dividir en cuatro partes o Edades: Edad Antigua (desde la invención de la escritura, y hasta la caída del Imperio Romano de Occidente en el siglo V. Lo ocurrido antes de la invención de la escritura, corresponde a la PreHistoria); Edad Media (hasta la caída del Imperio Romano de Oriente, siglo XV); Edad Moderna (hasta la Revolución Francesa ocurrida en 1789), y Edad Contemporánea (hasta el presente). En esta última Edad se modela la sociedad altamente industrial en que vivimos. Las dos principales causas de la Edad Contemporánea son la Revolución Industrial y la Ilustración.
15
Desarrollo Sustentable y temas afines
Dispuso por vez primera de una máquina capaz de producir movimiento en cualquier lugar y a cualquier hora, a su voluntad. Fácil nos debiera resultar imaginar la importancia y trascendencia de este invento, y de comprender que éste no sólo dio inició a lo que la historia denominaría Revolución Industrial, sino que también fue co-responsable de una revolución social, que -junto a la Ilustración- coadyuvaría a alterar las instituciones económicas y políticas, las estructuras sociales y, también, los paisajes. En resumen, todos estos cambios produjeron que durante el siglo XIX la sociedad occidental pasara muy rápidamente, desde el mundo rural y agrario del siglo anterior, a la sociedad urbanizada e industrial del final de siglo. Las ciudades se consolidaron como centros productores lo que, junto al aumento de la población, produjo un fuerte cambio demográfico. Ahora bien, las posibilidades técnicas demandaron una explotación de recursos naturales jamás antes vista en la historia de la humanidad (primero carbón, después petróleo y metales), al punto que se vio a dicha explotación como sinónimo de progreso social. A mayor explotación, mayor progreso. Pero todo esto tendría un costo. La sociedad industrializada, dependiente de los recursos naturales, comenzó a mostrar las primeras señales de degradación ambiental hacia fines del mismo siglo XIX. No obstante el humo negro de las chimeneas y los bosques talados siguieron siendo un símbolo de desarrollo por algunas décadas más. En efecto, la idea de que la revolución industrial mejoraría paso a paso, en un progreso continuo, la calidad de vida de la sociedad, era de tal fuerza a fines del siglo XIX, que habría sido inimaginable pensar entonces que las industrias serían cuestionadas -por su efecto ambiental- durante el siglo próximo. Todo un cambio de paradigma tendría que tener lugar previamente. Dicho cambio ya encontraba sus raíces en algunos 16
Alejandro Canut de Bon L.
pensadores que cuestionaron desde un inicio la fuerte fe en el progreso material que registra el siglo XIX. El primero de estos pensadores fue J. J. Rousseau (1712-1778) quien desconfió de las mejoras que a la calidad de vida debía supuestamente introducir el progreso continuo y los avances de la industrialización. Es más, Rousseau popularizó, y en alguna medida inventó, el amor por la naturaleza, la vida al aire libre, las bondades del ejercicio físico sistemático y de la casita de retiro de fin de semana. Ideas que sirvieron de base al Romanticismo del siglo XIX (movimiento este último que se vincula a las raíces del ambientalismo). En este sentido Rousseau, y posteriomente muchos románticos, rechazaron fuertemente el pensamiento de sus contemporáneos, quienes creían que el constante desarrollo de la cultura materialista e industrial haría la felicidad del hombre. Nótese que la crítica que Rousseau y los románticos hacen al mundo moderno, y a sus constantes progresos técnicos, sigue estando hoy tan vigente como entonces. El hecho es que para inicios del siglo XX las primeras medidas en post del cuidado del medioambiente fueron adoptadas. Las raíces de esta nueva conciencia nacieron en el gobierno del Presidente norteamericano Teodoro Roosevelt. Bajo su administración (1901-1909) se creó el primer parque nacional del mundo (Yellowstone) y se dictaron las primeras leyes de protección a la vida silvestre. Junto al Presidente T. Roosevelt, otros dos norteamericanos deben necesariamente ser nombrados en el origen del movimiento ambiental. Un dato curioso, pero que cumple con ejemplificar el interés de Roosevelt por la protección de la flora y fauna, es el siguiente: una de las leyes que él promulgó tuvo por finalidad prohibir la caza de los osos pequeños, lo que produjo -en un periódico- una popular caricatura en la que el Presidente aparecía protegiendo a un pequeño oso. La caricatura representó a ese animal de manera tan tierna, que un empresario decidió fabricar osos de peluche, los que fueron bautizados en el mercado como “Osos Teddy” o -en inglés, “Teddy Bears” - en honor a “Teodoro” Roosevelt, nombre que se usa hasta el presente para referirse a los osos de peluche en todo el mundo.
17
Desarrollo Sustentable y temas afines
Primero, Aldo Leopold (1887-1948) quien escribió el libro “A Sand County Almanac” y un artículo, publicado en 1948, titulado “The Land Ethic”. En este último sostenía explícitamente que las raíces de la crisis ecológica que se empezaba a vivir eran básicamente filosóficas. Nos invitaba a pensar que el problema del uso adecuado de la tierra, no es sólo un problema económico. El texto sólo fue ampliamente divulgado gracias a una recopilación hecha por el Sierra Club (organización ambientalista estadounidense) publicada en 1970, en un momento que el campo estaba fértil para esta semilla. En segundo lugar, Raquel Carson, quien en 1962 escribió el que es considerado hoy como el más famoso de los libros del movimiento ambiental, titulado “Silent Spring” (Primavera Silenciosa). Carson trabajó durante 17 años en el Departamento de Caza y Vida Salvaje de los Estados Unidos, en donde tuvo la oportunidad de comprender las consecuencias en el uso desmedido de los pesticidas. Sin dejarse afectar por el claro entusiasmo que existía en el uso de estos productos (como el DDT, por ejemplo), escribió y publicó sobre sus consecuencias en el libro señalado, generando un cambio significativo en la conciencia pública frente al respeto por el medioambiente. Estos personajes, y muchos otros en menor medida, (como por ejemplo la primera mujer ingeniero de minas de la historia, la El mismo año que se publicó el libro de Raquel Carson (1962) el mundo fue advertido del peligro del DDT. El DDT es un insecticida que fue creado en 1939 por un químico suizo de nombre Paul Müller. Demostró rápidamente ser muy efectivo contra una serie de plagas y, mejor aún, barato, fácil de producir y aparentemente inofensivo para el ser humano. Su uso se popularizó rápidamente por el mundo, aplicado a múltiples fines, -por ejemplo- como controlador de plagas de tifus entre las tropas de la segunda guerra mundial (las que fueron, literalmente, bañadas en DDT). Fue un éxito también en el control del mosquito que transmitía la malaria, al punto que Müller recibió el Premio Nobel en Medicina en 1948. Lo que no se sabía, hasta 1962, es que el DDT traía consigo un fuerte precio ambiental. Su gran estabilidad química lo hacía persistente en suelos y aguas, al punto que toda especie viva, tarde o temprano, acusaba un efecto tóxico. Su uso fue prohibido a partir de 1972 en la mayoría de los países.
18
Alejandro Canut de Bon L.
notable Elleenn Swallow, pionera en la protección ambiental en las faenas mineras) lograron mover las conciencias en pos del cuidado del medioambiente. Esto generó una preocupación política nacional e internacional, que tendría fuerte impacto avanzada la segunda mitad del siglo XX, lo que llevó a las Naciones Unidas a poner atención en el tema y a encargar la preparación de un informe que daría paso a la creación del concepto de Desarrollo Sustentable, como se explica en el próximo artículo.
Para fines de la década del sesenta, la administración del Presidente Richard Nixon dio un paso sin precedentes en materia ambiental legislativa, al dictar la National Environmental Policy Act (1969), más conocida como NEPA, cuya finalidad fue crear el marco regulatorio ambiental que regiría en Estados Unidos. Fue seguida de la creación de la Environmental Protection Agency (EPA), en 1970, institución encargada de la protección del medioambiente en dicho país. Posteriormente se dictó el Clean Air Act (1970), y el Clean Water Act (1972), regulaciones ambientales para la protección del aire y agua, respectivamente. Esto sentó las bases del marco regulatorio que rige -con modificaciones- hasta el presente en los Estados Unidos, y que fue repetido en gran medida en otros países durante las décadas de los años ´70, ´80 y ´90.
19
Desarrollo Sustentable y temas afines
Un nuevo concepto: Desarrollo Sustentable Como se comentó en el apartado anterior, el movimiento ambiental creció rápidamente a partir de la publicación de la “Primavera Silenciosa”, en 1962, y trajo consigo el despertar de una preocupación sobre el estado y salud del planeta. Una cantidad creciente de organismos nacionales e internacionales estudiaron en las décadas del ´60 y ´70 los diversos efectos que en el medioambiente y en el planeta empezaba a tener la forma de vida moderna (post-revolución industrial). Entre ellos, por ejemplo, el informe titulado “Los Límites del Crecimiento” publicado en 1972 por el denominado “Club de Roma”, al que nos referiremos en mayor detalle más adelante (Véase “¿Los Límites del Crecimiento?”). Este informe se había traducido para 1976 a más de 30 idiomas y superaba la venta de cuatro millones de ejemplares. A esto se sumó la crisis energética de 1973 y 1978 y las primeras manifestaciones publicas pro cuidado del medioambiente. En ese marco de cosas, la Organización de las Naciones Unidas formó la Comisión de Medioambiente y Desarrollo, mejor conocida como Comisión Brundtland (en honor a la presidente de la Comisión, posteriormente primera ministro de Noruega, Gro Brundtland). Esta Comisión recibió el encargo de hacer un informe sobre la materia. Dicho informe se presentó a la Asamblea General de las Naciones Unidas en 1987, y se tituló “Nuestro Futuro Común”. En él se acuñó el término Desarrollo Sustentable, definiéndolo como el “desarrollo que satisface las necesidades de las generaciones presentes sin poner en peligro la capacidad de las generaciones futuras de satisfacer sus propias necesidades”. Desde entonces este concepto se generalizó con una fuerza pocas veces vista. Se utilizó en cuanto documento ambiental se redactó y, por ello, la doctrina se vio en la necesidad de dotarlo 20
Alejandro Canut de Bon L.
de un contenido algo más detallado que la mera declaración comprendida en su definición, la que por cierto es más política que científica. La popularización definitiva del concepto vendría en 1992 cuando, a instancia de las Naciones Unidas, se reunieron en las cercanías de Río de Janeiro, Brasil, delegados de la mayoría de los países existentes, a fin de tratar temas relacionados con el cambio del medioambiente. Dicha reunión se denominó “Conferencia sobre Medioambiente y Desarrollo de las Naciones Unidas”, también conocida como la “Cumbre de la Tierra”. El propósito último de la conferencia fue determinar las reformas medioambientales necesarias que debían emprenderse a largo plazo. Los principales temas abordados en esta conferencia incluyeron el cambio climático, la biodiversidad, la protección forestal y, en general, aspectos económicos y políticos relacionados. La Cumbre de la Tierra terminó con la redacción de dos documentos: una agenda, que se denominó Agenda 21 (un proyecto de desarrollo medioambiental de 900 páginas) y, una declaración denominada Declaración de Río (un documento de sólo cinco páginas en el que se demandó la integración de medioambiente y desarrollo económico). La Cumbre de la Tierra fue un acontecimiento histórico de gran significado, no sólo por hacer del medioambiente una prioridad a nivel mundial, sino por su éxito en el sentido de convocar delegados de 178 países, lo que la convirtió en la mayor conferencia internacional jamás celebrada. Ahora bien, con un concepto de “Desarrollo Sustentable” cada vez más popular, la literatura especializada se vio -como se indicó- en la necesidad de darle un contenido más detallado. Esto creó un consenso, durante los noventas, en cuanto a un contenido en torno a tres pilares esenciales, que son los siguientes: 1.- Pilar ecológico: este pilar encierra la idea que comúnmente se asocia a la sustentabilidad, cual es la del cuidado ambiental y la prohibición de contaminar. Los instrumentos más básico de este 21
Desarrollo Sustentable y temas afines
pilar son las normas ambientales, sean de emisión o de calidad, la responsabilidad por daño ambiental, el principio precautorio, el que contamina paga, etc (todos los cuales se analizan más adelante). 2.- Pilar económico: en este sentido, y en términos simples, Desarrollo Sustentable significa desarrollo económico. Las medidas tomadas en pos de lograr el Desarrollo Sustentable, deben -en su conjunto- no sólo cuidar el medioambiente, sino que también cuidar que la sociedad logre su desarrollo económico. Esto, como se señalará más adelante en este texto, es consecuencia de la idea central que se esconde detrás de la Curva de Kuznets. Es decir, que el progreso económico es tarde o temprano la mejor vía para cuidar el medioambiente y, a contrario, el deterioro económico es la manera más segura de tener un medioambiente contaminado. Por este pilar es que ideas como el Teorema de Coase, el Óptimo de Pareto, la Renta de Hotteling, el Equilibrio de Nash, el Crecimiento Cero, la Contabilidad Verde, la Sustentabilidad Débil, etc, deben ser estudiadas para comprender la verdadera esencia escondida detrás de la amplia definición del Desarrollo Sustentable (conceptos que se analizan a lo largo del texto). 3.- Pilar social: este pilar encierra la ida básica de que el cuidado ambiental y el desarrollo económico deben ser hechos con participación y equidad social. Nos recuerda que la sociedad es un actor clave en la disyuntiva siempre presente -al menos en el corto plazo- entre cuidado ambiental y cuidado económico. En este pilar cobra importancia otro conjunto de conceptos que también resumiremos a lo largo de este texto, tales como Responsabilidad Social Corporativa, Informes de Sustentabilidad, Renta Hicksiana, Rentas Ricardianas, Participación Ciudadana, Licencias Sociales, etc. Algunos autores distinguen entre desarrollo económico y crecimiento económico. En este texto, con la finalidad de simplificar la comprensión de los términos más gruesos del Desarrollo Sustentable, no haremos tal distinción.
22
Alejandro Canut de Bon L.
La existencia de estos tres pilares otorga al concepto de Desarrollo Sustentable -sin duda- un equilibrio. Ya no se trata solamente de cuidar el medioambiente, ni tampoco de cuidarlo en la medida que no se perjudique la economía, sino que de hacer todo ello con participación y desarrollo de las comunidades y sociedad en general. Diez años después de la Cumbre de la Tierra, el 2002, se celebró la Cumbre Mundial sobre el Desarrollo Sostenible. Esta cumbre se llevó a cabo en Johannesburgo (Sud África). En esa importante conferencia (denominada también Río + 10) participaron 190 Jefes de Estado o de Gobierno, acompañados de sus delegaciones nacionales. La Cumbre de Johannesburgo reafirmó vigorosamente el compromiso con los principios acordados en 1992, con la plena aplicación de la Agenda 21 y con los resultados de las principales conferencia de las Naciones Unidas y los acuerdos internacionales concluidos desde 1992. Fue la primera cumbre mundial en abordar la contribución de la minería al Desarrollo Sustentable (incluyendo diversos párrafos atingentes a esta industria). Ahora bien, es claro que al hablar de Desarrollo Sustentable estamos en presencia de una propuesta que ha ganado rápido respeto, no obstante ello existen aún muchas ideas que resultan discutibles. Nos referiremos también a estas ideas, puesto que ellas hacen de esta propuesta una materia abierta al debate y, por lo mismo, más interesante aún. Consecuencia y muestra de estos aspectos discutibles, es la existencia de dos acepciones de Desarrollo Sustentable, una fuerte y una débil, a las que nos referimos a continuación.
23
Desarrollo Sustentable y temas afines
Las dos interpretaciones: Sustentabilidad Débil y Sustentabilidad Fuerte Se suele escuchar a los ambientalistas hablar de Sustentabildiad Débil en oposición a Sustentabilidad Fuerte, lo que nos lleva a la necesidad de dedicar en este texto algunas líneas que sirvan para explicar básicamente estos dos términos, claves en el entendimiento que podamos tener de la sustentabilidad en general. Como se indicara precedentemente el Desarrollo Sustentable (sustentabilidad) es un término cuya definición más conocida y aceptada es la acuñada en el informe titulado “Nuestro Futuro Común” (1987), en donde se le entendió como el “desarrollo que satisface las necesidades de las generaciones presentes sin poner en peligro la capacidad de las generaciones futuras de satisfacer sus propias necesidades”. Partiendo de esa definición, la doctrina ha dotado al término en cuestión de un contenido compuesto principalmente de tres elementos, los que también hemos señalado en el artículo anterior (ambiental, económico y social). Ahora bien, basándose en ese contenido, se han creado principalmente dos líneas de interpretación, que han dado lugar a dos entendimientos del concepto que pugnan entre sí y que subyacen a muchas de las disputas y debates que se dan en el presente, frente a los temas ambientales. Estas dos interpretaciones o corrientes son la Sustenbilidad Débil y la Sustentabilidad Fuerte: a.- Sustentabilidad Débil: se ha entendido por esta corriente que sustentabilidad significa el deber que tiene la generación presente de transmitir a la próxima un stock de capital total no menor al por ella recibido. Dado que el stock de capital total es la suma de tres diferentes tipos de capital (capital construido 24
Alejandro Canut de Bon L.
por el hombre -maquinarias, puentes, etc-, capital natural biodiversidad, recursos renovables y no renovables- y, por último, capital de conocimientos y habilidades), resulta entonces que la Sustentabilidad Débil asume que los diferentes tipos de capital son en alguna medida intercambiables. Lo importante es que el producto de la suma total sea el mismo. En palabras más claras, y llegando a un extremo, podemos -por ejemplo- traspasar a la próxima generación, según esta corriente, menos recursos naturales, pero más puentes y caminos. Al compensar lo uno con lo otro, se está cumpliendo con el deber de la sustentabilidad. Es claro, no obstante, para la Sustentabilidad Débil, que no todo recurso es compensable (no lo es aquello que resulta básico para la subsistencia humana). b.- Sustentabilidad Fuerte: se trata de una corriente que sostiene que no existe equivalencia entre los diversos tipos de capital, y en particular entre el capital natural o ecológico y el construido por el hombre. Fundamentan su posición en que estiman que muchos recursos naturales son esenciales para el bienestar y/o supervivencia de la humanidad. Este capital, el esencial para la humanidad, llamado capital crítico, no puede ser compensado con otros capitales. Por lo mismo, si muchos tipos de capital no son sustituibles, no se puede afirmar que lo importante es el producto total de la suma de los diversos tipos de capital. Cabe destacar que si bien esta clasificación no está exenta de dificultades, ha servido -al menos- para crear una graduación en el concepto de sustentabilidad, aunque siempre podrá discutirse cuáles son los activos que no puede ser compensados. Para algunos, en un extremo, todo recurso natural deberá ser entendido como capital crítico, para otros sólo aquel capital natural que provee funciones de soporte ecosistémico fundamentales para mantener la vida. Así, también hay una gradualidad posible al interior de cada una de estas dos líneas de pensamiento.
25
Desarrollo Sustentable y temas afines
Evidentemente la posición que se tenga frente a estas dos sustentabilidades dependerá de, o se relacionará con, concepciones más profundas que se tengan frente a la naturaleza. Esto nos lleva a estudiar dos corrientes o enfoques que se han ido formando y definiendo de manera paralela en las últimas décadas frente al tema ambiental. Me refiero al Conservacionismo y al Preservacionismo.
26
Alejandro Canut de Bon L.
Conservacionistas versus Preservacionistas Explicaremos más adelante como existe una componente filosófica importante en nuestra visión de la naturaleza y como ello influye y determina muchos de nuestros argumentos en cuestiones ambientales. Por ahora basta con indicar que estas diferentes visiones filosóficas dan lugar -en materia ambiental- a dos principales corrientes o enfoques ecológicos, que resultan ser los siguientes: a.- Corriente Conservacionista: se trata de una visión o corriente antropocéntrica, es decir que pone al hombre en el centro de la naturaleza, con derechos y responsabilidades especiales. A pesar de la diversidad de corrientes conservacionistas, éstas están básicamente de acuerdo en algunas ideas claves: la naturaleza está al servicio del ser humano y éste puede utilizarla en la medida que la proteja; esta protección se traduce en el cuidado de ciertos equilibrios; la ciencia nos ilustra en la forma de mantener dichos equilibrios. b.- Corriente Preservacionista: se trata de una corriente que se aleja del antropocentrismo y termina por otorgar a la naturaleza el papel principal. Ésta debe ser mantenida (preservada) en su estado actual. Su utilización debe ser mínima. Estos dos enfoques, radicalmente opuestos, nos ayudan a comprender aspectos que se dan en el debate entre la Sustentabilidad Débil y la Sustentabilidad Fuerte. Esto no quiere decir necesariamente que exista una total coincidencia entre estos conceptos, pero si se puede afirmar que es posible apreciar ciertas relaciones entre ellos: un coservacionista abogará generalmente por una Sustentabilidad Débil (o una Sustentabilidad Fuerte, pero de bajo perfil), mientras que un preservacionista creerá más en la Sustentabilidad Fuerte (y, en muchos casos, muy fuerte). Pero debe tenerse claro que esta clasificación entre 27
Desarrollo Sustentable y temas afines
conservacionistas y preservacionistas es un tanto más profunda que la clasificación que distingue entre la Sustentabilidad Débil y Fuerte. De hecho no sólo depende de concepciones económicas o filosóficas, sino también de creencias religiosas. Cabe por ejemplo recordar la cita bíblica que indica que “El temor y el miedo de vosotros estarán sobre todo animal de la Tierra y sobre toda ave de los cielos, en todo lo que se mueva sobre la Tierra y en todos los peces del mar; los que en vuestras manos son entregados. Todo lo que se mueve y vive, os será para mantenimiento: así como las legumbres y plantas verdes, os he dado todo” (Genesis, 9). En el extremo opuesto, están aquellos que otorgan derechos a los animales y a la naturaleza en general, equiparando su razón de vivir con la de los seres humanos y deificando la naturaleza como un todo, en una suerte de neo-panteísmo. Este último parecer es, por ejemplo, el que se desprende de la famosa carta que Seattle, el Jefe de los indios Suwamish, dirige al Presidente de los Estados Unidos, en 1855, en respuesta a la oferta de este último de comprar sus tierras. Le expresa, entre otras cosas: “El Gran Jefe de los Estados Unidos, en Washington, nos manda a decir que desea comprar nuestras tierras. … pero no terminamos de comprender como podéis comprar o vender el cielo o el calor de la tierra?.. Esa idea nos parece extraña, curiosa, difícil de asimilar. No somos dueño de la frescura del aire ni tampoco del centelleo de las aguas. ¿Entonces, como vais a comprar la tierra a nosotros?. Habéis de saber que cada partícula de esta tierra que es de todos los hombres, es sagrada para mi pueblo…” En todo caso, es evidente que la corriente a la que se pertenezca determinará la solución de muchos dilemas y El panteísmo significa, literalmente, que “todo es Dios”, y postula la idea de que la naturaleza entera tiene un carácter divino, y que Dios se encuentra en todas partes. En la filosofía moderna, Spinoza (1632-1677) fue el primero en postular la indisoluble unidad que forma el hombre y la naturaleza, deificando a esta última. Otros filósofos que tendrán cercanía con el panteísmo serán F. Schelling (apodado el “filósofo de la naturaleza”) y G. Hegel. Nótese que el panteísmo constituye la base sobre la que se asienta la adoración de la naturaleza postulada por el Romanticismo en el siglo XIX, y por algunos sectores ambientalistas en el presente.
28
Alejandro Canut de Bon L.
debates ambientales que veremos a continuación en este texto, por ejemplo, piénsese en el Dilema del Último Hombre o, en términos más prácticos, en el derecho a utilizar animales en laboratorios. La respuesta a estos dilemas estará condicionada por nuestra visión de la naturaleza y de la sustentabilidad. Resulta, por cierto necesario respondernos si somos conservacionistas o preservacionistas, si creemos en una Sustentabilidad Débil o Fuerte (y en qué grado), para sólo entonces comprender nuestro propio parecer, y el de terceros, frente a muchos dilemas ambientales (de la misma forma se sugiere calificar las organizaciones no gubernamentales y sus postulados en relación a estas corrientes. Esto resulta de utilidad al momento de entender los argumentos, los fundamentos y las motivaciones que existen detrás de cada una de estas instituciones y de sus acciones). Por último, cabe tener presente que la mayor consecuencia que se produce de la comprensión de la profundidad de este tema, es el hecho de que no existe una validez universal en estas materias, pues el fundamento de las diversas corrientes descansa muchas veces en las posiciones éticas, y por lo mismo filosóficas (e incluso religiosas), que subyacen a estas escuelas. Esta última conclusión es de la mayor importancia y debe tenerse presente al momento de argumentar y discutir en base a las tesis que proporcionan estas corrientes, como al leer sus teorías o utilizar las mismas como elementos claves en el entendimiento de la sustentabilidad.
29
Alejandro Canut de Bon L.
Economía y Medioambiente
Este capítulo se refiere a la influencia que ha tenido la economía en la búsqueda del equilibrio en la relación hombre-naturaleza. Con este objetivo, se parte repasando la evolución de la economía moderna en general, para posteriormente explicar las dos grandes corrientes económicas que abordan esta relación en el presente, la Economía Ambiental y la Economía Ecológica. Se prosigue con lo que constituye una nueva visión económica inspirada por el ambientalismo (Economía del Ciclo de Vida). El capítulo continúa con la descripción de una serie de 31
Alejandro Canut de Bon L.
instrumentos, teorías o teoremas económicos que se suelen utilizar al hablar de Desarrollo Sustentable, y que por ello no pueden obviarse al estudiar juntos economía y medioambiente.
En la búsqueda del equilibrio Como es sabido, una de las principales preocupaciones de la economía -si es que no la principal- es ilustrarnos en la forma en que la sociedad puede producir la mayor cantidad de bienes y servicios, respetando -claro está- las restricciones legales que se han fijado (remuneraciones mínimas, jornada laboral máxima, cumplimiento de normas ambientales, etc). Después de todo, en ello, precisamente, consiste la eficiencia, principio clave en la economía. Así las cosas, la pregunta que ha movido gran parte de esta ciencia a lo largo de su historia, es la siguiente: ¿qué conjunto de medidas, reglas o normas, llevan al funcionamiento más eficiente posible de la sociedad, es decir, a la mayor producción de bienes y servicios, y a menor costo?.... La primera respuesta fundamentada a esta pregunta fue dada por el economista inglés Adam Smith (1723-1790) en su texto publicado en 1776, titulado “La Riqueza de las Naciones”. Cabe recordar aquella clásica distinción entre “eficiencia” y “eficacia”. Mientras el último de estos conceptos significa cumplir el cometido propuesto, el primero significa no sólo cumplirlo, sino además hacerlo de la manera más económica posible.
33
Desarrollo Sustentable y temas afines
Sin duda, uno de los libros más famosos e importantes en la historia de la humanidad, que para muchos marca el nacimiento de la ciencia económica moderna. En él, Smith nos explica que en una economía libre de mercado el comportamiento de cada productor y consumidor, realizado en la búsqueda de su propio bien, conllevará al mejor bienestar social posible. Es decir, en pocas palabras, el egoísmo de cada cual producirá el óptimo de eficiencia social. La economía es conducida, en la ausencia de restricciones, por una suerte de “mano invisible” que lleva al bienestar general, coordinando perfectamente los intereses individuales con los colectivos. Así, la interferencia gubernamental no es necesaria y, más que ello, no es deseada. El “laissez faire” debe guiar la economía. Es más, antes de Smith, en 1714, se había publicado la “Fábula de las Abejas”, de Bernanrd Mandeville, en el que este autor proponía también la idea de que el egoísmo y otros vicios privados son los responsables del funcionamiento de la economía y de la creación de una nación rica y prospera. De manera contemporánea a Smith, otro economista, Anne Robert Jacques Turgort (1727-1781), ministro de finanzas de Luis XVI, propició también el laissez faire como una manera de impulsar la economía (eliminando las restricciones provenientes del Estado que se arrastraban de los tiempos de Luis XIV). No obstante, Smith fue el primero en dar una respuesta sistemática, y de allí su importancia. Para Smith es un error esperar que nuestro bienestar personal derive de la generosidad y buena voluntad de otros, como por ejemplo del carnicero o del tendero de la esquina o -en términos actuales- de la empresa más cercana. Por el contrario, nuestro bienestar depende de que cada comerciante y empresa vele, egoístamente, por su propio bienestar. Sólo esa actitud asegurará el óptimo social (como se señalará más adelante, esto se relaciona con la crítica que algunos sectores plantean respecto de la denominada Responsabilidad Social Corporativa). Como se podrá apreciar, para Smith la relación con el medioambiente también debía depender de las mismas reglas. 34
Alejandro Canut de Bon L.
Así, y si bien no estuvo dentro de sus preocupaciones referirse a los recursos naturales desde una perspectiva medioambiental, podemos concluir -aplicando las leyes naturales de la economía que él propiciaba- que un recurso sobre-explotado y por ello escaso, aumentará de precio, al punto que sólo por esto último logrará perder el atractivo económico y asegurar su subsistencia. No se requiere, para salvar al medioambiente -según esta posición- de la intervención del Estado. Dentro de los economistas clásicos, Smith será secundado por los también ingleses Thomas Robert Malthus (1766-1834), David Ricardo (1772-1823) y John Stuart Mill (1806-1873). Todos estos dedicaron algún grado de preocupación a la relación hombre-recursos naturales. A ellos nos referiremos en detalle más adelante (en el próximo capítulo, al comentar los “¿Los Límites del Crecimiento?”). Por ahora, basta con señalar que la idea gruesa en el desarrollo de la economía (y del cuidado de los recursos naturales) siguió siendo la misma: el “laissez faire”. Este periodo de la economía encontraría a su último gran exponente en el inglés Alfred Marshall (1842-1924). Profesor en la Universidad de Cambridge y autor de “Principios de Economía” (1890), el texto por el que generaciones estudiarían economía (sólo reemplazado posteriormente por el muy famoso texto titulado “Economía”, de Paul Samuelson). El gran aporte de Marshall sería la sistematización de las teorías económicas clásicas.10 De manera paralela y durante el siglo XIX, la economía desarrollaría una interpretación socialista, con los denominados socialistas utópicos, como Claude Saint-Simon (1760-1825), Robert Owen (1771-1858), Charles Fourier (1772-1837), Pierre J. Proudhon (1809 y 1865) y, el más importante de todos, Karl Marx (1818-1883). Pero estos no se centrarían en la relación hombre-medioambiente y, por lo mismo, carecen de importancia para estos efectos. 10 Otros de los aportes de Marshall son los conceptos de: “Utilidad Marginal” (la utilidad que reporta la última unidad de una serie de unidades similares consumidas previamente); “Excedente del Consumidor” (el sobrante entre lo que una persona paga y lo que estaría dispuesta a pagar), y; “Ceteris Paribus” (enfoque de análisis de un problema económico en el cual se debe asumir que todo el resto de los factores
35
Desarrollo Sustentable y temas afines
El quiebre vendría con dos ingleses, Arthur C. Pigou (1877-1959) y John Maynard Keynes (1883-1946), fundadores del denominado “Estado de Bienestar”.11 En efecto, después de un poco más de un siglo y medio contado desde la obra de Smith, resultó claro para muchos que éste se había equivocado en algunos aspectos. El mercado, en su libre funcionamiento, presentaba fallas, y ello creó un consenso en que esas fallas debían ser corregidas... y ¿quién más que el Estado para hacerlo?... En ese sentido, encontramos “La Economía del Bienestar” de Pigou publicada en 1920, y “La Teoría General de la Ocupación, el Interés y el Dinero”, de Keynes, publicada en 1936. En su conjunto propusieron que el gobierno puede y debe influir en el funcionamiento del mercado (sus consejos inspiraron fuertemente la política del New Deal, con la que Roosevelt sacó a Estados Unidos de la Gran Depresión). Desde entonces, no se discute que el funcionamiento del mercado puede ser mejorado, sobretodo en post de los más necesitados. Con las décadas ha quedado demostrado no obstante, que una excesiva intervención estatal puede perjudicar el crecimiento económico. A modo de ejemplo, el planteamiento principal de Keynes para atacar la Gran Depresión consistió en que el Estado debía, económicos permanecen constante). Estos conceptos son ampliamente utilizados en la economía moderna, y de gran aplicación al momento de hablar de economía de recursos naturales o de economía ambiental, como veremos a lo largo de este texto. 11 Se ha denominado “Estado de Bienestar” al Estado interventor y preocupado por los más desposeídos, que lleva por lo mismo a cabo programas sociales que buscan mejorar las desigualdades. El inicio del Estado de Bienestar se suele asociar a la puesta en práctica en Gran Bretaña, en la década de 1940, de un conjunto de medidas de seguridad social (las que también encuentran su origen en la filosofía del Utilitarismo, del inglés J. Bentham). En efecto, la situación de miseria y desprotección social de la Inglaterra decimonónica hizo que Bentham y sus seguidores dirigieran todas sus teorías a la finalidad de lograr una sociedad mejor y más justa, lo que tendría eco en Pigou y Keynes (no obstante la popularidad y aceptación del Estado de Bienestar a partir de la década de 1950, el economista norteamericano, doctorado en Columbia, de nombre Kenneth Arrow ha puesto en duda -con el famoso Teorema de Arrow- la posibilidad que el Estado de Bienestar resuelva los problemas que el mercado no puede solucionar. Por su contribución a la teoría del equilibrio económico y a la teoría del bienestar se le asignó en 1972 el Premio Nobel en Economía).
36
Alejandro Canut de Bon L.
en periodos de recesión, incrementar el gasto público, generando así una demanda adicional que -a su vez- incremente la inversión y disminuya el desempleo. Pero lo importante aquí, en términos generales y más allá del enérgico uso de la política fiscal que recomendó Keynes en casos de crisis, es que el sentir desde entonces es que el mercado puede y debe ser intervenido para mejorar su funcionamiento. Claro está, siempre quedará el cuestionamiento en el grado de intervención que debe tener lugar. Ahora bien, lo importante desde una perspectiva ambiental, es que este nuevo entendimiento económico marcaría una actitud frente a todo tipo de fallas de mercado, incluso las ambientales. Pigou argumentaba, por ejemplo, que las externalidades generadas por la contaminación deben ser tratadas por el Estado mediante impuestos, recompensas o regulaciones. En resumen, existe en el presente el consenso que si dejamos que el mercado opere tan libremente como se propuso inicialmente por Smith, no tardarán en aparecer impactos no deseados, incluidos los ambientales, como por ejemplo las externalidades negativas y las tragedias de los comunes (a las que nos referiremos más adelante). Por ello la función interventora del Estado parece ser necesaria. No obstante veremos que el tratamiento que la economía da al medioambiente ha seguido evolucionando (el Teorema de Coase es un gran ejemplo de esta continua evolución). En todo caso, pareciera hoy que en materia ambiental la pregunta es la misma que en la economía en general: ¿qué tanta protección es deseada?....¿qué medidas de protección o intervención constituyen el nivel óptimo de producción y cuidado? .... esto nos lleva, en uno de nuestros próximos artículo, a la famosa Curva de Kuznets.... pero antes de ello, veamos como la evolución de la economía, en lo que al cuidado ambiental se refiere, ha diseñado durante los últimos años dos corrientes o escuelas claramente diferenciadas, que se relacionan, respectivamente, con la Sustentabilidad Débil y con la Sustentabilidad Fuerte. Nos referimos a la Economía Ambiental 37
Desarrollo Sustentable y temas afines
y a la Economía Ecológica.
Economía Ambiental y Economía Ecológica Nos hemos referido -en el artículo anterior- a la evolución de la economía y a la forma en que ésta se relaciona con el tema ambiental. Esta relación ha sido cada vez mayor, lo que no debe extrañarnos, puesto que la metodología propia de la economía se ha venido aplicando crecientemente, durante las últimas décadas, en el análisis de problemas que corresponden a otras ciencias o campos, como lo es el ambiental. Es más, se suele decir que el estudio de la economía nos enseña no sólo una ciencia, sino también un modo de pensar, que nos ayuda a tomar decisiones en general. Esta afirmación significa, en términos más precisos, que la construcción del riguroso instrumental que sirve para la resolución de problemas económicos, se puede extender -con mayor o menor utilidada otras disciplinas y a otros tipos de decisiones y problemas, incluso aquellos que se presentan en la vida diaria. Esto, puesto que en estas otras decisiones también se plantean, en algún grado, problemas de costo-beneficio. De esta manera, por ejemplo, se ha buscado -utilizando la economía- saber donde fijar los incentivos en una ley ambiental, o como resolver problemas asociados al uso de los recursos naturales o a problemas de contaminación.
38
Alejandro Canut de Bon L.
Es por ello que la influencia de la economía en la ciencia ambiental ha dado lugar a diversas ramas o disciplinas que en las últimas décadas han ido abriendo caminos, creando escuelas, consolidándose y relacionándose. Entre estas disciplinas o escuelas, cabe destacar principalmente dos corrientes que se vinculan con el concepto que se pueda tener de Desarrollo Sustentable (débil o fuerte), y que están presentes en gran medida en muchos de los temas que se estudiarán a continuación, en este libro. Nos referimos a la Economía Ambiental y a la Economía Ecológica: 1.- La Economía Ambiental. Es quizás la disciplina más conocida en la relación “economía-medioambiente”. De muy acelerado desarrollo en la segunda mitad del siglo XX, se puede definir como aquella rama de la ciencia económica que abarca el estudio de los problemas ambientales empleando las herramientas que proporciona principalmente la microeconomía. En pocas palabras, persigue, frente a problemas concretos, la aplicación de una gestión ambiental, utilizando para ello instrumentos y métodos económicos tradicionales. Pone así acento, por ejemplo, en la importancia de la valorización económica de los recursos naturales, en la asignación de derechos de propiedad sobre ellos, en la aplicación del costo-beneficio como instrumento esencial de todo análisis, y en la incorporación de mecanismos de mercado en la regulación y gestión de los bienes comunes. Procura además determinar el punto hasta el cual debemos explotar un recurso cualquiera, considerando no sólo los costos tradicionales, sino también los ambientales (evaluados estos económicamente). 2.- La Economía Ecológica. Esta escuela, también denominada por algunos como “Economía Verde”, se caracteriza por considerar que los recursos naturales y el medioambiente deben ser valorizados mediante un proceso que va más allá de la utilización de meros instrumentos económicos. Es decir, los 39
Desarrollo Sustentable y temas afines
recursos naturales pueden tener, para esta línea de pensamiento, un valor independiente de las preferencias humanas y de las utilidades económicas que puedan prestar. Se argumenta que el ser humano es parte de un sistema en el cual se deben respetar mecanismos naturales, que constituyen límites al crecimiento económico. Se trata de una escuela que asume una relación directa entra la salud de los ecosistemas y la salud de los seres humanos, posicionándose en una postura muy diferente, y quizás podríamos decir más radical, que la de la Economía Ambiental. Esto, puesto que para la Economía Ecológica parte importante del bienestar humano no es analizable desde una perspectiva estrictamente económica, por lo que se postula que esta última disciplina debe ser complementada con principios de ecología y, en algunos casos, subordinarse a estos. El origen de esta línea de pensamiento se atribuye al ecologista y profesor de la Universidad de Vermont, Robert Constanza, fundador en 1988 de la Sociedad Internacional para la Economía Ecológica, ISEE por sus siglas en inglés (www.ecoeco.com). Algunos de sus economistas más famosos son N. Georgescu-Roegen, Kenneth Boulding, Herman Daly, J.M.Naredo, René Passet y Roefie Hueting. Ahora bien, en una rápida observación -pero no por ello errada- podríamos afirmar que la Economía Ambiental es la extensión o aplicación lógica de los conocimientos tradicionales de economía a los temas ambientales, mientras que la Economía Ecológica nos invita a una suerte de cambio de paradigma en nuestra forma de pensar y de entender la resolución de los problemas de costo-beneficio en los temas ambientales (desde una perspectiva centrada en el hombre, a una perspectiva centrada en la naturaleza). Nótese la relación no sólo con la Sustentabilidad Débil y la Sustentabilidad Fuerte, sino también con las perspectivas conservacionsitas y preservacionistas. Quizás por ello sentimos -los criados bajo el modelo de una economía tradicional- que mientras la Economía Ambiental entrega al presente una serie de resultados con40
Alejandro Canut de Bon L.
cretos y aplicables a una gran cantidad de problemas relevantes de gestión ambiental, la Economía Ecológica presenta -en muchos casos- sólo restricciones y prohibiciones. Puede que con el tiempo el cambio de paradigma efectivamente tenga lugar y derechamente veamos el problema desde una perspectiva diferente. Por ahora la visión que tengamos de nuestro medioambiente, de la racionalidad o punto óptimo de explotación, y de la conveniencia o no de su preservación o conservación, dependerá por cierto de cual de estas dos disciplinas (paradigmas) sirva de base para nuestros argumentos económicos (entiéndase el concepto de “paradigma” en el sentido señalado más adelante en “¿Qué es la ciencia?”). Por ello, algunos de los conceptos, teorías, teoremas o hipótesis que estudiaremos en este texto, se relacionan preferentemente con una de estas dos escuelas. En la mayoría de los casos lo será con la Economía Ambiental, pero en otros lo será con la Economía Ecológica. Así, por ejemplo, la primera de estas dos escuelas buscará la asignación óptima de un recurso dado, apoyándose en el Óptimo de Pareto, o estudiará la causa de la sobreexplotación de un recurso como la falla del mercado a la luz de la teoría de las externalidades negativas, o procurará la valorización de todos los recursos naturales, y creerá en la compensación de los capitales como lo propone la Sustentabilidad Débil, y también algunos grados de Sustentabilidad Fuerte. Por otro lado, la segunda de estas escuelas se vinculará más con las visiones preservacionistas, restando valor a la influencia de la economía en la búsqueda de la forma racional de aprovechar el medio que nos rodea y de lograr el cuidado del ecosistema; dudará por lo mismo de las ventajas de una valorización económica de todos los recursos naturales y se apoyará en un concepto de Desarrollo Sustentable Fuerte que prohíba toda compensación (todos estos conceptos se desarrollarán a lo largo de este capítulo). Quizás una forma de resumir la esencia de estas dos escuelas, es señalando que mientras la primera, la Economía Am41
Desarrollo Sustentable y temas afines
biental, opera con una visión antropocéntrica, centrada en la búsqueda del bienestar social, la segunda, la Economía Ecológica, comprende principalmente una visión más sistemática y biocéntrica, que establece claros límites ecológicos al crecimiento económico.
El Análisis Económico del Derecho y la Economía de los Recursos Naturales Además de las dos escuelas reseñadas precedentemente, existen otros dos campos en los que la influencia de la economía ha sido también notorio, afectando en algún grado la forma en que nos acercamos a los temas ambientales (ambos por cierto procedentes de visiones antropocéntricas). Me refiero a la escuela del Análisis Económico del Derecho, por un lado, y a la escuela de la Economía de los Recursos Naturales, por el otro. Aprovechamos de explicar estos términos ahora, pues también estarán presentes a lo largo de este texto: a.- La Escuela del Análisis Económico del Derecho. Es una escuela de pensamiento jurídico que ha crecido con fuerza en los países anglosajones, a partir de la década que se inicia en 1930. Procura aplicar principios y metodologías de la ciencia económica a la creación, interpretación y aplicación del derecho. Conceptos como costos de transacción, rendimientos marginales y función de eficiencia, pasaron a ser, de una generación a otra, claves al momento de hacer leyes e interpretar su aplicación. Esta escuela busca entender y explicar las normas jurídicas bajo el supuesto de que los jueces deben promover la eficiencia 42
Alejandro Canut de Bon L.
económica y la maximización de la riqueza, como un objetivo de política legal y social. En efecto, se considera que tanto la economía como el derecho enfrentan un problema común, cual es la escasez de recursos y la necesidad de resolver la forma en que estos deben ser asignados. Nombres como Kenneth Arrow y su teoría del bienestar y justicia distributiva (Nobel -1972) o Ronald Coase y su famoso teorema basado en los costos de transacción (Nobel-1991), son capítulos importantes en la historia de esta escuela. La importancia de esta disciplina para el tema que nos preocupa, radica en que el análisis económico del derecho se ha transformado en una muy poderosa herramienta -utilizando sobre todo la Economía Ambiental- al momento de hacer normas jurídicas que persiguen el cuidado del medioambiente. Por ello algunos de los artículos que se analizan a lo largo de este libro se relacionan con esta escuela. El análisis económico del derecho ha inspirado toda una variedad de cuestiones relativas al diseño de los derechos de propiedad y de las libertades y prohibiciones que regulan el actuar social en pos de un medioambiente libre de contaminación. Ha hecho a los legisladores crear normas que en algunos casos adoptan la forma de prohibición, y en otros de incentivos (en resumen, y paradójicamente, se utiliza el conocimiento económico clásico -y, en particular, el egoísmo individual al que se refería Smithpara perfeccionar el funcionamiento de la misma economía, lo que se resume muy bien en el viejo adagio que dice que “la economía es en ocasiones un mal amo, pero siempre un muy buen sirviente”). b.- La Economía de los Recursos Naturales. Esta disciplina trata principalmente de la administración de los recursos naturales y de los parámetros económicos que buscan el punto de aprovechamiento óptimo para la empresa que los explota. Es de bastante más antigua data y desarrollo que las disciplinas anteriores (incluyendo la Economía Ambiental y Economía Ecológica), al punto que ha generado subdisciplinas, como 43
Desarrollo Sustentable y temas afines
por ejemplo la Economía de Minerales (nombre genérico que ha sugerido la Escuela de Minas de Colorado, líder mundial en el estudio de la minería, a la disciplina que tiene por objeto estudiar estos recursos no renovables, en lo que dice relación con aspectos económicos, tales como mercados, precios, políticas gubernamentales aplicables, usos eficientes, producciones, etc). Como se ha dicho, quizás la principal contribución de estas disciplinas o escuelas, consiste en la formulación de instrumentos que buscan -cada una desde su propia perspectiva- presentarnos el punto de equilibrio entre la explotación y la preservación o conservación. En las próximas páginas encontraremos diversos resúmenes, de variada naturaleza. Muchos de ellos -como se ha indicado- se adscriben claramente a alguna de estas dos escuelas o a algunas de las dos señaladas precedentemente (Economía Ambiental y Economía Ecológica), como otros resultan ser más bien esquivos al momento de ser clasificados o, derechamente, pertenecen más al campo de la historia o de la filosofía, que al económico. Sea como sea, recuerde que no existe una validez universal en estas materias, pues -como ya hemos señalado- el fundamento de las diversas escuelas descansa muchas veces en las posiciones éticas, y por lo mismo filosóficas, que subyacen a estas disciplinas.
44
Alejandro Canut de Bon L.
Economía de Ciclo de Vida En los últimos años se ha hecho cada vez más popular el denominado “Enfoque de Ciclo de Vida”, o “Evaluación de Ciclo de Vida”, o “Economía de Ciclo de Vida”, o simplemente “Ciclo de Vida”. Procuraremos en las próximas líneas explicar resumidamente este concepto, determinar su relación con el Desarrollo Sustentable, y -por último- detenernos en la importancia que tiene desde la perspectiva de la historia de la economía. La evaluación del Ciclo de Vida (LCA, por sus siglas en inglés, Life Cycle Assesement) es una herramienta desarrollada y aplicada para medir el desempeño ambiental de productos o servicios en forma holística, es decir, desde su concepción hasta su desecho y resurrección (desde “la cuna a la tumba”. Véase “Y más principios de Derecho Ambiental”). Su finalidad es facilitar una decisión acertada de los consumidores, en el sentido que éstos opten por aquel producto o servicio que resulta, en definitiva, más amigable con el Desarrollo Sustentable (y, podríamos agregar, más económico para la sociedad y no para quien lo compra). Así las cosas, adoptar un “Enfoque de Ciclo de Vida” significa, en términos prácticos, reconocer y evaluar la manera 45
Desarrollo Sustentable y temas afines
en que nuestras decisiones influyen en el medioambiente, en la economía y en la sociedad. Lo anterior comprende el tomar decisiones pensando en el largo plazo, considerando así no sólo un aspecto económico personal e inmediato, sino también los aspectos económicos ambientales y sociales de mediano y largo término. Esto es, el tomar conciencia de que nuestras preferencias no están aisladas, sino que forman parte de un sistema más amplio. Este enfoque nos invita a identificar los impactos que producen nuestras decisiones individuales una vez que se suman a las decisiones individuales de otros. Se procura así evitar incentivar, por ejemplo, la producción de un bien que es fabricado a costa del daño en un ecosistema natural, o gracias a las pobres condiciones laborales de los empleados que trabajan en la respectiva fabricación. Desde esta perspectiva, no resulta sustentable, por ejemplo, la compra de papel no reciclado, aunque sea más económico y de mejor calidad que el papel reciclado. En efecto, si se considera que cada 50 mil hojas de papel para oficina se requieren, en promedio, de 24 árboles para su fabricación y de 2,3 metros cúbicos de espacio en un relleno sanitario para su desecho, resulta necesario colegir que el papel reciclado es la opción correcta, aunque pueda ser más caro en términos inmediatos y personales y, quizás, para algunos, menos estético (y/o de menor calidad). Nótese como el Ciclo de Vida es aplicable a las decisiones cotidianas que tomamos en casa, o en el lugar en que trabajamos. Pero también el Enfoque de Ciclo de Vida implica un tema de políticas gubernamentales o de políticas de grandes empresas. Estas últimas, por ejemplo, deben pensar no sólo en la fabricación más económica de sus productos, sino también -al diseñarlos- en las materias primas que utilizarán, en su origen, en los desechos que producirán, en los materiales que la manutención del producto demandará, en la longevidad del mismo producto, en su reciclaje y, por último, en su desecho. Se impone así la responsabilidad de los fabricantes de invertir 46
Alejandro Canut de Bon L.
tiempo y energía -por ejemplo- en investigar el origen de las materias primas que utilizan y el cómo éstas fueron a su vez producidas. Deben incorporar al diseño del producto factores tales como la longevidad del mismo producto o su reutilización o fácil reciclaje. En pocas palabras, el concepto de Ciclo de Vida integra la producción y el consumo, en una visión de conjunto, evitando la visión fragmentada que se tiende a dar en una economía tradicional. Es del caso destacar que la metodología para medir los Ciclos de Vida han sido estandarizadas con Normas ISO (14.040), lo que busca dar a este enfoque una objetividad que permita parámetros de comparación a nivel mundial (Véase “Normas ISO. Estandarizando el cuidado del Medioambiente”). Se comprenderá con facilidad el importante papel que juega en todo este enfoque la información. Ésta debe estar disponible no sólo para las industrias, sino también para cada particular. En este sentido una herramienta que ha crecido junto al Ciclo de Vida ha sido el “ecoetiquetado”. Esto ha permitido a los consumidores tomar decisiones previamente informados. Ahora bien, explicado el concepto básico de Ciclo de Vida, resulta necesario hacer un comentario dentro del contexto de este libro (y en particular desde la perspectiva de la historia de la economía): este nuevo enfoque significa -en un sentido- un fuerte quiebre a la forma en que concebimos las decisiones económicas. En efecto, en la visión tradicional de la economía, el carácter competitivo de un producto cualquiera se determina por su precio. Éste nos muestra que tan eficientes fueron sus fabricadores. A menor precio, mayor eficiencia y mayor competitividad. La opción individual, la del consumidor final, será -a igual calidaduna simple consecuencia del mejor precio y de la búsqueda del bienestar individual de que nos habla Adams Smith. Pero, en esta 47
Desarrollo Sustentable y temas afines
nueva visión a la que nos invita la evaluación del Ciclo de Vida, se impone un criterio diferente, al menos en su escala. El precio ya no es el gran referente, ni tampoco la calidad. Son otros los aspectos que primordialmente deben considerarse al momento de la decisión de compra de un bien o un servicio. Por eso se dice que el mundo debe aprender a aplicar una “Economía de Ciclo de Vida”, en el sentido de que esto es una suerte de “nueva” concepción de la economía. No obstante lo dicho, puede también argumentarse que este quiebre con la economía tradicional no es tal. Lo que se impone en realidad es una necesidad de sumar o considerar todos los costos en que se incurre en la fabricación de un producto (Véase Principio, “El Que Contamina Paga”). En efecto, tomemos -por ejemplo- el daño que se produce a un ecosistema. Esto es, en términos económicos, una externalización, es decir un costo que no se refleja en el precio final. Desde esta perspectiva, se podría argumentar que la propuesta de Smith sigue vigente (para entender el concepto de “externalización” véase más adelante “El Teorema de Coase, las Externalidades y los Costos de Transacción”). En otras palabras, el enfoque de Ciclo de Vida demanda -no una nueva concepción de la economíasino solamente la necesidad de una correcta internalización de todos los costos de producción, incluidos los ambientales y los sociales. Si los costos -ambientales y sociales- son debidamente internalizados, el precio final dará cuenta de ellos. Esto nos lleva, más adelante, a la necesidad de tratar la valorización del medioambiente (Véase “¿Cuánto vale el medioambiente?” y “Contabilidad Verde”)12. El Ciclo de Vida, como política aceptada internacionalmente, se consagra en la Declaración de Malmo (2000). Se trata de una declaración de principios hecha por el conjunto de Ministros del Medioambiente y Jefes de Delegaciones que se reunieron en Malmo, Suecia, en mayo del 2000, en el marco del Primer Foro Mundial de Ministros del Medioambiente. Este encuentro se celebró como consecuencia de una decisión adoptada por la Asamblea General de las Naciones Unidas, de julio de 1999, que pretendió promover las reuniones ministeriales como una instancia para revisar tópicos ambientales. 12
48
Alejandro Canut de Bon L.
La Curva de Kuznets Como señalamos en su oportunidad (Véase “En la búsqueda del equilibrio”), un tema constantemente presente en la relación economía y medioambiente es aquel que discute sobre el real efecto o incidencia que el crecimiento económico tiene sobre el medioambiente o -viceversa- el efecto que el cuidado ambiental tiene en el desarrollo de la economía. Por un lado, hay algunos autores que piensan que se trata de un juego de suma cero (es decir, como explicaremos más adelante al referirnos a la Teoría de los Juegos, la ganancia de uno es la perdida del otro). En el extremo opuesto, hay quienes piensan que el crecimiento económico y el cuidado ambiental pueden encontrar ciertas sinergias. Esta es una discusión clásica que, si bien está lejos de estar decidida, ha encontrado un cierto consenso en la teoría que nos propone que la relación entre el cuidado ambiental y el crecimiento económico presenta, en un gráfico, la forma de una “U” invertida. Es decir, en las primeras etapas del desarrollo económico de un país se produce una perdida de las condiciones ambientales pero, posteriormente, conforme el desarrollo económico se sostiene,
49
Desarrollo Sustentable y temas afines
el cuidado ambiental logra repuntar compensando el perjuicio inicial. En otras palabras, superado un determinado umbral en el crecimiento económico, el medioambiente empieza a registrar progresos en su calidad, los que compensan el deterioro producido en una primera etapa de desarrollo. Esta relación se ha denominado “Curva de Kuznets”, debido a que es similar (en su forma) a la curva que el economista Simon Kuznets construyó en 1955 para representar la relación entre desarrollo económico y distribución de la renta.13 En concreto, la Curva de Kuznets, en materia ambiental, representa la relación que existe entre desarrollo económico, por un lado, y el deterioro/cuidado del medioambiente, por otro. Esta relación se ha explicado señalando que es consecuencia, principalmente, de dos factores separados: el efecto escala y el efecto tecnológico. El efecto escala; incide en que el crecimiento económico afecte negativamente la calidad del medioambiente. Es decir, como consecuencia de un mayor crecimiento habría una mayor producción, lo que -a su vez- significaría una mayor cantidad de materias primas y recursos naturales explotados. El efecto tecnológico; incide en que el crecimiento económico afecta positivamente la calidad del medioambiente, pues conforme se crece se cuenta con más recursos para invertir en investigación y desarrollo de tecnologías limpias o, simplemente, para comprar las tecnologías ambientales más modernas. Simon Kuznets (1901-1985), economista nacido en Ucrania y nacionalizado norteamericano, obtuvo su doctorado en economía en la Universidad de Columbia (Nueva York) y fue profesor de diversas universidades, entre ellas de la Universidad de Harvard. Fue galardonado con el Premio Nobel en Economía en 1971, por su trabajo sobre el desarrollo económico que, entre otros puntos, propuso que la relación entre crecimiento económico y desigualdad del ingreso presenta la forma de una “U” invertida. 13
50
Alejandro Canut de Bon L.
Así, la curva se explicaría porque en una primera etapa el crecimiento se haría en base a la explotación de los recursos naturales por medio de tecnologías tradicionales, económicas y poco amigables ambientalmente. En una segunda etapa la industria se vería presionada y posibilitada a destinar parte de sus utilidades a la incorporación de tecnologías limpias (además, conforme la economía crece, un segundo efecto favorable consiste en que parte de ella se desplaza al sector de servicios). Ahora bien, el origen del debate sobre la implicancia del crecimiento económico en el medioambiente se produjo junto a la discusión relativa al “crecimiento cero” (a la que nos referimos más adelante), durante la década de los sesenta, cobrando nuevamente actualidad a inicios de la década del noventa, en que la publicación del Informe sobre el Desarrollo del Banco Mundial señaló que el crecimiento económico potencia algunos indicadores ambientales, pero perjudica otros. Desde entonces, la Curva de Kuznets ha permitido sostener por algunos sectores que, dado que el crecimiento económico significa en el largo término una consecuencia positiva en el medioambiente, resulta entonces un contrasentido imponer normas ambientales que restrinjan excesivamente el desarrollo de la economía en una primera etapa. Por otro lado se ha afirmado que dicha lógica no es correcta, tanto por no existir experiencia empírica concluyente al momento de determinar la existencia o validez de la curva en cuestión, cuanto porque de ser efectiva se desconoce desde que renta per cápita el deterioro del medioambiente empieza a reducirse (lo que impide apostar a esta teoría con una mínima certeza de resultado). Esto, sumado al hecho que muchos sistemas ecológicos presentan un equilibrio que, una vez destruido, no puede regenerarse, obliga a imponer un cuidado en todo momento, incluso desde los inicios del desarrollo (Véase “Ecocidio”).
51
Desarrollo Sustentable y temas afines
Quizás la mayor conclusión parcialmente válida es que no resulta del todo desatendible la idea central que se puede colegir de esta curva: las medidas que tienden al cuidado del medioambiental deben también procurar evitar restringir el crecimiento económico, porque -como se ha dicho- éste último, tarde o temprano, resulta ser uno de los mejores aliados del cuidado del medioambiente (como señaló Indira Ghandi, “no hay peor contaminación que la pobreza” ).
La Tragedia de los Comunes La Tragedia de los Comunes corresponde originalmente al título de un artículo publicado en el año 1968, en la revista Science, por un biólogo norteamericano de nombre Garret Hardin, doctorado en la Universidad de Stanford y profesor emérito de Ecología Humana en la Universidad de California (Santa Barbara). Dicho artículo tuvo una amplia difusión y con los años su título se ha convertido en un concepto en sí mismo, que comprende la idea que se explica en las próximas líneas y que podemos extraer -en lo principal- directamente de parte del artículo de Hardin: “Imagine un pastizal abierto para todos. Es de esperarse que cada pastor intentará mantener en los recursos comunes tantas cabezas de ganado como le sea posible. (...) Como un ser racional, cada 52
Alejandro Canut de Bon L.
pastor busca maximizar su ganancia. Explícita o implícitamente, consciente o inconscientemente, se pregunta, ¿cuál es el beneficio para mí de aumentar un animal más a mi rebaño? Esta utilidad tiene un componente negativo y otro positivo. 1. El componente positivo es una función del incremento de un animal. Como el pastor recibe todos los beneficios de la venta, la utilidad positiva es cercana a +1. 2. El componente negativo es una función del sobrepastoreo adicional generado por un animal más. Sin embargo, puesto que los efectos del sobrepastoreo son compartidos por todos los pastores, la utilidad negativa de cualquier decisión particular tomada por un pastor es solamente una fracción de -1. Al sumar todas las utilidades parciales, el pastor racional concluye que la única decisión sensata para él es añadir otro animal a su rebaño, y otro más... Pero esta es la conclusión a la que llegan cada uno y todos los pastores sensatos que comparten recursos comunes. Y ahí está la tragedia. Cada hombre está encerrado en un sistema que lo impulsa a incrementar su ganado ilimitadamente, en un mundo limitado. La ruina es el destino hacia el cual corren todos los hombres, cada uno buscando su mejor provecho en un mundo que cree en la libertad de los recursos comunes. De la libertad de los recursos comunes resulta la ruina para todos.”14 En otras palabras, la Tragedia de los Comunes explica, en su esencia, la sobreexplotación que sufren los bienes de uso o propiedad común. Todos los usuarios, con su actuar individual, condenan colectivamente el bien a la extinción (a la tragedia). Esto porque la propiedad común se traduce en la falta de cuidado 14
Garret Hardin; “The Tragedy of Commons” en Science, v. 162 (1968).
53
Desarrollo Sustentable y temas afines
individual del bien. Todos procuran hacerse de una cuota del beneficio que la explotación del bien podría producir, y -a la vezninguno considera como propio el daño que la sobreexplotación de seguro producirá. Inconscientemente, cada uno de los agentes, ignora el futuro dado que su cálculo personal lo obliga a concluir que muy probablemente no será él quien se beneficie del esfuerzo de conservación (en términos financieros diríamos que opera con una tasa de descuento temporal infinita). Es más, asumamos por un instante que cada pastor puede incluso proyectar el desenlace que predice el autor (la tragedia) o, siguiendo el ejemplo de Hardin, supongamos que el pastizal va perdiendo gradualmente su capacidad de renovarse debido a la sobreexplotación y que ello es percibido por cada pastor. ¿Cambiaría esto el resultado final?. Cada pastor comprenderá rápidamente que para asegurar la subsistencia del recurso común (del pastizal) debe disminuirse el número de cabezas de animales que pastan en él, lo que significa un perjuicio económico inmediato para quien tome esa decisión. Cada pastor sabe también que el hecho de disminuir unilateralmente el número de sus animales -además de producir un perjuicio para él- no producirá por sí solo un efecto notorio en la subsistencia del recurso común (salvo que todos los demás pastores o un gran número de ellos a lo menos tome la misma decisión). Es más, tomar la decisión de manera unilateral puede incluso incentivar a otra familia a aumentar el número de sus animales. De esta forma es evidente que el resultado final dependerá entonces de un hecho: ¿es posible un acuerdo entre todos los pastores?.... ¿qué tan grande o complicado es el sistema del que estamos hablando?.... ¿permite o no la concertación de los actores?... Supongamos que no es posible un acuerdo. En dicha circunstancia cada pastor enfrenta un problema que debe resolver aisladamente, consistente en que debe decidir entre dos extremos: 54
Alejandro Canut de Bon L.
Aprovechar el bien común a su máxima potencialidad presente (lo que es racional a escala personal y racional también en el caso de asumir que de todas maneras el recurso se extinguirá por la explotación de los demás) o, disminuir unilateralmente el número de cabezas de su ganado, asumiendo el perjuicio inmediato que ello produce, en la esperaza que los demás pastores actúen de manera similar (es decir, asumir un Enfoque del Ciclo de Vida). Así, cada pastor que analice la situación detenidamente sabrá que encara una suerte de “Dilema del Prisionero” (el que se explica más adelante). En este caso la situación podría tener cuatro desenlaces posibles, que en orden de preferencia personal son: a.- La primera preferencia: el óptimo personal. Mantener o aumentar el número de su ganado, mientras los demás pastores -o al menos un conjunto importante de ellos- disminuyen el número de sus animales permitiendo por consecuencia la subsistencia del recurso; b.- La segunda preferencia: disminuir el número de animales, al igual que el resto de los pastores, cooperando para mantener el recurso; c.- La tercera preferencia: mantener o aumentar el número de animales, al igual que los demás pastores, agotando el recurso; d.- La ultima preferencia: disminuir el número de animales, mientras los demás pastores lo mantienen o aumentan, agotando el recurso. De esta forma, y en resumen, cada pastor debe tomar su propia decisión, suponiendo la decisión que el resto de los actores tomará. El resultado final dependerá de la suma de las decisiones unilaterales. En el proceso cada pastor podrá salir con mayor o con menor beneficio dependiendo tanto de su decisión como del resultado general. Ahora bien, lo interesante de esta situación que denominamos Tragedia de los Comunes es que:
55
Desarrollo Sustentable y temas afines
a.- Resulta posible trasladar el problema que encierra a prácticamente todos los recursos naturales de aprovechamiento público. Es más, es evidente que muchos de los actuales problemas de contaminación ambiental, como otros problemas similares de sustentabilidad (por ejemplo, animales en peligro de extinción) pueden ser explicados a través de la Tragedia de los Comunes. Piénsese en la caza de ballenas, en la contaminación del aire o, incluso, en el exceso de la población. b.- Desde un punto de vista económico, el desenlace de esta historia permite argumentar que “la mano invisible” (en el sentido de libertad absoluta) de la que nos habla Adams Smith, lleva en situaciones a un perjuicio final colectivo (la tragedia). Cada pastor, persiguiendo su beneficio inmediato, no producirá el bien común. También desde un punto de vista económico, resulta destacable la forma en que los instrumentos de mercados pueden prestar utilidad en post de evitar la tragedia (piénsese en los permisos de emisión transables). Evidencia la tragedia una falla de mercado y la necesidad de subsanarla (en otras palabras, esto da la razón a Pigou y Keynes, en el sentido señalado en “La búsqueda del equibrio”); c.- Desde el punto de vista del derecho, la Tragedia de los Comunes pone en evidencia la necesidad de la organización jurídica. Esta organización puede darse mediante un acuerdo (contrato) entre los pastores, si el número reducido de ellos así lo permite; o mediante la asignación de propiedad privada, como ocurre con los permisos de emisión transables (variando de este modo la racionalidad económica que subyace al problema); o reglamentando la
56
Alejandro Canut de Bon L.
propiedad pública (leyes o normas que determinen el uso adecuado de los bienes públicos). En todo caso, es importante destacar que la solución del problema (de la tragedia) se hace más esquiva en los bienes que escapan a las fronteras de un solo Estado (peces, aire, etc), dada la imposibilidad de sujetar estos bienes a un solo sistema jurídico, cualquiera que éste sea. d.- La Tragedia de los Comunes presenta una relación más o menos directa con varios de los temas que estudiaremos a continuación, en especial con la Teoría de los Juegos, el Dilema del Prisionero, el Óptimo de Pareto, el Equilibrio de Nash, el Teorema de Coase y las Externalidades. 15
La Teoría de los Juegos Todos los juegos, sean de niños o adultos, son en alguna forma modelos de situaciones conflictivas y/o cooperativas en las que se simulan pautas que se repiten en la realidad. Por ello el estudio de los juegos ha servido a científicos, de todos los tiempos y lugares, para desarrollar teorías y modelos matemáticos que permitan presumir los componentes aleatorios que existen en ellos, creando de esta forma pautas que orienten las decisiones que deben ser tomadas en situaciones similares, pero reales. Un claro ejemplo de esto es la Estadística, que es de hecho una rama de las matemáticas que nació precisamente como una En relación a la Tragedia de los Comunes resulta de interés estudiar el trabajo -sobre el mecanismo de las interacciones humanas- realizado por Elinor Ostrom, doctorada en ciencias políticas de la UCLA (Universidad de California de Los Angeles) en 1965, y actual profesora de Escuela de Asuntos Públicos y Ambientales de la Universidad de Indiana. Su trabajo se suele vincular al de Hardin, puesto que utiliza una amplia base de datos empíricos para buscar relaciones de causa y efecto entre las acciones institucionales, las acciones de la gente y los resultados del uso de lo común, los que han sido en parte validados con modelos de la Teoría de los Juegos. 15
57
Desarrollo Sustentable y temas afines
forma de facilitar las decisiones en los juegos de azar, pero que se emplea hoy en variados campos. Ahora bien, como es sabido en muchos juegos -como en muchas situaciones de la realidad- los resultados dependen de la conjunción de las decisiones de diferentes jugadores. Dicho en otras palabras, el resultado final para un jugador no dependerá sólo de las decisiones que él tome durante el juego, sino también de las que tomen los demás jugadores. Tanto así, que se suele decir que una decisión es “estratégica” cuando precisamente presupone las decisiones de los demás agentes en juego. La Teoría de los Juegos concentra su estudio y atención en estas situaciones, y particularmente en el comportamiento estratégico de los jugadores, con la finalidad de entender el fundamento de las decisiones que se toman en determinadas situaciones. El nacimiento de la Teoría de los Juegos se encuentra en diversas publicaciones hechas durante la década de 1920 por el matemático norteamericano John von Neumann (1903-1957)16, que en su conjunto sentaron la estructura matemática de gran parte de las bases de esta teoría, la que se desarrolló rápidamente a partir de entonces, al punto que ya durante la segunda guerra mundial los estrategas militares basaron muchas de sus decisiones de defensa y ataque en conceptos relacionados con la Teoría de los Juegos. En la década de 1940 el economista Oskar Morgenstern dio un nuevo impulso al desarrollo de esta teoría, trabajando en las aplicaciones que podría tener en el campo de la economía. Junto a von Neumann publicó en 1944 el libro “Teoría de los Juegos y el Comportamiento Económico”, que abrió paso a una John von Neumann nación en Hungría, pero se nacionalizó norteamericano en 1937. Es uno de los grandes matemáticos del siglo XX, sus aportes son significativos en diversos ámbitos, teóricos y prácticos, como por ejemplo en el proyecto Manhattan (que produjo la primera bomba atómica), en la Teoría Cuántica, en el diseño de computadoras y en el desarrollo de la Teoría de los Juegos. Formó parte del destacado Departamento de Matemáticas de la Universidad de Princeton. 16
58
Alejandro Canut de Bon L.
disciplina que no ha cesado de crecer, en diferentes ámbitos. Desde entonces la Teoría de los Juegos ha evolucionado más dentro del campo de la economía y de las ciencias sociales que dentro del campo de las matemáticas, alcanzando un alto grado de sofisticación interdisciplinaria y demostrando una utilidad práctica de proporciones en la resolución de conflictos reales. Cabe destacar que un aporte de importancia dentro de esta teoría fue realizado por otro profesor, también de la Universidad de Princeton, John Forbes Nash, y se ha denominado el “Equilibrio de Nash”. Este aporte -que explicaremos de manera independiente dentro de este libro- mereció el Premio Nobel en Economía para Nash y su vida en general inspiró posteriormente la novela y película “Una Mente Brillante”. Por otro lado, en el campo del derecho, la Teoría de los Juegos ha demostrado utilidad en la adopción de decisiones, por ejemplo, frente a la alternativa de ir a juicio o de conciliar, o en la creación de estrategias de negociación o de pleitos, o en la dictación de leyes que procuran un efecto determinado presuponiendo conductas de los agentes sociales. En palabras muy simples es posible hacer una introducción a la Teoría de los Juegos diciendo que existen básicamente dos clases de juegos diferentes, que plantean problemáticas diferentes y que requieren por ello también de análisis diferentes. Por un lado están los juegos en que los participantes pueden comunicarse entre ellos y negociar el resultado, denominados “Juegos de Transferencia de Utilidad” o “Juegos Cooperativos”, y; por otro lado, están los juegos en que los participantes no pueden comunicarse entre ellos, denominados “Juegos sin Transferencia de Utilidad” o “Juegos no Cooperativos”. Cualquiera de estas dos clases básicas de juegos puede ser a su vez objeto de una serie de distinciones y subdistinciones, que deberán ser consideradas en un análisis detenido. Por ejemplo, los juegos no cooperativos pueden ser de “Suma Cero”, si el aumento en la ganancia de un jugador 59
implica necesariamente la disminución en la ganancia del otro, o de “Suma no Nula” si por el contrario la suma de las ganancias de los jugadores puede aumentar o disminuir en función de sus decisiones. Es importante destacar que la teoría de los Juegos ha resultado de gran relevancia al momento de explicar muchas de las dinámicas que se producen en relación al aprovechamiento de los recursos naturales, o respecto del cuidado del medioambiente, o de las negociaciones sociales (propias, estas últimas, del ejercicio de actividades de Desarrollo Sustentable). Esa es la razón por la cual esta Teoría merece ser comentada en este texto. Por lo mismo, y no obstante que dada la naturaleza de este libro no resulta posible profundizar en el tema, dedicaremos a continuación algunas líneas respecto de uno de los más conocidos juegos no cooperativos que existen y al que ya nos hemos referido al comentar la Tragedia de los Comunes. Me refiero al denominado Dilema del Prisionero. Este juego nos permitirá -posteriormente- explicar en términos muy generales dos importante concepto que se utilizan a menudo en Economía Ambiental: el Óptimo de Pareto y el Equilibrio de Nash. Además, el Dilema del Prisionero nos dará al menos una noción de la utilidad práctica de la Teoría de los Juegos en general.
Alejandro Canut de Bon L.
El Dilema de los Prisioneros El Dilema de los Prisioneros es un juego no cooperativo de suma no nula, formulado y analizado por vez primera por el profesor del Departamento de Matemáticas de la Universidad de Princeton, Estados Unidos, A. W. Tucker, en el año 1950. Al presente es quizás el juego más estudiado y comentado dentro de la Teoría de los Juegos. Consiste en que dos sospechosos de haber cometido un delito son detenidos y encarcelados en celdas diferentes, incomunicados el uno del otro. Los agentes de policía saben que carecen de pruebas para inculparlos por el crimen que creen han cometido. Pero aprovechando el aislamiento en que se 61
Desarrollo Sustentable y temas afines
encuentran los dos delincuentes, proponen y prometen a cada uno lo siguiente: confesar el delito, proporcionando las pruebas para inculparse a sí mismo e inculpar también a su compañero, a cambio de una reducción de la condena (de 10 a 5 años), agregando que la reducción sólo se otorgará al primero de los dos que confiese. Lo importante en el análisis de la conducta estratégica de los jugadores (acusados) es que ambos pensarán que el problema se puede resolver de una de las tres siguientes maneras: A.Traicionar al compañero, es decir confesar (resultado: 5 años para él, 10 para su compañero); B.- No confesar y ser traicionado por el compañero (resultado: 10 años para él, y 5 para el compañero), y; C.- No confesar y no ser traicionado (resultado: libertad para ambos). Los dos jugadores saben que pueden alcanzar la libertad, pero ambos también saben que en caso de ser traicionado el resultado será una condena de 10 años de cárcel. Concluirán en definitiva que al desconocer la conducta que adoptará el compañero, lo más seguro es traicionar primero. No se piense que este es un tema sólo teórico, y carente de aplicación práctica. Piénsese por ejemplo en el pastor de la situación que comentáramos al explicar la Tragedia de los Comunes. Una conclusión importante de este juego, es que contradice lo enseñado por Adams Smith, en el sentido que se podría argumentar que no siempre el perseguir el beneficio personal llevará al mejor resultado colectivo posible. Los jugadores persiguen su propio lucro, de manera individual, y el resultado no es por ello el óptimo colectivo. Demuestra lo lejos que estamos de un Enfoque de Ciclo de Vida. Como se podrá apreciar después de la lectura de las próximas páginas, el resultado que se produce en estas situaciones (traición mutua) es: 62
Alejandro Canut de Bon L.
a.- Subóptimo desde la perspectiva de Pareto, y; b.- Es consecuencia de lo que se denomina “Equilibrio de Nash”. Por último, es menester destacar que el resultado del Dilema puede cambiar en caso de juegos repetitivos, es decir de situaciones que se dan una y otra vez, y que permiten la construcción de una reputación para cada jugador, que le puede significar una mayor utilidad en el largo término. La construcción y cuidado del capital reputacional explica gran parte de la realidad, y del actuar de las empresas en el mundo de hoy.
El Óptimo de Pareto Este concepto de carácter económico, que suele escucharse en Economía Ambiental, proviene del apellido del economista italiano Vilfredo Pareto (1848-1923), conocido por diferentes aportes en su campo.17 Entre estos aportes, está el concepto del Óptimo de Pareto, que básicamente encierra la idea que cualquier negociación o situación que comprenda una distribución de riqueza (entiéndase la palabra “riqueza” en sentido lato), puede ser mejorada en la Entre estos aportes, quizás el más famoso es el denominado “Principio de Pareto” o “Regla 80/20”, que nos enseña que generalmente el 80% del éxito en el resultado de una gestión cualquiera, depende sólo del 20% de los factores en juego. 17
63
Desarrollo Sustentable y temas afines
medida que alguno de los individuos, que conforman dicha situación, logre una mayor utilidad sin que con ello perjudique o desmejore a los demás individuos participantes de la situación. En otras palabras, el concepto nos ilustra en la posibilidad de mejorar el resultado de la situación existente, realizando pequeños cambios en ésta, que se denominan “mejoramientos paretianos”, hasta lograr un óptimo de distribución. Se logra este óptimo, denominado “Óptimo de Pareto”, cuando precisamente se llega a un resultado en el que nadie puede conseguir un aumento en su utilidad, sin que ello implique una disminución en la utilidad de otro. Este concepto, de muy amplia aplicación y que constituye una de las bases que subyace a muchas instituciones económicas, fue ampliado por el criterio de compensación “Kaldor-Hicks”, que nos enseña que si una persona se afecta por el daño que provoca el aumento del bienestar experimentado por otra persona, la primera de éstas debe ser compensada (el desarrollo de la economía neoclásica experimental ha proveído una rica variedad de instrumentos econométricos para medir estas variedades). Ahora bien, como es lógico suponer, la búsqueda del óptimo señalado será mucho más compleja (pero también más llena de oportunidades) en un juego de Suma no Nula (que en uno de Suma Cero). Sin ir más lejos, piénsese en el Dilema del Prisionero, que ya hemos enunciado. Las partes -si se comunicanpodrían llegar a mejorar el resultado inicial, mediante un acuerdo que permita el óptimo (libertad para ambos).
64
Alejandro Canut de Bon L.
En todo caso lo importante para los fines de este texto es la comprensión gruesa del concepto que encierra el Óptimo de Pareto. Es fácil concluir que en una negociación compleja, constituida por múltiples factores y no sólo por la búsqueda de un acuerdo en el precio (imagínese un proyecto empresarial negociando con la comunidad en la que se desea ejecutar) las partes estarán siempre más abiertas a escuchar propuestas basadas en formulas de mejoramiento paretiano, que en formulas que impliquen un perjuicio en comparación a lo ya acordado. De ahí la importancia de procurar llevar la situación a un juego de Suma no Nula, en la medida que esto último sea posible. Por ello, en la relación empresa-medioambiente (naturaleza o comunidad), este concepto suele ser aplicado, en el sentido que las empresas buscan continuamente adoptar conductas que puedan significar lo que podríamos denominar un mejoramiento “ambiental” paretiano. Es decir, conductas que sin significar un costo para una de las partes, impliquen sí un resultado mejor para la otra, o para la sociedad o naturaleza y, por lo mismo, una mejor probabilidad de sustentabilidad. 18 El Equilibrio de Nash Como se señaló precedentemente, el Equilibrio de Nash es uno de los importantes aporte de la Teoría de los Juegos. Este aporte fue realizado por un norteamericano nacido en 1928, profesor de la Universidad de Princeton, de nombre John Forbes Nash, quien formuló esta revolucionaria idea en su libro Nótese que la búsqueda del mejoramiento paretiano puede darse aplicando similar filosofía a aquella que encierra el concepto Win-win . En efecto, este último concepto se da básicamente en la distinción entre el interés de la contraparte, por un lado, y lo directamente pedido por ella en la negociación, por otro lado. De esta forma, dentro de una negociación, la filosofía Win-win propone buscar la manera de evitar conceder terreno en los factores de suma cero (lo que significaría un perjuicio para el concedente), identificando y satisfaciendo a cambio el interés de la contraparte (que puede descansar en un factor de suma no nula). Como se apreciara, esto se relaciona indirectamente con los conceptos de Desarrollo Sustentable Débil/Fuerte. 18
65
Desarrollo Sustentable y temas afines
publicado en 1950, titulado “Juegos no Cooperativos”. Nash fue galardonado con el Premio Nobel en Economía en 1994, principalmente debido a su contribución a la Teoría de los Juegos y a la aplicación que en la práctica ésta ha tenido. Como también se indicó precedentemente, su vida inspiró la novela y película “Una Mente Brillante”. El Equilibrio de Nash se define como aquella situación en un Juego no Cooperativo, en la que ninguno de los jugadores puede aumentar (o asegurar) sus ganancias mediante un cambio unilateral de su estrategia. Nótese que se trata de Juegos no Cooperativos. Es decir, de aquellas situaciones en que no existe comunicación entre los participantes (jugadores). Destacamos también que el resultado a que conduce el Equilibrio de Nash podría ser mejorado si todos los jugadores cambiaran sus estrategias de manera concertada (es decir, si el juego fuera de transferencia de utilidades). Pero lo importante aquí es que de manera “unilateral” los jugadores no pueden con certeza producir para ellos un resultado mejor que aquel que se produce bajo el “equilibrio”. Según el comité del Premio Nobel, a John Nash se le otorgó dicho galardón “porque introdujo la distinción entre Juegos Cooperativos en los que pueden establecerse acuerdos obligatorios, y Juegos no Cooperativos dónde los acuerdos obligatorios no son factibles; desarrollando un concepto de equilibrio para Juegos no Cooperativos, que después llegó a ser conocido como el Equilibrio de Nash”. Se asume que el Equilibrio de Nash constituye de alguna manera la condición mínima de racionalidad individual. Es decir,
66
Alejandro Canut de Bon L.
se estima que en definitiva el equilibrio se impondrá en la medida que los jugadores actúen racionalmente. Esto puesto que si una situación determinada no está en Equilibrio de Nash, quiere decir que uno de los respectivos jugadores podrá unilateralmente aumentar o asegurar sus ganancias (y si lo puede hacer, probablemente lo hará), perjudicando de paso a los demás. Destacamos que el resultado a que arrastra el equilibrio es comúnmente un resultado subóptimo, desde la perspectiva de Pareto, como ya se comprobó al comentar el Dilema del Prisionero. Una estrategia colectiva producto del acuerdo entre los jugadores llevaría a un mejor resultado para todos o al menos para algunos. Piénsese en situaciones prácticas, por ejemplo en un grupo de empresario a los que -para evitar una sobrecontaminación- se les solicita una restricción que incide en la producción. El óptimo para cada uno será el no respeto de la cuota, a fin de producir más, beneficiándose por sobre el resto de los empresarios con el alto precio que producirá la existencia de las cuotas. Tener presente la conducta a la que racional y naturalmente tenderán los actores de una situación no cooperativa (cual es la búsqueda del equilibrio señalado), permite a los legisladores o a la autoridad administrativa adelantarse y establecer las normas o sanciones que puedan re-definir el equilibrio de la situación. Esto ha facilitado la introducción de variadas normas, en los más diversos campos, entre ellos el cuidado del medioambiente. Además ha reforzado la importancia del derecho en la búsqueda del óptimo social que naturalmente no se produce. De ello la importancia de conocer el Equilibrio de Nash en la materia que nos preocupa.19 El Equilibrio de Nash es ilustrado en la película “Una Mente Brillante” en aquella escena en que John Nash está, junto a algunos de sus compañeros estudiantes de postgrado, en un bar cercano a la Universidad de Priceton. A ese bar llega una impresionante mujer rubia, acompañada de otras compañeras estudiantes. Nash y todos sus amigos se proponen de inmediato conquistar a la impresionante rubia. En ese momento Nash advierte que si todos se dirigen a la rubia al mismo momento, el único resultado será que se estorbarán unos a otros y que ninguno logrará su meta. Es más, de paso las amigas de esta mujer se sentirán ofendidas, por lo que tampoco aceptarán ser “premio de consuelo” de ninguno de ellos. Propone por lo tanto Nash que la mejor estrategia 19
67
Desarrollo Sustentable y temas afines
El Teorema de Coase, las Externalidades y los Costos de Transacción Ronald H. Coase, profesor de la Escuela de Derecho de la Universidad de Chicago, publicó en el año 1960 un artículo titulado “El Problema del Costo Social” el que ha pasado a ser -según muchos autores- el artículo más leído y comentado de la ciencia económica en el mundo de la postguerra. 20 Dicho artículo constituye la piedra angular de lo que se ha dado en denominar el “Teorema de Coase”, he hizo que este abogado fuera galardonado con el premio Nobel de Economía en 1991. La idea básica de este Teorema ha resultado de gran importancia práctica al resolver temas ambientales y se considera el punto de partida en la historia moderna del análisis económico del derecho. Ahora bien, para comprender básicamente este teorema, debemos previamente explicar dos conceptos: Externalidades y Costos de Transacción. 1.- Externalidades: se entiende por externalidad todo beneficio o perjuicio que una transacción o actividad determinada impone a terceros ajenos a la misma. Las externalidades pueden ser positivas o negativas. Son positivas (denominadas también como “economías externas”) las que causan beneficios a terceros y, son negativas (“deseconomías externas”) las que causan perjuicios o costos a terceros. Así, por ejemplo, el ruido molesto que causa el funcionamiento de una fábrica, constituye una externalidad negativa que la empresa impone a los vecinos del área donde opera. es que todos se olviden (transitoriamente) de la rubia y que se pongan de acuerdo en la mujer que cada uno procurará conquistar (excluyendo a la rubia). En ese momento comprende Nash que ha dado con la esencia de uno de los equilibrios que está presente en los juegos y sale por lo mismo corriendo a escribir su tesis. 20 Publicado en “The Journal of Law and Economics”, 44 páginas, 1960.
68
Alejandro Canut de Bon L.
En otras palabras la molestia del ruido es un costo asumido por terceros que no obtienen rentabilidad alguna de dicha empresa. De igual forma, y repitiendo un ejemplo dado por el profesor Paul A. Samuelson (Nobel de Economía en 1970), cuando una persona mastica un trozo de cebolla en un estadio de football en un día con viento, se produce una pequeña externalidad (el beneficio que obtiene quien masca la cebolla, debe ser asumido como costo por sus vecinos). Un ejemplo más común y actual: fumar en presencia de no fumadores. 2.- Los Costos de Transacción: se entiende por costos de transacción aquellos en que se incurre necesariamente en orden de lograr un acuerdo (costos de abogados, estudios legales, notarios, tiempo de las partes, etc). Ahora bien, las externalidades son estudiadas dentro de la ciencia económica. El mérito de Coase consiste en que a partir del estudio de su famoso artículo se produjo un cambio importante en la forma en que los economistas, como así también los juristas, han concebido las instituciones legales y sociales que tienden a resolver los problemas que las externalidades representan (en especial las negativas). En efecto, históricamente, desde un punto de vista jurídico y económico, la solución correcta para el problema originado por las externaldiades (negativas), ha consistido, primero, en el laissez faire y, en segundo lugar (desde inicio del siglo XX),
69
Desarrollo Sustentable y temas afines
en la intervención estatal dirigida a corregir el perjuicio o costo que produce dicha externalidad. Arthur Pigou (1877-1959), argumentaba que las externalidades crean un costo social que debe ser objeto de un impuesto o una prohibición. Dicho impuesto o prohibición, como es lógico, debe recaer en el agente responsable de la externalidad. Así, si una fábrica produce contaminación acústica, ésta está obligada a disminuir a niveles aceptables el ruido que ocasiona. Si lo anterior no es posible, la fábrica debe necesariamente pagar un impuesto fijado para dicho efecto, o cerrar. Los libros se suelen referir a esta solución, como la solución “piguviana” (Véase “En búsqueda del equilibrio”). 21 Pues bien, la crítica que subyace en el Teorema de Coase, consiste en que la intervención estatal trae consigo otros costos, en ocasiones mayores al beneficio buscado. En efecto, al disminuir la actividad generadora de la externalidad (consecuencia del impuesto), o al prohibirse ésta, se estará ocasionando un perjuicio al productor de dicha externalidad, y -lo más importante- puede que este último perjuicio sea mayor que el que se procura evitar. 22 Partiendo de este razonamiento, Coase propone una solución simple, pero de grandes consecuencias: la posibilidad de dejar negociar a los actores en cuestión (es decir, al productor de la externalidad por un lado, y aquel que la externalidad perjudica por el otro). Afirma Coase que el resultado de esta negociación será generalmente más eficiente, para la sociedad, desde el punto de vista económico (más Arthur C. Pigou (1877-1959), economista inglés, profesor del King´s College de Cambridge, discípulo de Marshall y maestro de Keynes. Es uno de los fundadores (junto a Keynes) de la denominada Economía del Bienestar y, por lo mismo, gran promotor de la intervención del Estado en la economía. Desde Adam Smith en adelante, son varios los economistas que plantearon que las fallas al funcionamiento del mercado debían ser subsanadas como excepciones al laissez faire, pero Pigou fue el primero en transformar esas excepciones, hasta entonces tratadas aisladamente, en un todo sistemático e integrado (pero no por ello fuera del funcionamiento regular de una economía de mercado). 22 Nótese como tras este teorema descansa el principio costo-beneficio y también el Óptimo de Pareto, los, que subyacen a gran parte de la teoría económica. 21
70
Alejandro Canut de Bon L.
eficiente en comparación a la solución histórica pigouviana). En otras palabras, para Coase la intervención no es siempre necesaria y, es más, en ocasiones se debe permitir la externalidad, llegando al óptimo social mediante la negociación. Sólo tendrá sentido la intervención, en tanto el beneficio que se pudiera obtener eliminando la externalidad sea mayor que el daño que se produce al eliminar la actividad generadora de la misma externalidad. Para tener claridad de lo propuesto por Coase, es menester comprender las siguientes ideas básicas: a.- Esta teoría no implica la ausencia de una declaración jurídica de un responsable del perjuicio que ocasiona la externalidad. Es un hecho -al igual que en la solución jurídica histórica del problema- que toda externalidad debe ser declarada, en base a su magnitud, como legítima o ilegítima. La diferencia radica en que al declararse ilegitima una externalidad o, lo que es lo mismo, al declararse responsable de una externalidad al productor de ésta, de todas maneras se le permitirá negociar con el perjudicado por dicha externalidad. En otras palabras Coase propone que el ser responsable de una externalidad no debe necesariamente traer por consecuencia la prohibición de la actividad en cuestión. La posibilidad de negociar traerá consigo la posibilidad de una mayor eficiencia, es decir, de un mayor beneficio total. Un ejemplo extractado del clásico artículo de Coase es el siguiente: un médico opera una clínica cuya utilidad mensual es de 100 pesos; al costado de la clínica un confitero construye su fábrica de dulces que le reporta mensualmente 250. La fábrica produce un ruido (externalidad) de tal naturaleza, que el médico pierde la mitad de su clientela. La solución jurídica clásica del problema consistiría en declarar ilegítima la externalidad y obligarlo a producir sin el ruido en cuestión o, si esto no es posible, obligarlo a cerrar la fábrica de dulces. 71
Desarrollo Sustentable y temas afines
Coase propone que una vez declarado el responsable del ruido (el confitero en este caso) se le permita a éste la posibilidad de negociar con el médico. Seguramente, si no es posible evitar el ruido, el confitero estará dispuesto a pagar al médico, a modo de indemnización, a fin de seguir operando. Supongamos que paga 100. El médico ganará mensualmente 150 (50 por sus pacientes, y 100 por indemnización) y el confitero ganará 150 (los 250 originales, menos los 100 que debe pagar al médico). En total, la suma de las dos utilidades es de 300. De aplicarse la solución jurídica clásica, y de no ser posible evitar la contaminación acústica, la fábrica deberá cerrar, y la utilidad total será sólo 100 (el médico ganará 100 y la fabrica cero, pues deberá cerrar). Dado que es más eficiente para la sociedad una producción cuya utilidad total alcanza los 300, decimos que la solución que conlleva el Teorema de Coase procura un mayor beneficio social (mayor utilidad, mayores impuestos, más mano de obra contratada, más encadenamiento productivo, etc). b.- La eficiencia señalada puede darse sólo en la medida que concurran dos requisitos: que los costos de transacción no impidan una negociación satisfactoria para las partes y, que los derechos de propiedad de las distintas partes estén bien deslindados. En efecto, cuando las partes afectadas por las externalidades pueden negociar (para lo que requieren derechos bien deslindados) sin incurrir en costos de transacción que sean significativos, el resultado final será siempre más eficiente para todos (se acercará al óptimo). c.- El Teorema de Coase no implica una ausencia del Estado en la resolución de los problemas de las externalidades negativas. Podría pensarse que al dejar negociar a los particulares el Estado no estaría asumiendo su responsabilidad de resolver los problemas entre los agentes privados, ni de velar por el cumplimiento de las normas ambientales. Pero esto no es efectivo, porque la propuesta de 72
Alejandro Canut de Bon L.
Coase pasa necesariamente por la declaración de un responsable. La única diferencia es que determinado el responsable las partes podrán negociar. Si no hay acuerdo (si el médico no lo desea, aunque le resulte económicamente conveniente) la fabrica deberá de todas maneras cerrar. En segundo lugar, el Teorema de Coase sólo resulta aplicable en casos simples (generalmente bilaterales) y en donde los derechos afectados por las partes se encuentran claramente deslindados y, en tercer lugar, porque el Teorema no debe ser aplicado en casos que exista un bien superior protegido por la norma ambiental. En resumen, resulta importante destacar que para la búsqueda del tratamiento óptimo de las externalidades negativas, es necesario que: i.- La legislación no propenda necesariamente a la prohibición de toda externalidad (sólo aquellas que afectan bienes jurídicos superiores). En muchos casos resultará más eficiente para los involucrados y para la sociedad toda, un resultado negociado; ii.- Para que el resultado negociado sea posible se requiere no sólo que los derechos de dominio estén claramente identificados y deslindados, sino que los afectados sean también fácilmente identificables, y que los costos de transacción sean razonables; Este teorema y la receta que de él ha ido extrayendo la doctrina jurídica y económica, ha inspirado toda una variedad de cuestiones relativa al diseño de los derechos de propiedad y de las libertades y prohibiciones que regulan el actuar social. Ha ayudado a los legisladores a crear normas que permiten -en el tratamiento de las externalidades ambientales- acercarse al óptimo social (Pareto).
73
Desarrollo Sustentable y temas afines
Normas de emisión, normas de calidad y una solución de mercado Uno de los instrumentos más importantes con que cuenta el Estado para el control de la contaminación es el establecimiento de normas ambientales. Estas suelen clasificarse en dos grandes grupos, denominados generalmente “de emisión” y “de calidad”. Las normas de emisión establecen la cantidad máxima permitida para un contaminante, medida en el efluente de la fuente emisora. Por su parte, las normas de calidad establecen los valores máximos permitidos para un contaminante, medidos en el medio receptor. Así, el cumplimiento o incumplimiento de una norma de emisión se verifica, por ejemplo, a la salida de cada chimenea, mientras que el de la respectiva norma de calidad se medirá en el aire que se consume a kilómetros de distancia. Pongamos un ejemplo más concreto; en una ciudad, cada propietario de vehículo debe velar porque su automóvil cumpla con la norma de emisión de gases establecida. Esta norma se medirá caso a caso, automóvil a automóvil. Pero en la misma ciudad, la norma de calidad del aire será, para el mismo contaminante, sólo una, medida -por ejemplo- en una estación de monitoreo ubicada en un lugar que se estime con representatividad general. La lógica del sistema descansa en que el cumplimiento de las normas de emisión, por cada particular, signifique consecuentemente el cumplimiento de la norma de calidad 74
Alejandro Canut de Bon L.
general. Pero se comprenderá que este sistema puede llevarnos a la siguiente paradoja. Todos los particulares cumplen con la norma de emisión, y no obstante la norma de calidad se ve sobrepasada. Esto ocurrirá, entre otras posibles razones, por el sólo crecimiento de la población o del número de industrias o, en nuestro ejemplo, del parque automotriz. En efecto, una mayor cantidad de emisiones producirá -aunque todas las unidades cumplan con la norma máxima de emisión- una cantidad tal de contaminante, que no podrá ser absorbido o dispersado por la naturaleza, violentando así la norma de calidad respectiva. Las preguntas son obvias: ¿quién es el responsable asumiendo que todos cumplen con la norma de emisión- de que no se pueda cumplir la norma de calidad?, y ¿qué hacer en estos casos?... Respecto de la primera pregunta no existe una respuesta única. Se podría decir que todas las fuentes emisoras son igualmente responsables, como se podría también argumentar que tan sólo lo es la última fuente que entró a operar. Concentrémonos mejor en la segunda pregunta. ¿Qué se puede hacer?. Una alternativa de solución es ir restringiendo la norma de emisión, conforme crece el número de fuentes emisoras. Pero, por esta vía se puede llegar al absurdo de exigir una norma de emisión que sea técnica o económicamente imposible. Una segunda solución es prohibir la entrada de nuevas fuentes de emisión, pero esto congela el crecimiento económico y por ello esta vía no parece sustentable. La tercera alternativa de solución está dada por el mercado; solución ésta que a pesar de tener detractores ha logrado una buena cantidad de simpatizantes en el foro internacional: se trata de crear un mercado de emisiones transables. El mercado opera de la siguiente forma: el Estado debe asignar cupos de emisión (límites máximos de contaminación) para cada fuente existente en el presente. Así, y una vez que el sistema inicia su funcionamiento, si una de las industrias ya 75
Desarrollo Sustentable y temas afines
existentes invierte en tecnología más limpia, logrando emitir menos del límite que se le ha fijado, puede transformar dicha diferencia -de emisión contaminante- en un bono que puede ofertar en el mercado. Por otro lado, si una empresa contamina más del límite permitido, y no puede o le resulta económicamente imposible reducir su emisión, tendrá la alternativa de recurrir al mercado a comprar bonos para cubrir su exceso. El sistema de emisiones transables, como se le ha denominado, descansa en la idea de congelar el nivel de emisiones totales que existe en un instante, pero no por ello evitar la entrada en operación de nuevas fuentes emisoras. En efecto, si -por ejemplo- una nueva empresa desea instalarse en la ciudad, deberá adquirir un bono que le permita su entrada. Esto conlleva la idea de la eficiencia, pues se asume que quien más puede pagar por un bono, es precisamente la persona que resulta ser más eficiente en su proceso productivo. Esta solución de mercado genera una verdadera “Bolsa de bonos”, que puede llegar a ser muy dinámica. Puede crear las condiciones para que sea atractivo comprar automóviles viejos altamente contaminantes, a fin de sacarlos del parque automotriz, liberando un bono que puede permitir la entrada de varios automóviles nuevos de bajas emisiones; o puede incentivar la construcción de parques que reduzcan el levantamiento y suspensión de polvo (MP 10), generando bonos que permitan el funcionamiento de nuevas industrias, etc, etc. Todo esto, sin contar que esta vía incentiva la creación de tecnologías limpias. Este sistema opera desde 1993 en California, Estados Unidos. Ha resultado altamente exitoso, logrando por ejemplo reducir las emisiones de anhídrido sulfuroso en un 50%, y las de óxido de nitrógeno en un 46%. En resumen y en esencia, se trata de un sistema que busca incentivar un mercado mediante la creación de 76
Alejandro Canut de Bon L.
derechos de propiedad sobre las cuotas de contaminación.... o, utilizando el lenguaje ya señalado en este texto, se ha logrado utilizar uno de los elementos claves del Teorema de Coase (no prohibir, sino que dejar negociar a los particulares en el tratamiento de las externalidades), para evitar así futuras Tragedias de los Comunes. Contabilidad Verde Es sabido que la buena administración de una empresa, o de un país, requiere de una buena contabilidad. Ésta nos sirve para evaluar el rendimiento económico y para generar la información necesaria para tomar decisiones correctas. Ahora bien, para que la contabilidad cumpla su propósito, resulta necesario que ella registre todos los costos y/o beneficios que se obtienen en un ejercicio determinado. Si ello no ocurre, la información que deriva de la contabilidad será parcial o derechamente errada, e inducirá a tomar decisiones incorrectas. Por ello se ha argumentado que la contabilidad debe también considerar los aspectos ambientales. Esta nueva contabilidad, que registra costos y beneficios ambientales, se ha denominado “Contabilidad Verde” o “Contabilidad Ambiental”. En pocas palabras, la contabilidad ambiental propone identificar, en términos generales, los costos y beneficios ambientales internos y externos, y sumarlos a los demás costos y beneficios de producción, a fin de tener así el costo y utilidad total (Véase “Economía de Ciclo de Vida” y “Principio El que Contamina Paga”). Se procura evitar la tentación de ahorrar en el proceso productivo a costa del medioambiente. Las externalidades negativas son consideradas un costo más, como lo es el precio de
77
Desarrollo Sustentable y temas afines
los insumos o el gasto en recurso humano. Se asume y afirma que esto asegura una utilidad sostenible en el tiempo. Se argumenta que al no tener una contabilidad que considere los aspectos ambientales, las empresas se ven tentadas en el corto plazo a no destinar recursos al cuidado del medioambiente. En efecto, si por ejemplo- la abundancia de pastizales no es considerada un activo, la disminución de estos no será registrada contablemente como un costo. El resultado será un producto aparentemente más económico (puesto que no contabiliza en su precio la disminución del activo “pastizal”). El ahorro en estos aspectos mejorará la liquidez inmediata, pero -en el largo plazo- hipotecará la supervivencia o sustentabilidad de la empresa (piénsese, por ejemplo, en la Tragedia de los Comunes). Pero la intención no ha sido suficiente, pues por mucho acuerdo que exista en la necesidad de aplicar esta especial contabilidad, la realidad es que aún esto no ha sido posible. Es más, a nivel internacional, si bien a principios de la década de los ´80 el PNUMA (Programa de Naciones Unidas para el Medioambiente) consideró la necesidad de transformar el Sistema de Naciones Unidas de Cuentas Nacionales, para tener presentes los cambios medioambientales e incluir el valor económico completo de los recursos ambientales y la función que estos juegan en la actividad productiva, no hubo consenso en la forma de realizar esta transformación. 23 A inicios de los ´90, y en términos precisos en la Cumbre de la Tierra de Río de Janeiro, se volvió sobre la contabilidad ambiental como un medio necesario y prometedor para alcanzar la sustentabilidad. Pero a pesar de algunos avances registrados en la metodología que debe ser observada, el hecho es que no ha sido El Sistema de Cuentas Nacionales es el conjunto de cuentas que los países utilizan para registrar la actividad de sus economías. En este sistema, aplicado en formatos mundialmente estandarizados, se consideran los principales indicadores económicos, tales como el PIB (producto interno bruto), el PNB (producto nacional bruto), la Balanza Comercial, etc. Estos indicadores son utilizados para decisiones políticas y de administración, y para monitorear el funcionamiento económico del país. 23
78
Alejandro Canut de Bon L.
posible alcanzar un acuerdo en los detalles que deben informar esta especial contabilidad, y en particular en la forma en que se debe integrar la contabilidad económica, con la contabilidad ambiental. Los elementos contables que siguen faltando en las Cuentas Nacionales son, entre otros, los Gastos Ambientales, los Bienes y Servicios No Comercializados, y principalmente el Consumo de Capital Natural. Nótese la importancia práctica de este tema, tanto a nivel empresarial, como nacional. Piénsese, por ejemplo, en una empresa que arroja sus desechos a un lago. Para ella, la externalidad negativa en cuestión (contaminación del lago), no reflejada en sus cuentas, conlleva la imposibilidad contable de advertir un desastre que en un instante podría amenazar la sustentabildiad de la misma. Por otro lado, a nivel nacional, la tala de bosques podría traducirse en una mayor exportación, y por lo mismo en un mayor PIB, sin comprender que esto podría significar un consumo del capital ambiental del país. La contabilidad verde nos aconseja así considerar el agotamiento del capital natural, contabilizando éste en la misma forma que se hace con el consumo de otros insumos necesarios para el proceso productivo (esto, a su vez, permitiría un debido tratamiento en la compensación de capitales que exige la sustentabilidad débil). En resumen, la falta de una Contabilidad Verde nos lleva a no considerar el valor económico completo de los bienes que producimos (y, además, por esta vía nos impide una real compensación. Véase “Sustentabilidad Débil y Sustentabilidad Fuerte”). Ahora bien, podrá comprenderse que una de las complicaciones e impedimentos que se debe sortear para una mayor aplicación de la Contabilidad Ambiental (y una correcta compensación), es la valorización de los elementos del medioambiente. Esta sigue siendo subjetiva y difícil de realizar, como veremos en el próximo artículo.
79
Desarrollo Sustentable y temas afines
¿Cuánto vale el medioambiente? Generalmente los bienes tienen un precio asignado por el mercado mediante la ley de la oferta y la demanda. No obstante existen ciertas excepciones, como ocurre con los bienes que carecen -precisamente- de mercado y, por lo mismo, de precios. Este es el caso de muchos de los elementos del medioambiente, particularmente aquellos que son bienes públicos. En efecto, la biodiversidad, el aire limpio, el paisaje, etc, no se transan en mercados, lo que nos impide saber su verdadero valor económico (su precio). Lo anterior ha obligado a buscar medios alternativos al mercado que cumplan esta finalidad. Claro que cabe preguntarse por qué es esto necesario. ¿Por qué debemos asignar un precio a bienes que naturalmente no lo tienen?... Pues bien, la utilidad de asignarles un precio, en una determinada unidad común de valor (pesos, dólares), radica no sólo en la posibilidad de llevar una contabilidad verde (a la que ya nos hemos referido), sino y principalmente en que la valorización nos permite comparar el beneficio o los costos de potenciales proyectos. En efecto, sólo comparando podemos determinar, por ejemplo, si el beneficio ambiental de un proyecto es mayor o menor al de otro proyecto, o si el costo de una determinada externalidad es mayor o menor que el de otra externalidad. En términos más concretos, el poner precio a los bienes públicos nos puede ayudar a decidir si resulta más 80
Alejandro Canut de Bon L.
eficiente crear -por ejemplo- un parque nacional en el sur o uno en el norte, o invertir un millón de dólares en mejorar la calidad del aire en el centro del país versus descontaminar el agua de un río del sur (pero ello no es todo, sino que también permite otras utilidades, por ejemplo facilita a los tribunales imponer sanciones económicas a los causantes de un determinado daño ambiental, o determinar indemnizaciones si fuera del caso). Los métodos alternativos que se han ideado para lograr esta finalidad (poner precio a los bienes públicos), son diversos. Destacan básicamente los siguientes: a.- Creación de un mercado donde no lo hay. Esto se ha hecho constituyendo derechos de propiedad, y esperando que respecto de ellos opere el mercado. Se parte aquí de la base que la mejor manera de cuidar el medioambiente es utilizando los incentivos económicos. Es el caso, por ejemplo, de los permisos de emisión transable (Véase “Normas de emisión, normas de calidad y una solución de mercado”). Como se ha resumido, las empresas que deben emitir contaminantes al aire como parte de su proceso productivo, deben contar para ello con un permiso de la autoridad. Suponga usted que a las empresas (fuentes emisoras) ubicadas en un valle cualquiera se les otorga propiedad sobre los permisos que hoy tienen y que les autorizan respectivamente a emitir una cantidad o cuota determinada de contaminante. Así, si posteriormente una de esas empresas reduce la cantidad que emite de dicho contaminante, podrá vender o arrendar a otra empresa el excedente que no utiliza del permiso o cuota en cuestión. Se crea entonces un mercado de permisos que se pueden transar económicamente, mediante arrendamiento o compra y venta de los mismos. El precio promedio que se acuerde en esas transacciones reflejará el costo de reducir la contaminación de que se trate o, más precisamente, el precio que estamos dispuesto a pagar para evitar dicha contaminación (o, lo que es lo mismo, el precio que le asignamos al aire libre de tal o cual contaminante). Esto no sólo permite crear un mercado y asignar un precio al elemento del medioambiente de que se trate, cumpliendo así con las finalidades que hemos comentado al inicio de este artículo, 81
Desarrollo Sustentable y temas afines
sino que además tiene una multiplicidad de otras utilidades. Por ejemplo incentiva la descontaminación (al poder disponer del permiso, las empresas se esfuerzan en contaminar menos, a fin de poder vender el excedente de la cuota de contaminación de la que son propietarias); ayuda a la creación de tecnologías limpias (las empresas buscan tecnologías que les pueda permitir reducir la contaminación y están dispuestas a invertir en ellas); tiende a la supervivencia del más eficiente (llegará el momento en que la empresa menos eficiente le será más rentable vender su permiso, que seguir produciendo), y; facilita la creación de nuevas empresas sin por ello aumentar la cantidad de contaminante total emitido (las nuevas empresas sólo ingresarán al mercado comprando permisos ya existentes). Nótese como los permisos de emisión transables son un fuerte incentivo a la creación de tecnologías limpias. Por ejemplo, pregúntese qué incentivo tendría una empresa que se mantiene bajo la norma de emisión, para invertir en un nueva tecnología que le permite reducir aún más su contaminación, si es que no puede vender o arrendar la parte de su cuota o permiso que la nueva tecnología le producirá. b.- El modelo del Costo de Desplazamiento (travel cost system). Se suele decir que este modelo fue sugerido por vez primera por el profesor Harol Hotteling (el mismo de la Regla de Hotteling o Renta de Escasez, a la que nos referiremos al hablar del Royalty), en 1947, en relación a los parques nacionales de los Estados Unidos. Este modelo habría sido puesto en práctica 10 años más tarde para determinar el valor del uso recreativo de un río y, poco a poco, durante la segunda mitad del siglo XX, el sistema fue ampliamente aplicado, alcanzando un grado notable de sofisticación (este modelo también es conocido como el modelo Clawson-Knetsch debido a un trabajo realizado en 1966 por dos autores, en el que se aplicó la idea de Hotteling). La idea básica de este modelo consiste en considerar los costos de desplazamiento en que deben incurrir las personas que deseen visitar un lugar de recreación, y en base a ellos asignarles a estos últimos un 82
Alejandro Canut de Bon L.
determinado precio. Como es lógico, se asume que el beneficio que produce el lugar que se visita vale, a lo menos, el costo de desplazarse hacía él. Así, un lugar que se encuentre cercano a una ciudad recibirá un número considerable de visitantes, los que deberán incurrir en un costo de desplazamiento que será menor al costo en que deberán incurrir las personas que viven en una ciudad más alejada. Esto nos permite determinar la función de demanda entre el número de visitantes (cantidad) y el costo de desplazamiento (precio). Dado que el beneficio es el mismo para todos los visitantes, sin importar el costo de desplazamiento en que deben incurrir, se puede deducir entonces el “excedente del consumidor” asociado a la función. Esto servirá de base para valorar en total los beneficios que el lugar en cuestión produce para el público en general, lo que puede capitalizarse para determinar a su vez el valor económico del mismo lugar. c.- El modelo de los Precios Hedónicos. Se trata de un sistema popularizado por un profesor norteamericano de nombre Shewin Rosen, mediante un artículo publicado en 1974 en el “Journal of Politic Economy”. Procura este modelo desglosar el precio de un bien privado, que goza de mercado, en diversas características, la suma de las cuales constituye su precio total. Mediante procedimientos econométricos se estima el precio de cada característica, lo que nos permite por su parte valorar los elementos del medioambiente que inciden en ellas. Por ejemplo, dos casas de 200 metros cuadrados cada una, de similar construcción, pero ubicadas en diferentes lugares, en donde una goza de un lindo paisaje y la otra no, nos permite diferenciar el precio que se le asigna al paisaje (o mejor dicho, el precio que se está dispuesto a pagar por el beneficio de gozar de una agradable vista). Se trata en esencia de un sistema basado en el ejercicio del concepto “ceteris paribus”, es decir, en el análisis de un factor económico asumiendo que todo el resto de los factores económicos permanecen constante. Un ejemplo siempre citado de este modelo es el de la disminución que experimentan los precios de las viviendas ubicadas cerca de un nuevo aeropuerto. 83
Desarrollo Sustentable y temas afines
El costo de la contaminación acústica (o, mejor dicho el precio del beneficio de gozar de ausencia de contaminación acústica) puede ser medido en la diferencia de precios entre una casa ubicada cerca al aeropuerto y otra idéntica o muy similar, pero alejada del aeropuerto. Asumiendo que el único factor que cambia en la ecuación que determina el precio es su ubicación, se nos permite entonces determinar el precio de la contaminación que produce el aeropuerto. Este sistema, claro académicamente, no ha gozado de gran aplicación puesto que demanda muchas veces información detallada que no se tiene, y además considera sólo bienes públicos locales. d.- El método de la Valoración Contingente. Quizás el más utilizado de todos, consiste en simular un mercado mediante el sistema de encuestas. Se consulta directamente a una muestra de personas el monto que estarían dispuestos a pagar para gozar de tal o cual bien público. Este sistema fue propuesto en la década de 1950, pero tardó en ser aceptado. Se dice que esta resistencia a su uso se debe a un artículo del economista Paul Samuelson, publicado en 1954 en “The Review of Economics and Statistics”, en el que se sostenía que el valor de un bien público se vería distorsionado por un efecto similar al que en el presente se denomina “free rider”, es decir el hecho de que las personas entrevistadas manifestarían un precio menor al que realmente están dispuesta a pagar, puesto que saben que de todas maneras no se puede excluir a los que no pagan. En resumen, lo importante para los efectos de este libro es que pongamos atención en una herramienta que nos presenta la Economía Ambiental y que nos ayuda a determinar el precio de los bienes públicos. En efecto, como hemos señalado, muchos de los componentes del medioambiente, en especial aquellos que son bienes públicos, carecen de precio, lo que nos impide medir los beneficios o costos que un determinado proyecto pudiera producir en comparación a otro (y, además, entorpece una precisa compensación de capitales). Por frío y materialista que parezca, las herramientas vistas (los métodos reseñados) ponen 84
Alejandro Canut de Bon L.
en una misma unidad de valor los diferentes componentes del medioambiente, lo que ayuda a determinar la mejor relación de costo-beneficio entre diversos proyectos (y bienes y servicios. Véase “Economía de Ciclo de Vida”). Esto último, en concreto, facilita -por ejemplo y como hemos dicho- saber si con una misma cantidad de recursos resulta más conveniente salvar un determinado bosque del sur o cierto río del norte, o -en términos más simples- si un determinado bien es efectivamente más “económico” que otro. Royalty, Rentas Ricardianas y Regla de Hotteling. Cuanto más, cuanto menos. Sabido es que de sólo dos cosas el hombre jamás lograr escapar: de la muerte y de los impuestos. De la primera quizás no valga la pena preocuparse pues, como dice el famoso verso de Machado, “mientras somos, ella no es y, cuando ella es, nosotros ya no somos”. Pero de la segunda por cierto que no podemos dejar de preocuparnos (después de todo ella es, cuando nosotros somos). Es quizás por esto que una discusión constante en todas las sociedades modernas es el monto de los impuestos a pagar. Es decir, si estos son suficientemente altos o, por el contrario, sin son bajos. Se trata claramente de un tema de importancia para este texto y para el concepto que se tenga de Desarrollo Sustentable, pues la política impositiva que en definitiva se decida permitirá la mejor concreción de las políticas sociales, por un lado, y el ejercicio de las empresas, por otro.
85
Desarrollo Sustentable y temas afines
Ahora bien, se suele pensar de manera rápida -pero erradaque mayores tasas de impuestos permiten un mayor y mejor gasto social. Pero si el debate en cuestión se enfrenta de manera científica, es decir desde la perspectiva de la economía, la respuesta debiera ser la siguiente: los impuestos deben ubicarse en el punto en que se maximice el valor neto actual del flujo futuro de sus ingresos, no más arriba, no más abajo. En efecto, asumiendo que el objetivo de toda política impositiva es tender a maximizar los recursos recaudados, es obvio que debe considerar que una vez alcanzado un nivel óptimo por éstos, cualquier futuro aumento de los mismos conducirá a los contribuyentes a no seguir invirtiendo e incluso -si el alza hace poco rentable un negocio determinado ya existente- algunas empresas evaluarán la alternativa de cerrar. Con esto, el alza de impuesto llevará, en definitiva, a una menor recaudación, con lo que se pone en riesgo el cumplimiento del objetivo inicial de la política impositiva, cual es, como se ha explicado, maximizar el valor presente de los recursos recaudados. En resumen -pasado el nivel óptimo- cuanto más, cuanto menos. 24 Ahora bien, como consecuencia de lo señalado, lo importante en estos debates no es si otros países tienen más o menos impuestos, o si los planes sociales requieren de más o menos recursos, sino que lo verdaderamente significativo es determinar el nivel óptimo de los impuestos a pagar (y compararlo con el nivel de los impuestos que se pagan en el presente). Es decir, la relación entre la tasa impositiva actual y el valor neto presente de Desde una perspectiva más amplia, es quizás posible argumentar que el objetivo de la política impositiva de un Estado no debe ser ni siquiera el señalado, sino que debe ser lograr el mayor bienestar social posible, lo que no es lo mismo. En efecto, debido -por ejemplo- a que toda política social implica un costo de administración, puede resultar más atractivo para la sociedad toda que se incentiven, en ciertos casos, actividades exentas de pagar tributo en la medida que absorban mano de obra y que contribuyan por ésta vía al bien social. Esto, puesto que los impuestos recaudados, al reinvertirse en la sociedad, no igualarán -debido a su costo de administración- el bien que algunas actividades exentas producen directamente. 24
86
Alejandro Canut de Bon L.
los recursos que se puedan recaudar y enterar en arcas fiscales. Recién entonces podremos saber si los impuestos pueden ser subidos, o deben ser rebajados. Hasta aquí el argumento parece bastante claro, y por lo mismo tiende a producir un consenso. No obstante, este argumento se empaña y olvida por muchos al hablar de la carga impositiva que deben soportar las industrias que explotan los recursos naturales no renovables. En efecto, se suele argumentar que estas empresas deben ser objeto de un impuesto especial, denominado generalmente “Royalty”. Los que abogan por la existencia de este impuesto especial aplicable sólo a los recursos no renovables, dan comúnmente los dos siguientes argumentos: a.- Las Rentas Ricardianas (RR). En términos muy generales podemos señalar que se denominan “rentas” aquellas utilidades que se perciben por una empresa por sobre el nivel necesario para atraer a otras empresas a la industria o, por sobre el nivel necesario para evitar que se retiren en caso que se encuentren produciendo (que cierren). Deben su nombre (Ricardianas) al economista inglés David Ricardo (1772-1823), quien fue el primero en identificarlas (David Ricardo las enunció en relación a los terrenos agrícolas, pero con el tiempo su análisis se ha extendido a otras industrias y actividades). Se argumenta que las RR son una suerte de sobreutilidad, no esperada inicialmente, por lo que deben ser compartidas con el Estado, mediante la figura de los impuestos. Sé dice, por ejemplo, que en los países ricos en minerales la explotación de los yacimientos produce una sobrerenta (RR), debido a una serie de factores que son, en su mayor parte, una
87
Desarrollo Sustentable y temas afines
suerte de herencia geológica del país entero, y que por ello las ganancias de esta sobrerenta deben ser compartidas con todos los habitantes del lugar que corresponda. b.- La naturaleza no renovable de los recursos mineros. Estos recursos, a diferencia de los renovables, tienen -para muchos- un valor adicional que justifica una compensación o pago, también adicional, al Estado. Dicho valor adicional se mide por su “costo de uso” o también denominado “costo de oportunidad” o “renta de escasez”. Este costo se produce debido a que la unidad de mineral que se explota en el presente no estará disponible en el futuro, y equivale por lo mismo al valor actual de los beneficios que no se obtendrán en el futuro por haberse explotado en el presente. Esto se suele ilustrar con la Regla de Hotteling, que data de 1931 y que procura enseñar los niveles óptimos de extracción que un yacimiento minero debe experimentar para maximizar su beneficio (su nombre se debe a Harold Hotteling, norteamericano, profesor de economía de la Universidad de Columbia, nacido en 1895 y fallecido en 1973). Esta regla, creada para el mundo minero (parte de la disciplina denominada Economía de Minerales), se ha transformado en un principio -muy discutible, por cierto- aplicable a las explotaciones económicas de los recursos naturales no renovables en general. Básicamente propone considerando el costo de oportunidad- un criterio teórico para determinar el nivel óptimo de extracción del mineral en un instante dado. Para esta Regla, la tasa de explotación del yacimiento (con un stock finito de mineral) se relaciona con la tasa de aumento de precios del mineral y con la tasa de interés. Es decir, afirma Hotteling, que una empresa debe comparar la alternativa de explotación presente con la alternativa de explotación futura (equivalente, esta última, a obtener una ganancia de capital al guardar el recurso, debido al aumento de precios producto de la progresiva escasez del mismo recurso). Así, y en definitiva, cuando 88
Alejandro Canut de Bon L.
el ingreso anual generado por la extracción del recurso produce ingresos que permiten intereses mayores que la ganancia de capital señalada (por guardar el mineral), entonces será conveniente explotar el yacimiento. Y viceversa. En otras palabras, se propone por esta regla que, la empresa encargada de un yacimiento minero (léase “recurso natural no renovable”) debe tener una conducta diversa a la de otra empresa, productora de un bien cualquiera, al momento de decidir hasta que punto debe producir.25 Esta Regla descansa en el supuesto de que todo precio futuro (de los recursos naturales no renovables) será mayor, consecuencia de la escasez. Este supuesto, como se explicó, hace deducir a algunos que el Estado debe participar de la utilidad presente. Debido a estos dos argumentos -Rentas Ricardianas y naturaleza no renovable- se ha abogado históricamente en favor de impuestos especiales que gravan la industria de la explotación de los recursos no renovables. No obstante, son muchos también los contra-argumentos que se enfrentan. Se ha cuestionado, por ejemplo, el concepto mismo de “Rentas Ricardianas” o el de “recursos no renovables” o, de manera más particular, la validez de la Regla de Hotteling. Se ha dicho en este sentido, y con mucha razón, que el precio no es necesariamente mayor con el tiempo, debido -entre otras causas- al descubrimiento de nuevos yacimientos que atentan contra la idea de que el recurso será siempre más escaso en el futuro; o por la posible aparición de sustitutos que pueden derrumbar el precio de un recurso a pesar de su mayor escasez futura; o por la aparición de nuevas tecnologías que hagan disminuir el costo de extracción permitiendo la explotación de minerales de menores leyes y ampliando por esa vía las reservas futuras en relación a las presentes. Es más, se ha La respuesta clásica que en economía se enseña respecto a esta pregunta es la siguiente: se debe producir hasta que el costo de la última unidad iguale el precio que el mercado pagará por ella. Esa tradicional respuesta no sería -según Hottelling- valida en la minería, pues ésta deberá considerar no sólo el costo de producción, sino además un costo de oportunidad consecuencia del hecho que las reservas que se están explotando se agotarán en un momento futuro. 25
89
Desarrollo Sustentable y temas afines
comprobado empíricamente que en general las reservas de los recursos naturales no renovables han aumentado, y que su precio -en términos reales- ha disminuido, con el tiempo. Por otro lado, en relación a las Rentas Ricardianas, se ha contra-argumentado que la exploración minera se mueve, precisamente, gracias a la posibilidad de sobre rentas, las que además incentivan la inversión en tecnologías que permiten procesar minerales de menor ley a más bajo costo. Es precisamente esa ganancia por sobre la utilidad corriente, la que nos da la tecnología y el descubrimiento de los nuevos yacimientos. Pensar de otra forma implica no conocer la esencia de la minería o, lo que es lo mismo, el espíritu del minero, consistente en asumir un riesgo (económico) esperando la renta por sobre la utilidad del negocio corriente. Asumir que el Estado puede apropiarse de la sobre renta es pensar sólo en la empresa ya existente, y no en el albur propio de la exploración minera, parte esencial de la industria. Otro contra-argumento está dado por la experiencia. Por ejemplo el alto precio que alcanzó el salitre natural a fines del siglo XIX e inicios del XX, motivado por los impuestos decretados por el Estado de Chile, llevó a la sustitución del salitre natural por el sintético, con consecuencias económicas catastróficas para la industria salitrera de este país. Algo similar ocurrió con el estaño. Debido al altísimo precio inducido por los países productores, en 1985 la Bolsa de Metales de Londres suspendió las transacciones de estaño, dejando en la ruina al Estado boliviano, su principal productor. En otras palabras, se comprobó que el deseo desmedido de una alta recaudación en el presente puede destruir los flujos futuros provenientes de la misma industria en el corto plazo. En resumen, lo importante es que después de tantos argumentos y contra-argumentos, pareciera que lo único objetivo, y científicamente correcto (para la economía) sigue siendo la regla señalada al inicio de este articulo: el objeto de la política impositiva es tender a maximizar el valor neto actual del flujo
90
Alejandro Canut de Bon L.
futuro de los ingresos que entran a las arcas fiscales. Discutir la conveniencia o inconveniencia de un mayor o nuevo impuesto, requiere determinar primero el nivel óptimo de los actuales tributos. El objetivo de la política impositiva es el mismo se trate o no de industrias que trabajan con recursos naturales y, es más, sean estos últimos renovables o no renovables, si es que se puede hacer esa diferencia (Véase en próximo capítulo “¿Recursos naturales no renovables?”). Por todo lo indicado, afirmar que la minería -o cualquier actividad explotadora de recursos naturales no renovablesdebe ser objeto de un impuesto especial, como una manera de compensar su futura escasez y de hacer participar al Estado de la sobre renta a que daría lugar, carece de sentido. La determinación de la carga tributaria en estas actividades, como en cualquiera otra, obedece al mismo principio ya señalado, y no a reglas especiales: los impuestos deben ubicarse en el punto en que se maximice el valor neto actual del flujo futuro de sus ingresos.
Los commodities y la importancia de los costos de producción El mercado de los recursos naturales suele presentar ciclos de precios altos, seguidos de ciclos de precios bajos. Es el caso, por ejemplo, de muchos de los minerales, en los que rara vez el precio encuentra un punto de equilibrio prolongado en un rango intermedio. Esto significa un desafío de consideración que
91
Desarrollo Sustentable y temas afines
se impone a las industrias explotadoras de estos recursos, cual es el de saber adaptarse y sobrevivir a estos ciclos y, en especial, a los periodos de precios bajos. En las próximas líneas dedicaremos cierta atención a este tema, puesto que nos parece de la mayor importancia al tratar la sustentabilidad, dado que la imposibilidad de adaptarse conlleva el término y cierre de muchas empresas (es decir, su no sustentabilidad en el tiempo), con las consecuencias sociales que ello implica. Pero, vamos por parte, analicemos primero la razón de esto ciclos de precios, para estudiar después que deben hacer las empresas y el Estado frente a ellos. Para entender lo que sucede con el precio internacional de los commodities26 en general, se requiere tener una comprensión de lo que sucede con la demanda y con la oferta de estos bienes. Tomemos el caso del cobre. Considerando los últimos 50 años (1950-2000), aparecen claramente quinquenios de precios altos, seguidos de quinquenios de precios bajos. Esto se debe, se estima, a los desfases existentes entre los ciclos de crecimiento en el consumo de cobre, por un lado, y los ciclos de crecimiento en la producción de cobre, por otro lado (o viceversa). Es decir, por ejemplo, cuando la demanda de cobre sube (impulsada por un ciclo positivo general de la economía), la oferta de cobre no es capaz de reaccionar rápidamente satisfaciendo dicha demanda, debido esto al largo tiempo que requiere la maduración de un proyecto minero (al menos 5 años).27 Cuando logra reaccionar la oferta, el precio se vuelve a estabilizar, hasta la llegada de un nuevo periodo de demanda inesperada, lo que nuevamente hace subir el precio, él que se mantendrá alto hasta que la oferta logre Concepto que significa bienes de consumo de escasa diferenciación. Observando el periodo 1960-2001, resulta claro que cada vez que el cobre alcanza un precio peak, no tarda más de 5 años en registrar una importante caída, en ocasiones de más de un 50%. 26 27
92
Alejandro Canut de Bon L.
nuevamente reaccionar, abriendo proyectos mineros (nuevos o viejos) o ampliando la capacidad de los existentes, lo que no ocurrirá sino en un plazo de aproximadamente 5 años.28 Similar historia se repite si se estudia la evolución de los precios de cualquiera de los metales relevantes para la economía mundial, en cuanto a su uso como insumo básico en distintos procesos productivos (aluminio, níquel, plomo, estaño y zinc). Así las cosas, y como se ha dicho, la causante de los precios altos en estos metales es la inesperada demanda, y no la conocida oferta. Pero, ¿qué se puede hacer frente a estos ciclos y, más precisamente, ante los periodos de precios bajos?... Para responder a este pregunta, se debe primero comprender que estamos hablando de bienes “commodities”, los que por su naturaleza no son capaces de diferenciarse en el mercado. Esto produce una importante consecuencia, consistente en que estos bienes son tomadores de un mismo precio (la libra de cobre producida en Estados Unidos tiene el mismo precio que la libra de cobre producida en Chile, dado que no es posible diferenciar entre una y otra). Por esto, la única forma de lograr utilidades en la producción de estos bienes es controlando los costos y logrando una diferencia entre éstos y el precio único fijado en el mercado. Nótese como dista esto de lo que ocurre con otros productos -los que no son commodities- que al poder diferenciarse entre ellos (no es lo mismo un auto alemán que un auto ruso) logran la preferencia de una parte del público, ganando la posibilidad de un mayor precio. ¿Cuál es la conclusión de esto?... Por simple que parezca, la mejor manera de asegurar la supervivencia de una empresa que produce bienes commodities, es recordando en todo momento, incluso durante el periodo de los ciclos de precios Y si esto no ocurre, los altos precios podrían llevar a los consumidores finales a buscar bienes sustitutos, produciendo por esta vía la baja del precio. 28
93
Alejandro Canut de Bon L.
altos, que sus posibilidades de supervivencia están dadas por la capacidad de controlar sus costos. No se debe olvidar durante los ciclos de los precios altos -por la propia empresa, ni por sus trabajadores, ni por el Estado- que tarde o temprano habrá un ciclo de precios bajos, y que se debe estar preparado para él, mediante la posibilidad de disminuir los costos. Olvidar esto, es hacer de la empresa un negocio no sustentable en el tiempo. En otras palabras, imponer cargas que afecten de manera permanente la estructura de costos, significa hacer menos competitiva a la minería nacional y por esa via poner su subsistencia (sustentabilidad) en riesgo durante el próximo periodo de precios bajos.
95
Desarrollo Sustentable y temas afines
Pesimistas y Optimistas
En este capítulo se plantean cuatro artículos que comparten un común denominador, cual es el enfrentarse a preguntas como las siguientes; ¿se nos agotarán los recursos no renovables?...; ¿cómo puede haber sustentabilidad en la industria que explota recursos no renovables, por ejemplo en la industria minera?... Se apreciará en la lectura que existen dos visiones claramente opuestas, una pesimista y una optimista, una que desconoce el rol de la tecnología en el aumento de las reservas explotables y otra que no sólo lo reconoce, sino que confía en él.
¿Los Límites del Crecimiento?... Un tema que está siempre presente en la relación entre economía, recursos naturales y Desarrollo Sustentable -y que por lo mismo no podemos obviar en este texto- es el debate que se da entre dos fuertes posiciones que argumentan sobre la existencia o inexistencia de un límite al crecimiento económico. Dicho 96
Alejandro Canut de Bon L.
supuesto límite está causado por el hecho de que los recursos naturales no renovables son finitos y que su agotamiento pondrá en algún momento en jaque el desarrollo y el crecimiento de la economía nacional o mundial. Se trata de un tema que ha pasado a ser el centro alrededor del cual se han construido y discutido teorías, y a las que en general se estila hacer referencia con las palabras “crecimiento cero”. En efecto, son muchos los estudios que en la historia de la economía moderna han centrado el debate en el carácter finito de los recursos naturales y en la limitante que ello podría significar para el desarrollo económico. Esto fue planteado por vez primera en la historia de la economía por el inglés Thomas Robert Malthus (1766-1834), en el año 1798, en su famoso libro titulado “Ensayo Sobre el Principio de la Población”. Su trabajo se centró en la relación población-alimentos, señalando que la población crece con mayor rapidez que la oferta de alimentos disponibles para satisfacerla, lo que conducirá a la escasez y a la tragedia consecuente. Si bien Malthus centró su análisis fundamentalmente en el recurso tierra y en su carácter finito, es importante destacar que dicha característica tiende a ser extendida posteriormente por otros autores a una diversidad de recursos, repitiendo el mismo razonamiento y dando el mismo pronóstico, frente a una población siempre creciente y a una demanda siempre insatisfecha. Así, esta idea también estuvo presente en la obra del economista inglés David Ricardo (1772-1823) que en su texto titulado “Principios de Economía Política e Impuestos” planteó
97
Desarrollo Sustentable y temas afines
diferentes tesis, entre las cuales se encuentra aquella de que el desarrollo económico se frenará tarde o temprano, aunque exista libertad, debido al creciente costo de cultivar alimentos (consecuencia que las tierras productivas son un factor limitado y de rendimiento decreciente, mientras que el crecimiento demográfico no está limitado). En este sentido cabe destacar que Ricardo no sólo comparte la preocupación planteada por Malthus, sino que también extiende el análisis a otros recursos más allá de la tierra, y -ademásmodifica la esencia del carácter finito de los recursos al poner atención en el hecho que los recursos naturales varían en calidad y ubicación, y que dicha variación se traduce en una explotación que entrega rendimientos económicos decrecientes. Es decir, Ricardo destaca que la explotación de los recursos naturales no renovables va incorporando reservas cada vez más costosas de aprovechar, y precisa que en ello consiste su escasez (nótese que esto se diferencia de la perspectiva maltusiana, que estima que la escasez ocurre en términos absolutos, producto del agotamiento de recursos naturales que se presentan de manera homogénea y en cantidades finitas). Posteriormente, el inglés John Stuart Mill (1806-1873) trabajó con los postulados de Malthus y de Ricardo, sintetizando este tema al definir el “efecto de escasez” -siguiendo a Ricardocomo un incremento en el costo de capital y trabajo por cada unidad producida, consecuencia de la incorporación al proceso productivo de recursos naturales de calidad progresivamente inferior, o ubicados cada vez más desfavorablemente. Pero Mill no se limita a hacer una síntesis, sino que incorpora un nuevo factor en la ecuación, cual es el progreso de la civilización (lo que de alguna forma hoy denominamos “tasa de cambio tecnológico”, o simplemente “desarrollo tecnológico”). Es decir, Mill es el primero en considerar un elemento que, desde entonces, será parte constante del debate sobre el “crecimiento cero” y que consiste 98
Alejandro Canut de Bon L.
en el desarrollo tecnológico como un factor que tiende a evitar la escasez. De hecho será precisamente dicho factor (revolución industrial) el que explicará el fracaso de la predicción hecha por Malthus en la relación población-alimentos. Durante la segunda mitad del siglo XX este tema de la escasez de los recursos naturales y la limitante que ello puede significar en el crecimiento económico, volvió a ser el centro de interés de muchos estudios. Este nuevo interés estuvo fuertemente impulsado por el libro “Los Límites del Crecimiento” publicado en 1972 por el denominado “Club de Roma”, en el que se ensaya la idea consistente en que el agotamiento de los recursos minerales podría producir -a mediados del siglo XXI- un golpe fuerte al estilo y calidad de vida de los países desarrollados. 29 “Los Límites del Crecimiento” consiste en un serie de trabajos realizados en el M.I.T. (Massachustts Institute of Technology) bajo la dirección del académico Dennis L. Meadows. Es el primer trabajo confiado por el Club de Roma a expertos internacionales. Se basó en un modelo capaz de ser operado computacionalmente (denominado World II) y cuyo objeto consistió en definir y proyectar la realidad mundial en base a ecuaciones que consideraban seis factores fundamentales: población, inversión de capital, espacio geográfico, recursos naturales, contaminación y producción de alimentos. Posteriormente se realizó el World III (modelo que consideraría mayor número de ecuaciones, y menor número de factores), mediante el cual se proyectó un colapso en muchos aspectos del desarrollo de la humanidad, lo que debería ocurrir antes de mediados del siglo XXI, provocado principalmente por el agotamiento de los recursos naturales no renovables. A fin de En 1968, en Roma, 35 personalidades de 30 países, entre los que se cuentan académicos, científicos, investigadores y políticos, se reunieron para compartir la preocupación por las modificaciones del entorno ambiental que está afectando a la sociedad. Ellos dan los primeros pasos en lo que posteriormente sería conocido como el Club de Roma, el que se formalizó dos años mas tarde como asociación bajo la legislación de Suiza. 29
99
Desarrollo Sustentable y temas afines
evitar tan desastroso futuro, se propuso por el Club de Roma una serie de medidas correctoras que debían implementarse a partir de 1975, las que tendían a la reducción de la producción mundial, el control de la población, el fomento de actividades recicladoras de residuos, etc. Estas medidas nunca llegaron a ser aplicadas del todo. El primer informe del Club de Roma provocó numerosas críticas, que discutieron la validez del modelo World II y World III, atribuyendo de paso intencionalidad política a las declaraciones científicas. A pesar de las indudables deficiencias de los informes del Club de Roma, no cabe duda que ellos aportaron nuevos datos y generaron una rica discusión sobre el futuro de la humanidad, la cual sigue hasta el presente y a la que en términos muy simples podemos clasificar en dos extremos, uno pesimista y otro optimista (Véase “El Ecologista Escéptico”). En el marco de esta discusión, Occidente experimentó las denominadas crisis del petróleo del ´73 y del ´78, lo que por cierto contribuyó a alimentar el debate y a darle un carácter de interés general. Las corrientes pesimistas encontraron en estas crisis un apoyo empírico momentáneo, lo que les granjeó cierto respeto y popularidad (se les calificó en general como corrientes “neomalthusinas”). Entre las conclusiones neomalthusianas estaba, por ejemplo, la de que el desarrollo tecnológico no sería capaz de evitar la escasez de los recursos mineros. Ahora bien, cabe señalar que el distinguir entre recursos naturales renovables y no renovables ha demostrado -a pesar de las muchas predicciones- carecer de importancia significativa
100
Alejandro Canut de Bon L.
para los efectos de determinar el crecimiento económico. En el próximo artículo volvemos sobre este tema. Pero desde ya destacamos algo que llama profundamente la atención y que de alguna forma cuestiona la validez de las predicciones neomalthusianas, y es que mientras que en la década de los ´60 y en la de los ´70 la preocupación se centró en el posible agotamiento de los recursos no renovables, durante las décadas de los ´80 y los ´90 ésta se trasladó al tema del cuidado ambiental (olvidando la predicción). En este sentido, la Conferencia de las Naciones Unidas Sobre el Medioambiente y Desarrollo, efectuada en 1992 en Río de Janeiro (conocida como “Cumbre de la Tierra”), tuvo como temas centrales -en relación a los recursos no renovables- la perdida de la biodiversidad biológica, la desaparición de los bosques, el agotamiento de los recursos del mar, la degradación de tierras cultivables y la contaminación del agua. El agotamiento de los recursos no renovables no estaba en el centro del debate. Al parecer la realidad ha demostrado -hasta el presenteno coincidir con las proyecciones neomalthusianas, lo que nos lleva al cuestionamiento que sirve de título al próximo artículo... ¿existen en términos prácticos recursos efectivamente “no renovables”?....
101
Desarrollo Sustentable y temas afines
¿Recurso naturales no renovables? Aquella clasificación que distingue entre recursos naturales renovables y recursos naturales no renovales es, por su lógica y simplicidad, de genérica aceptación. Quizás por ello, se utiliza comúnmente sin mayor cuestionamiento como base argumental de apocalípticas proyecciones de agotamiento del segundo grupo de los recursos (los no renovables). 30 Pero si se estudia con detención, resulta evidente que esta clasificación no es del todo correcta o -al menos- en algunos casos invita a error. Esto último ocurre en general cuando se predice -utilizando la misma simpleza- el agotamiento de los recursos por el sólo hecho de ser “no renovables”. En efecto, comúnmente se asume que como consecuencia de las actuales tasas de explotación, muchos recursos no renovables se agotarán en algún momento futuro (y generalmente con un tono de tragedia se asume que dicho momento será más temprano que tarde). Pero lo que no se dice con la misma frecuencia es que dicho razonamiento significa optar, previamente, entre dos modelos diferentes que buscan entender la disponibilidad de los recursos naturales en general: me refiero a lo que se ha denominado, por un lado, “modelo del paradigma de la reserva fija” y, por otro lado, “modelo del paradigma del costo de oportunidad”. En esta opción puede No queremos con esto decir que los recursos naturales “renovables” no puedan ser objeto de agotamiento. Por cierto que lo pueden ser, en la medida que se exploten más allá de su tasa de renovación. Pero lo que nos interesa acá es centrar el debate en el argumento que se presenta, de manera simple pero -a nuestro juicio- errada, que señala que los recursos “no renovables”, como los minerales, cualquiera sea su tasa de explotación, se deberán necesariamente agotar en algún momento futuro, por el sólo hecho de ser no renovables. 30
102
Alejandro Canut de Bon L.
estar el error al que nos referimos. El primero de estos dos paradigmas es el que subyace a las predicciones de agotamiento. Asume que la Tierra y por consecuencia sus recursos son finitos, no sólo en términos teóricos, sino en términos prácticos. De ello se deduce que es sólo cosa de tiempo para que la demanda por los recursos agote la reserva de éstos. Este paradigma es, por ejemplo, el que se encuentra tras el texto “Los Límites del Crecimiento”, editado por el Club de Roma y comentado en el artículo anterior. Como se ha dicho por alguno autores, la idea que encierra este modelo se puede asemejar a la fábula de dos ratoncitos comiendo un gran pedazo de queso, día tras día, hasta el momento en que estarán gordos y felices, para descubrir al amanecer siguiente que ya no queda queso por comer. Para este paradigma el consumo de los recursos naturales es una suerte de conteo regresivo y, peor aún, asume también que la inconciencia colectiva no nos permitirá percatarnos de la tragedia.... sorpresiva y súbitamente nos despertaremos del sueño en que hemos vivido al creer en un desarrollo económico sin fin basado en la continua explotación de recursos no renovables (o, incluso, percatándonos no podremos evitar la tragedia, como ocurre con el uso de los bienes comunes. Véase “La Tragedia de los Comunes”). En este mismo sentido, se ha dicho que se puede asemejar la Tierra a una gran nave espacial, en la que existe un número limitado de recursos, que por ello deben ser utilizados y consumidos de modo racional y moderado, a fin de asegurar la superviviencia de los pasajeros, de la humanidad (este argumento pertenece a
103
Desarrollo Sustentable y temas afines
uno de los fundadores y promotores de la economía ecológica; K.E. Boulding, autor del ensayo “The Economics of the Coming Spaceship Earth”, publicado en 1966, en donde se presenta la Tierra como una nave espacial que realiza un largo viaje. Procura así argumentar a favor de la imposibilidad de un crecimiento ilimitado en un planeta con recursos finitos y no renovables). Pero un análisis cuidadoso de este paradigma da lugar a fundadas críticas, que se basan principalmente en los siguientes contra argumentos: a).- Muchos de los recursos naturales -como ocurre con los metales en general- se explotan y utilizan, pero no se consumen. No desaparecen de la naturaleza. El reciclaje y re-uso será pues -en muchos casos- una alternativa; b).- En segundo lugar, la reserva de muchos recursos, como ocurre con muchos minerales, es de tal magnitud que cubre la demanda (a las tasas actuales) de miles, millones o billones de años, y; c).- Por último, el resultado será la sustitución y no la tragedia. Conforme la escasez de un producto se incremente, con ello se incrementará también su precio, haciendo más atractivo alguno de los recursos alternativos. Por ejemplo, los recursos energéticos (carbón, gas natural y petróleo) pueden ser sustituidos en mucho de sus usos por el viento, la energía solar, la energía nuclear, el poder hidráulico y la energía eléctrica (en donde esta última es un producto a su vez). No estamos así en presencia de un agotamiento total que da paso a una tragedia, como se ha querido muchas veces plantear, sino en presencia de un problema económico. Es precisamente por estas razones (en especial la última) que el segundo paradigma, el de costo de oportunidad, pareciera a juicio de muchos autores más próximo a la realidad. Este paradigma relaciona la cantidad que queda para ser aprovechada de un recurso determinado con el costo que tiene explotar una unidad más de dicho recurso. La idea que sostiene este modelo es la siguiente: el precio del recurso nos dará cuenta de su escasez, e incentivará paulatina y oportunamente su sustitución.
104
Alejandro Canut de Bon L.
Ahora bien, un punto importante que dice relación con este segundo paradigma, y que no se debe olvidar, es el hecho que los recursos que se estiman como reserva al presente son sólo aquellos que son económicamente explotables de acuerdo a la tecnología también del presente. No obstante es evidente que el desarrollo de la tecnología ha permitido en el pasado, y se estima seguirá permitiendo en el futuro, que recursos que hoy no son atractivos de ser explotados desde una perspectiva económica, lo sean en algún momento posterior. De hecho el desarrollo de la tecnología (la tasa de cambio tecnológico), junto a la existencia de energía más económica, ha permitido que yacimientos de leyes menores resulten cada vez económicamente más atractivos. Además, en la medida que las leyes de los yacimientos explotables disminuyen, las reservas mundiales aumentan con progresión exponencial. Es decir, a menores leyes de corte, mayor cantidad de reservas.31 Es del caso señalar que se estima en general que las reservas de muchos minerales son mayores hoy que hace 100 años atrás. Para ellos el paradigma de la reserva fija es en la mayoría de los casos errado. El desarrollo de la tecnología ha permitido acceder a nuevos yacimientos, menos atractivos (ya sea por ubicación, ya sea por calidad), pero a menor costo. Es más, en términos reales la mayoría de los minerales son hoy más barato que en el pasado (y más abundantes, es decir con mayor cantidad de reservas). Por lo mismo en estos casos no se puede hablar de un costo de oportunidad que este reflejando un problema de Existe un diferencia entre el concepto de “recursos” y el de “reservas” que resulta necesario aclarar. Los “recursos” son la cantidad de mineral que se encuentran en la corteza terrestre, se puedan o no aprovechar económicamente. Se clasifican en “inferidos”, “indicados” o “medidos” (dependiendo la certeza de su existencia de acuerdo a investigación geológica). Las “reservas”, por su parte, son la proporción de los recursos que si pueden ser aprovechados económicamente (lo que se determina en base a condiciones geográficas, ambientales, políticas, legales, financieras, etc). Se suelen clasificar en “probables y probadas” Los recursos y las reservas son constantemente revisadas a la luz de nuevos conocimientos geológicos, avances tecnológicos, cambios de condiciones económicas, legales y políticas. 31
105
Desarrollo Sustentable y temas afines
escasez generalizado. Es más, las veces que se ha entrado en un proceso de sustitución, ha sido por razones económicas o políticas ajenas a la escasez (ejemplo: salitre natural; el alto impuesto del que fue objeto coadyuvó a la consecuente entrada al mercado del salitre sintético). Aún más, proyectar el agotamiento de recursos partiendo de las reservas hoy conocidas, carece de sentido. Esto por varías razones, entre las que cabe señalar: las empresas no siempre hacen publicas todas sus reservas; como ya se explicó, las reservas se calculan de acuerdo al precio y nivel tecnológico presente; carece de sentido económico invertir en buscar yacimientos que aumenten reservas más allá de 25 a 30 años, puesto que ello no se refleja en un aumento del valor presente de la empresa, y; siempre existe la posibilidad de nuevos descubrimientos. Tratándose de otros recursos, quizás, será el costo de oportunidad el que deberá facilitar más rápidamente el uso de otras fuentes alternativas. Para algunos autores esto está ocurriendo en cierta forma con los combustibles fósiles. En éstos la escasez es uno de los factores que presiona a un mayor precio, el que deberá -en todo caso- en algún momento, dar paso al uso de fuentes alternativas, y no al agotamiento total. Se confía que llegado el momento la tecnología, y el precio de estos combustibles, permitirán su sustitución.
106
Alejandro Canut de Bon L.
La maldición de los recursos naturales Se ha dado en denominar la “maldición de los recursos naturales” al supuesto que los países ricos en recursos naturales -en especial yacimientos mineros- tienden a crecer, en términos económicos, más lentamente que los países pobres en los mismos recursos. Esta tesis ha sido objeto de análisis en diversos estudios durante los últimos 25 años, llegando alguno de ellos a asegurar el hecho de haber comprobado el supuesto en cuestión. No obstante el tema sigue siendo discutido, y por ello resulta necesario señalar que no pretenderemos, y de hecho mal podríamos, dilucidar esta controversia en el presente artículo, ni menos aclarar -en caso de ser efectiva la tesis- la razón que eventualmente subyace a esta supuesta “maldición”. Sólo haremos algunas reflexiones que pueden servir de introducción al tema. Tradicionalmente se ha sostenido en economía que la presencia de recursos naturales, y más particularmente de grandes yacimientos mineros, es un elemento que tiende a favorecer el desarrollo económico. Es decir, que existe una relación positiva entre yacimientos mineros, por un lado, y desarrollo económico por otro. De hecho, grandes economías se construyeron apoyándose, total o parcialmente, en sus recursos mineros. Fue el caso, por ejemplo, de los Estados Unidos y de 107
Desarrollo Sustentable y temas afines
Gran Bretaña. Es más, se asume que uno de los fundamentos de que la Revolución Industrial haya nacido en Gran Bretaña es, precisamente, la presencia de ricos yacimientos de carbón en su territorio. En resumen, para los economistas tradicionales no cabe duda que la minería ha generado a lo largo de la historia múltiples ejemplos de polos de desarrollo, en los que se han creado puestos de trabajo estables y bien remunerados, todo lo cual ha generado posibilidades de crecimiento. Asumir que donde existe riqueza minera existirá pobreza, no resulta correcto para estos economistas, a pesar que ello haya ocurrido en algunos casos. Las causas de estas desafortunadas situaciones pueden estar en una diversidad de razones, que van desde la irresponsabilidad o falta de preparación de gobernantes, a razones netamente culturales. El no saber aprovechar una oportunidad no significa, en resumen, que ésta no haya existido, ni menos que ésta sea un perjuicio. Por otro lado, los que aducen la validez de la tesis denominada “la maldición de los recursos naturales”, señalan como argumento que la mayoría de los países que a inicios de los ´70 contaban con yacimientos abundantes, no crecieron considerablemente -como se debería haber esperado- durante los siguientes 30 años y que, por el contrario, los países que si crecieron significativamente en las últimas tres décadas, son aquellos que carecen de recursos naturales en abundancia. Las preguntas entonces que se imponen para esta tesis son: ¿si la presencia abundante de recursos naturales es una bendición para la economía tradicional, por qué entonces se da esta paradoja?; ¿es la presencia de recursos lo que precisamente produce la falta del desarrollo económico, o es que la razón de esto último está en alguna otra causa?. Para esta nueva visión, las posibles razones de que la existencia de recursos naturales (yacimientos) no asegure un desarrollo importante, son: a.- La minería y su naturaleza: generalmente los países de escaso 108
Alejandro Canut de Bon L.
desarrollo, en los que súbitamente se descubren grandes riquezas mineras, importan los insumos que la explotación requiere, produciendo por tanto escaso encadenamiento productivo dentro de sus fronteras. A esto se suma la falta de capacidad técnica para procesar y transformar los minerales en bienes de consumo, agregando también por ello poco valor dentro del país en que son extraídos. Por último, la minería demanda poca mano de obra en relación a la inversión que comprende. Es más, en el caso de los países sin tradición minera, generalmente la mano de obra más calificada se importa, contribuyendo con mayor fuerza a la fuga de las divisas que la minería podría dejar en el país en que el yacimiento se encuentra. b.- Niveles de precios más altos: las economías intensivas en la explotación de recursos naturales parecieran tender a elevar el nivel de precios de insumos y remuneraciones, lo que a su vez perjudica al desarrollo de las otras industrias no explotadoras de recursos naturales. Todo lo cual, además, hace crisis al momento en que el recurso natural deja de ser explotado. c.- El deterioro de los términos de intercambio. Como se sabe en economía, se entiende por “términos de intercambio” la tasa a la cual puede un país intercambiar sus productos por otros importados. Es un hecho que durante el siglo XX dicha tasa ha disminuido en perjuicio de los exportadores de recursos naturales, y a favor de los exportadores de bienes finales. Así, si a mediados del siglo XX se requerían de “x” toneladas de una materia prima cualquiera para comprar un automóvil, a fines del siglo se requería de “x” más algo, de la misma materia, para poder comprar el mismo automóvil. En otras palabras, los bienes finales (manufacturados) han aumentado de valor en relación a los recursos naturales, lo que ha empobrecido a los países exportadores de estos últimos en relación a lo países exportadores de los primeros. d.- La volatilidad de los mercados: en general los precios de 109
Desarrollo Sustentable y temas afines
los recursos naturales son de gran inestabilidad, respondiendo fuertemente a los ciclos económicos, toda vez que obedecen más a los desplazamientos de la curva de demanda que a los de la curva de oferta. Esta inestabilidad se transmite a los países dependientes de la exportación de estos recursos. e.- El mal holandés: en Holanda, en los años setenta se descubrieron grandes depósitos de gas, los que se exportaron a gran escala. Esto originó un ingreso sin precedentes de divisas (dólares), lo que a su vez produjo una valorización de la moneda nacional holandesa -en ese entonces, el florín- . Esto último, redujo súbitamente la rentabilidad de otras exportaciones del país y destruyó a varios sectores de la economía. Desde entonces se dice que un país padece del “mal holandés”, cuando la divisa se deprecia fuerte y rápidamente producto del exceso de la misma divisa consecuencia de la abundante exportación de un recurso natural determinado. f.- La corrupción: el exceso de riqueza que puede significar el descubrimiento súbito de grandes yacimientos de recursos naturales, pasa en ciertos casos a ser un factor determinante en los niveles de corrupción. Un caso de esto es Nigeria. Este país bombea actualmente alrededor del 3% de todo el petróleo mundial, obteniendo casi 50 mil millones de dólares anuales de retorno, los que lejos de impulsar la economía, han contribuido a afianzar la corrupción, los abusos y la violencia étnica, frenando el desarrollo económico del país. En Nigeria el 70% de la población vive bajo la línea de la pobreza y el 80% de los recursos provenientes del crudo desaparecen en los bolsillos de funcionarios locales, intermediarios y ejecutivos, según información de Transparencia Internacional (institución que califica los países de acuerdo a sus niveles de corrupción). Pero todos estos argumentos presentan fuertes contraargumentos. Por ejemplo, para evitar el mal holandés algunos países han invertido los excedentes provenientes de la exportación de sus recursos naturales en fondos ubicados en el extranjero, 110
Alejandro Canut de Bon L.
evitando así los no deseados efectos que en la economía doméstica tendría una entrada ingente de divisas. Noruega es un ejemplo en esta materia (con un fondo de 200 mil millones de dólares, producto de la explotación de petróleo en el Mar del Norte). Otra solución es invertir los recursos disponibles en divisa a fin de no presionar hacia la baja del tipo de cambio y no perjudicar el sector exportador. Otro ejemplo de contra-argumento es el siguiente: para luchar contra la volatilidad de los mercados, los gobiernos han aprendido a trabajar con los precios a largo plazo y no con los precios actuales respetando así el superávit estructural del PIB. Cualquier aumento de los gastos debe ser compatible con las variaciones en los ingresos estructurales de la economía. De esta forma se neutraliza la volatilidad del precio, guardando divisas de periodos buenos para compensar periodos malos. Existen otros contra-argumentos que resultan incluso más obvios. Un ejemplo es el hecho que el deterioro en los términos de intercambio debe llevar a las economías a esforzarse en desarrollar su industria de bienes manufacturados, y no ha desarmar su industria extractiva. En fin, estos contra-argumentos y muchos otros permiten, en nuestra opinión una obvia conclusión: la abundancia de recursos significa -en términos generales- una ayuda al crecimiento económico, pero -y esto es lo importante- no asegura el mismo. Es más, puede con mucha facilidad ponerlo en peligro si no es debidamente aprovechado, como de hecho ha ocurrido en una multiplicidad de casos en las últimas décadas. Es responsabilidad de cada país, gobierno, y empresa, el lograr hacer del aprovechamiento de sus recursos naturales la oportunidad que en realidad es, traduciendo esta riqueza inerte en una riqueza humana, sustentable (Véase “Las dos interpretaciones: la Sustentabilidad Débil y la Sustentabilidad Fuerte). Australia y Chile han sido ejemplo en esfuerzos y en resultados, en este sentido. Por lo mismo, lo importante para el tema central de este 111
Desarrollo Sustentable y temas afines
libro, consiste en que todos los que en alguna forma trabajamos en la industria de recursos naturales debemos estar advertidos de esta tesis, y por ello cuidar que el aprovechamiento de la riqueza produzca encadenamientos productivos de diversas naturalezas, buscando así que la riqueza natural se trasforme en un desarrollo que se pueda sustentar más allá de la vida de una operación. Esto demanda, como ya entendemos, una comprensión profunda y clara del concepto mismo que inspira el título de este texto (Desarrollo Sustentable, sea en su acepción débil o fuerte), y del rol que a cada uno de los agentes sociales corresponde en él. ¿Puede la minería ser sustentable?...; Comúnmente escuchamos decir que la industria minera no puede ser sustentable, dado que los yacimientos mineros -al ser recursos naturales no renovables- están condenados a agotarse, dejando tras de sí un simple agujero sin mineral. Se agregan al argumento algunos ejemplos prácticos, de lugares en los que alguna vez existió una comunidad minera floreciente y en los que, después del momento de bonanza, sólo quedó un pueblo fantasma y un lugar impactado ambientalmente. A lo anterior se suma la denominada maldición de los recursos naturales (comentada en el artículo anterior), como un factor más que para muchos debe tenerse presente, y según la cual la presencia de recursos naturales, lejos de ayudar al desarrollo económico, puede entorpecerlo. En resumen, se piensa por algunos que -por su propia naturaleza- la industria minera es intrínsicamente no sustentable. El argumento, al menos en su primera parte, parece lógico, y por ello absoluto, pero a decir verdad esconde un desconocimiento de muchos de los temas que hemos comentado en este libro y, en particular, de las diversas acepciones del concepto sustentabilidad (débil o fuerte). En concreto, a la luz de lo expresado en los artículos anteriores, no cabe duda que el argumento señalado resulta 112
Alejandro Canut de Bon L.
discutible, por no decir errado. A continuación repasaremos y resumiremos las principales ideas, todas ya señaladas en este texto, que demuestran -a nuestro juicio- la sustentabilidad de la industria minera: a.- El concepto de sustentabilidad ha sido entendido en la doctrina actual en un doble sentido (débil y fuerte). La explotación de un yacimiento minero, está sin duda comprendida en lo que se entiende por sustentabilidad débil e, incluso, en lo que se puede entender por sustentabilidad fuerte (en la medida que no se afecte un recurso natural crítico). b.- En una manifestación de la Curva de Kuznets, muchos países, sin renunciar a esta actividad, han tenido un crecimiento económico en un marco progresivo de cuidado del medio natural. Es más, el crecimiento inicial -logrado en una primera etapa con los recursos de una minería dura- ha dado paso posteriormente a una minería moderna, amigable y cuidadosa del entorno (Véase “Curva de Kuznets”). c.- La explotación de yacimientos mineros aprovechada inteligentemente ha creado múltiples ejemplos de comunidades pujantes, en las que con el tiempo se ha logrado diversificar la economía y que, por lo mismo, han emprendido en otro rumbos o actividades que han servido de fuente económica al término de la vida del yacimiento. Esto ha demostrado que la riqueza minera representa una oportunidad de desarrollo, en la medida que sea aprovechada inteligentemente, como ha ocurrido en muchos países (Australia, y Chile son ejemplos notables), desmintiendo de esta forma la tesis de la maldición de los recursos naturales. d.- La idea consistente en que los recursos mineros se agotan, obedece a lo que se ha denominado “modelo del paradigma de la reserva fija” el que, como ya hemos señalado, aparece superado hoy por el del “paradigma del costo de oportunidad” (Véase “¿Recursos naturales no renovables?”). Este último paradigma cuestiona la idea de que los recursos no renovables se agoten. Nos recuerda que la tecnología siempre ha permitido acceso a 113
Desarrollo Sustentable y temas afines
los mismos minerales, a menor precio en términos reales, y con mayores reservas probadas cada año. Incluso en casos tan críticos como el del petróleo se debe sustituir la idea del agotamiento por la de perdida de atractivo económico. Un ejemplo claro es el caso del cobre. La producción mundial de cobre aumentó promedio 3,35% por año, durante el siglo XX. El consumo mundial de cobre subió de 1,2 Kg/habitante en 1950 a 1,9 Kg/habitante en 1970, y a 2,5 Kg/habitante en el año 2000 (en una población mundial total que además registra aumento significativo pues en igual período se duplicó). No obstante, las reservas de este metal no han parado de aumentar. Por ejemplo, en Estados Unidos aumentaron desde 17 millones de toneladas en 1931 a 75 millones de toneladas en 1973, y a nivel mundial aumentaron de 308 millones de toneladas en 1992 a casi 500 millones de toneladas en el 2000. Es decir, paradójicamente, a mayor consumo y producción, mayor aumento de reservas, lo que evidentemente contradice la noción de “no renovable”. De todo esto deriva la posibilidad de que la vida de los distritos mineros se puede prolongar por un largo periodo, lo que si bien no hará desaparecer la realidad de que algunos yacimientos deban cerrar, si permite la idea de la subsistencia de la industria en el sector o área geográfica de que se trate. La competitividad dada por la tecnología será la medida de la supervivencia. Competitividad que se medirá no sólo en comparación con las demás empresas del mismo rubro, sino en general con los demás productos que pueden servir de alternativa o sustitutos. Consecuente con lo indicado, se puede concluir que la economía ha enseñado que más que la cantidad de recursos o reservas, y más que las ventajas comparativas naturales en general (abundancia de metal), son las ventajas competitivas las que hacen principalmente la diferencia (es decir, la capacidad humana de innovar y de crear condiciones propicias para el desarrollo de la industria). Esto explica, por ejemplo, que países con similares recursos de un mismo metal, observen desarrollos 114
Alejandro Canut de Bon L.
de la industria respectiva tan dispares. e.- Dado que el concepto de Desarrollo Sustentable descansa en el equilibrio de tres pilares, y que uno de ellos es el crecimiento económico, se podría argumentar que la minería está incluida en este concepto (por lo menos desde una perspectiva económica tradicional). Esto no sólo porque la minería es productora de riqueza, sino -y más importante- porque si ningún país hiciera actividad minera, el desarrollo económico no sería posible (al menos como lo entendemos tradicionalmente), y además la vida en sociedad tendría que cambiar drásticamente. Basta con mirar a nuestro alrededor, los computadores en que escribimos, los cables por los que nos llega la energía, las estructuras de nuestros edificios, los relojes que tenemos en nuestras muñecas, las sillas en que estamos sentados, los autos o buses que tomamos hoy en la mañana al trabajo, etc, todo tiene partes hechas de diversos metales. Nuestra sociedad y vida no podría ser, como la conocemos, sin el uso de los minerales. f.- Las operaciones mineras modernas implementan planes de cierre y abandono (closure plan), que mitigan los impactos acaecidos durante la vida de su operación e, incluso, contemplan la provisión de fondos para enfrentar eventuales impactos futuros. Esto obviamente no quiere decir que toda empresa minera sea sustentable. Solo significa que una de estas empresas, por el solo hecho de ser explotadora de recursos naturales “no renovables”, no queda excluida de este concepto, máxime aún si se considera el ejercicio de la Responsabilidad Social Corporativa y de la compensación de capitales que ésta exige, como se explica en el próximo capítulo. Coinciden con esto (es decir, con el hecho que la minería puede ser -bajo ciertas condiciones- sustentable) las conclusiones a las que han arribado los foros internacionales. Entre otros: 115
Alejandro Canut de Bon L.
1).- Entre el 12 y el 15 de mayo del año 2002 se reunieron en la ciudad de Toronto, Canadá, lo más representativo de la minería mundial, para discutir temas vinculados a la minería, los metales y el Desarrollo Sustentable. Más de 600 personas, provenientes de todos los continentes. La Conferencia se tituló “Resourcing the Future”, y fue organizada por Iniciativa Mineral Global. Cabe destacar dos aspectos de dicha Conferencia: por un lado, la declaración de principios hecha por la ICMM (Consejo Internacional de Minería y Metales, por sus siglas en inglés), titulada Declaración de Toronto . Se trata de un listado de valores y principios compartidos por la industria minera moderna, tales como la necesidad de ejercer la minería con el apoyo de las comunidades locales, el respeto por las mismas comunidades, la responsabilidad ambiental, etc. Por otro lado -un segundo aspecto que cabe destacar- en dicha Conferencia se revisó el borrador del informe del proyecto “Minería, Minerales y Desarrollo Sustentable” (MMSD). Este último informe es consecuencia de una iniciativa iniciada dos años antes por el IIED (Instituto Internacional para el Medioambiente y el Desarrollo, fundado en 1971, considerado como una de las más respetadas organizaciones en el campo ambiental). Se trata de un proyecto que buscó superar la paradoja que enfrenta la industria minera, consistente en satisfacer la demanda mundial de minerales abordando a la vez los impactos sociales y ambientales que genera la extracción. Este proyecto tuvo dos años de duración y su objetivo consistió en identificar la mejor manera en que la minería y los minerales pueden contribuir a la transición global hacia el Desarrollo Sustentable. El informe final de este proyecto fue presentado en la Cumbre Internacional de Johannesburgo, en septiembre del 2002. Quizás por ello esta segunda Cumbre de la Tierra (la de Johannesburgo) se refirió por vez primera a la contribución y rol de la minería en el proceso hacia el Desarrollo Sustentable (la Cumbre de Río no lo había hecho de manera expresa). El proyecto MMSD fue patrocinado por las 28 mayores empresas mineras del mundo, y otras 15 117
Alejandro Canut de Bon L.
instituciones no comerciales, entra las que se incluye el Banco Mundial, el PNUMA, la Fundación Rockefeller, la Unión Internacional por la Conservación de la Naturaleza, los gobiernos de Australia, Canadá y Reino Unido, y fue supervisado por un Grupo de Garantes compuesto de 25 respetadas personalidades internacionales. 2).- En el año 2000 diversas organizaciones no gubernamentales, en calidad de representantes de la sociedad civil, dirigieron una petición al Presidente del Banco Mundial para que éste hiciera una revisión de su política de financiamiento a los proyectos de las industrias extractivas (mineras). La idea era asegurar que el financiamiento se condicionara al hecho de que estas industrias contribuyeran al Desarrollo Sustentable. El Banco Mundial aprobó iniciar esta revisión en las reuniones anuales del Fondo Monetario Internacional efectuadas en Praga en junio del 2000. La puesta en marcha formal del proceso se inició en julio del 2001 y se denominó RIE (Revisión de las Industrias Extractivas). El carácter público del proceso fue sustentado en el sitio web www.eireview.org. Durante los años 2002 y 2003 el equipo independiente del EIR convocó a cinco consultas regionales de las partes interesadas, incluyendo gobiernos, sociedad civil, industrias y representantes regionales del Banco Mundial. Este proceso terminó con un informe final titulado “Hacia un mejor equilibrio” (www.worldbanck.org/ogmc/ eirreports.htm), en enero del 2004. La conclusión del informe, en términos generales, se puede resumir en que se estimó que la industria extractiva (petróleo, gas natural y minería) pueden contribuir al logro del Desarrollo Sustentable, en la medida que cumpla ciertas recomendaciones que se fijan en el mismo informe.
119
Desarrollo Sustentable y temas afines
Sociedad y Sustentabilidad
Este capítulo se refiere al tercer pilar de la Sustentabilidad, a la sociedad. Como se expresó en su oportunidad, este pilar, evita que la preocupación sólo se centre en cuidar el medioambiente y el desarrollo económico, sino que busca que se haga todo ello, pero con participación de la sociedad y en beneficio social. Pero además, destacamos en este capítulo la importancia que la sociedad, tanto en su sentido general como político (el Estado), aporte al Desarrollo Sustentable con su madurez y responsabilidad.
120
Alejandro Canut de Bon L.
Responsabilidad Social Corporativa Cabe iniciar este artículo preguntándose directamente qué se debe entender por Responsabilidad Social Corporativa (RSC), y -más que ello- si existe o debe existir dicho tipo de responsabilidad. Pues bien, las respuestas que se han dado a estas preguntas son múltiples, y provienen de diferentes ámbitos y concepciones económicas, políticas y filosóficas. Por ello, no resulta posible dar una única respuesta, que satisfaga a todos y, en consecuencia, en las próximas líneas plantearemos los dos extremos posibles (entregando si un punto medio, para el caso de las empresas que explotan recursos naturales), a fin de que el lector forme su propia opinión. En un extremo, se esgrime que las empresas, para su supervivencia, toman una serie de bienes de la sociedad (recursos, trabajadores, etc) y que a cambio adquieren una responsabilidad para con ésta. Por ello, se dice, las empresas no sólo tienen la responsabilidad que deben a sus accionistas (maximizar la inversión) y al Estado (cumplimiento de la ley y pago de impuestos), sino además tienen una responsabilidad particular con la sociedad toda, en especial con lo que denominan “stakeholders”, que son -además de los accionistas y el Estadolos empleados y los grupos y organizaciones sociales que tienen algún tipo de interés en la empresa de que se trate. 121
Desarrollo Sustentable y temas afines
Así, se argumenta que las empresas no deberán centrarse sólo en la maximización de sus beneficios, sino que deben focalizarse en maximizar el beneficio de los stakeholder en general. Deben por ello las empresas buscar la forma de hacer el bien, promoviendo fines sociales, como la disminución de la pobreza, el fomento del empleo y la educación, el cuidado de la salud y la disminución de la contaminación, entre otros. Se ha considerado también que parte de la RSC se traduce en la obligación de ser transparentes con su información, en todo aquello que no sea confidencial y necesario para la supervivencia del negocio. Deben así compartir su información con la sociedad, lo que se estila hacer a través de lo que se ha dado en denominar “Informes de Sustentabilidad” (en los que se indica la utilidad de la empresa, sus mayores costos, su inversión social, sus planes futuros, etc, etc). En el otro extremo, se cuestiona la existencia misma de esto que se denomina RSC. La empresas -se dice- no tienen más obligación que cumplir con la ley, y -después de ellomaximizar sus utilidades. Al hacer esto, están haciendo el mayor bien social posible. Esto dentro de un marco ético, lo que en caso alguno incluye la obligación de hacer el bien social de manera directa, ni menos de invertir en esto último (Véase en “La búsqueda del equilibrio”). El más conocido exponente de esta segunda visión es el economista y Premio Nobel Milton Friedman, que ya en un artículo publicado en 1970, titulado “The Social Responsability of Business is to Increase its Profits”, argumentaba que el hecho de imponer a las empresas más obligaciones que las señaladas (ley, impuestos, ética y maximización de utilidades) implicaba un flaco favor para la sociedad misma (el título en español se traduce como “La Responsabilidad Social de las Empresas es Maximizar sus Utilidades”. Este artículo fue publicado el 13 de septiembre de 1970, en la revista “The New York Times Magazine”). 122
Alejandro Canut de Bon L.
El argumento básico de esta segunda posición es lo que se denomina la teoría de la agencia y la teoría del efecto impositivo. Quienes dirigen una empresa tiene el mandato de sus dueños (accionistas) para administrar el negocio, procurando obtener la máxima utilidad posible. Esto que puede ser cuestionable para algunos, es una realidad de todos los días y un valor de la sociedad de libre mercado. Imagínese, por ejemplo, una empresa cuyas acciones se venden en la bolsa. Las personas que compran sus acciones, optan por ellas porque tienen mejor rendimiento y mejores utilidades que otras acciones de otras empresas, y esperan, por cierto, que este rendimiento y utilidades se mantengan en el tiempo. Ahora bien, después de haber operado la empresa (respetando un marco ético), de haber cumplido con la ley, y de haber pagado todos sus impuestos, el excedente que queda en el negocio es la utilidad que debe ser repartida entre los accionistas. Cualquier gasto hecho en otro sentido deberá, necesariamente, disminuir las utilidades de los accionistas, o los impuestos del Estado, o traducirse en un mayor precio del producto final, afectando -en este último caso- el bolsillo del consumidor. De hecho no existe otra opción. Desde esta perspectiva, el administrador que realiza el bien social con los dineros de la empresa, lo hace no a cuenta de la empresa, sino a cuenta del dueño de ella, del Estado o de sus clientes. Veamos cada uno de estos tres casos. Si el gasto se hace a cuenta de los dueños de la empresa, por encargo de estos, en realidad quien está ejerciendo la responsabilidad social es el dueño mismo, y no la empresa, lo que nadie podría discutir por tratarse de su propio dinero. Si el gasto se hace a cuenta del Estado (disminuyendo impuestos) deberá comprenderse que la concreción de la acción social de que se trate significará una menor acción social del Estado, y -lo que es peor- muchas veces sin el consentimiento de éste. El empresario estará decidiendo así por el Estado, y privilegiando una necesidad social sobre otra. Por último, si se hace a costa del precio final del producto, nadie 123
Desarrollo Sustentable y temas afines
podrá discutir que es la misma sociedad la que realiza la acción social, y no la empresa. Se agrega además en esta línea argumental que esto de la RSC es, después de todo, un engaño económico, no sólo por lo ya señalado, sino porque tarde o temprano los negocios se realizan en la medida que ofrezcan un retorno mínimo atractivo, y al imponerse la RSC se está imponiendo un gasto social a las empresas que éstas tratarán como un costo más. Producto de este nuevo costo, son menos los negocios realizables, y por ello menos también las empresas que se construyen, todo lo cual se traduce en un mayor desempleo y en menores impuestos pagados en el largo término. En un punto medio, entre ambas argumentaciones indicadas, se ha considerado la ayuda social que prestan las empresas que explotan recursos naturales y, en particular, recursos naturales no renovables. Se recuerda y argumenta en estos casos que de acuerdo a la Sustentabilidad (Débil) debe la generación presente transmitir a la próxima a lo menos un stock de capital total no menor al recibido (Véase “Sustentabilidad Débil y Sustentabilidad Fuerte”). Se discute en todo caso si dicho deber le corresponde a la empresa o al Estado. Si se asume que corresponde, aunque sea parcialmente, a la empresa, se debe deducir que ésta debe cuidar que el stock de capital total se mantenga, retribuyendo a la sociedad con un capital compensatorio del recurso natural no renovable que explota. Sea cual sea el caso, empresas ubicadas en grandes ciudades que prestan un servicio cualquiera, o empresas que explotan recursos naturales, el hecho es que al parecer la RSC ha llegado para quedarse. En efecto, en el presente, se están creando normas ISO (que se denominarán ISO 26000) que tendrán por objeto precisamente determinar procedimientos para la Responsabilidad Social. En resumen, los programas y acciones de RSC son cada vez más comunes, al punto que ya no se cuestiona su pertinencia 124
Alejandro Canut de Bon L.
(y de hecho podríamos decir que, hoy al menos, resultaría políticamente incorrecto hacerlo). Así, se podría afirmar que las empresas, sea por convicción o sea por conveniencia, han entrado a jugar un rol social cada vez más activo. Es más, muchos mercados han premiado este rol, lo que ha llevado a algunas empresas a incluir fuertemente sus actividades de bien social como forma y parte de la publicidad, lo que a su vez ha creado un debate más profundo y por cierto más amplio que el de la mera existencia o no de una responsabilidad social corporativa. Se ha discutido la ética con la que se hace la RSC. Por un lado, siguiendo a Kant, se ha afirmado y fundamentado que no es ética la RSC realizada con el solo fin de incrementar las ganancias del negocio. Por otro lado y siguiendo a Bentham y su ética utilitarista, se ha estimado que cualquiera sea el propósito final de la RSC de una empresa en especial, lo importante es su realización. El viejo e interesante debate sobre si la bondad del acto está en sí misma o en su finalidad. En resumen, partiendo del supuesto que la responsabilidad social corporativa es un hecho, por lo menos en las empresas que aprovechan recursos naturales no renovables (lo que no por ello deja de ser discutible), y asumiendo también que son las propias empresas (y no el Estado) las encargadas de velar por la compensación del capital natural (lo que es por cierto también discutible), resulta entonces que se debe buscar la forma de realizar dicha compensación, los que nos lleva a comentar en nuestro próximo artículo la famosa “Renta Hicksiana” como una de las vías más utilizadas para este efecto.
125
Desarrollo Sustentable y temas afines
La Renta Hicksiana Como hemos ya estudiado, la explotación de los recursos naturales -y en particular la de los no renovables- se ha entendido que puede ser sustentable, en la medida que cumpla con una doble condición: que no afecte el capital crítico ecológico, por un lado, y que sea debidamente compensada con la creación de otro capital, por otro lado (Véase “Sustentabilidad Débil y Sustentabilidad Fuerte”). Para muchos esta compensación se da no sólo a través de los impuestos, sino particularmente mediante la ayuda que la empresa debe otorgar de manera directa a proyectos sociales concretos. Esto justifica para muchos, como hemos ya señalado en el artículo anterior, la denominada responsabilidad social corporativa. Así, parte de la utilidad de la empresa debe quedar en la comunidad, como compensación, en forma de capital construido o de habilidades. El problema, no obstante, es que la empresa que explota un 126
Alejandro Canut de Bon L.
recurso natural no renovable terminará sus operaciones en algún momento futuro. Así las cosas, la empresa dejará de existir, y su ayuda social también. Para esto, se ha consensuado que un factor clave para el cumplimiento de la sustentabilidad -sobretodo para su pilar social y económico- es la denominada “Renta Hicksiana”, que puede ser definida como el flujo de dinero (real o imputado) generado durante un periodo determinado, que gastado en su totalidad en el mismo periodo, deja a su perceptor al final de ese periodo con el mismo capital inicial. Calcular esta renta permite determinar la parte del producto de un activo agotable que se debe invertir en otros activos (parte que se ha denominado “costo de usuario”), a fin de que el rendimiento de tales reinversiones compense en el tiempo la reducción que experimentará la explotación del activo agotable o, dicho de otra forma, que la explotación del capital natural de lugar a una reinversión tal que sea capaz de generar, a su vez, un flujo de ingresos a perpetuidad. Esto, en la práctica, ha sido el fundamento de lo que se ha denominado “Fondo de Sustentabilidad”, implementado por las empresas en muchas partes del mundo. 32 Así, las empresas de gran impacto social, que explotan recursos no renovables, pueden crear un fondo de sustentabilidad que tenga por objeto hacerse cargo de las inversiones sociales que realizan de manera periódica. En otras palabras, se suele crear el fondo en cuestión calculando un aporte anual que a partir del término de la operación debiera significar un capital que subsista mediante una Renta Hicksiana. Es decir, una cantidad de capital que pueda producir -año a año- un monto en intereses similar al que se dedica actualmente a gasto social. El concepto de Renta Hicksiana debe su nombre al celebre economista inglés, John R. Hicks (1904-1989), graduado en Oxford, y profesor en la London School of Economics, en la Universidad de Cambridge, en la de Manchester y en Oxford. Autor de varios libros y artículos, se le otorgó en 1972 el Premio Nobel en Economía, junto a Kenneth J. Arrow (el mismo que hemos señalado al hablar del Análisis Económico del Derecho y de la Teoría del Bienestar). 32
127
Desarrollo Sustentable y temas afines
De esta forma, el término de operación de la empresa, no significará el término de su gasto o inversión social. Este seguirá realizándose -administrado por una fundación- mediante el sólo gasto de los intereses que el fondo produzca. Cabe por último destacar que este tema se relaciona con la necesidad de la creación y mantención de la Contabilidad Verde (concepto al que ya nos hemos referido). En efecto, como se explicó en su oportunidad, la explotación de un recurso no renovable puede traducirse -momentáneamente- en un crecimiento del PIB de un país, sin evidenciar en las cuentas nacionales que al no estar -dicha explotación- debidamente compensada, significa en realidad un empobrecimiento del mismo país. El llevar una contabilidad que de cuenta de estas compensaciones, y que registre y acuse cuando éstas no se producen, pasa a ser esencial para muchos en la determinación del grado de sustentabilidad que tiene un país.
128
Alejandro Canut de Bon L.
La importancia de una sociedad responsable Como hemos ya explicado, uno de los pilares de la sustentabilidad es el desarrollo económico. Para que este se mantenga, se requiere no sólo de la iniciativa particular, sino también de una sociedad madura, política y jurídicamente ordenada. Esto nos lleva a comentar ciertos aspectos o elementos que han pasado a ser de primera importancia al momento de hablar de Desarrollo Sustentable: a.- La necesidad de un Estado de Derecho. Es un hecho incuestionable de que el mejor instrumento de que dispone el Estado para promover la economía, es el establecimiento de un conjunto de normas legales claras, que fijen un marco regulatorio bien deslindado a las actividades industriales. Sólo de esta forma se logra disminuir el riesgo que toda inversión, cualquiera sea su naturaleza, conlleva. En algunos casos esto es aún más evidente, como en la minería. Por su alta inversión y su natural riesgo, sin un marco jurídico estable, esta industria simplemente desaparece, aunque las riquezas minerales abunden. La necesidad de un Estado responsable, que fije las reglas y se someta él mismo a ellas, pasa 129
Desarrollo Sustentable y temas afines
aquí a ser incuestionable y explica la abundancia de actividad minera en algunos países y la falta de ésta en otros con similares recursos o condiciones geológicas. Es por ello que es posible afirmar que cualquier cambio legislativo sorpresivo, que atente contra la certeza jurídica y contra los derechos legítimamente obtenidos en un marco jurídico dado, es contrario a la esencia de un Desarrollo Sustentable. b.- La necesidad de evitar actitudes monopólicas u oligopólicas. Conforme ganan presencia y dominio de un mercado determinado, algunos Estados cometen el error de desarrollar actitudes monopólicas u oligopólicas. En efecto, la búsqueda -por esta vía- de un mayor retorno económico ha guiado a muchos países a la ruina. Sólo dos ejemplos, relacionados con los recursos naturales: i.- El salitre natural. A fines del siglo XIX e inicios del siglo XX se producía, en un 70% a nivel mundial, en Chile. El alto precio que alcanzó, consecuencia de un cada vez mayor impuesto, llevó a su sustitución por el salitre sintético, con consecuencias económicas brutales para Chile. La mayor parte del salitre quedó en el suelo y las industrias y pueblos enteros que vivían de su explotación desaparecieron; ii.- El mercado del estaño, a mediados de la década del ochenta, alcanzó precios altísimos, inducidos por los pocos países productores que existían, entre ellos Bolivia. Una fuerte reacción de la demanda llevó al colapso de muchas empresas productoras de estaño, y a la bancarrota a un país entero (Bolivia). c.- La necesidad de cuidar el Orden Público. Este elemento puede también ser ilustrado con un ejemplo: Uno de los casos más emblemáticos de derrumbe de un mercado de recursos naturales es el del cobalto, ocurrido en 1977. Más de la mitad de este metal a nivel mundial era producido en un solo país, Zaire. En dicho año, un grupo de rebeldes de ese país ocupó por la fuerza las minas de cobre-cobalto, haciendo demandas sociales y políticas, y paralizando la producción por unos días. Si bien la ocupación fue breve y tras ella se reestableció la producción, un grupo 130
Alejandro Canut de Bon L.
importante de consumidores a nivel internacional decidieron que la dependencia de este metal, y en particular de Zaire -un país constantemente inestable- era peligrosa para sus economías, por lo que decidieron reemplazar el cobalto de Zaire por otro material más confiable en su abastecimiento o por fuentes de otros países. Producto de ello, la demanda de cobalto cayó rápidamente a nivel internacional (sobretodo del cobalto proveniente de Zaire), con su lógica consecuencia en el precio del metal. Muchas de las minas de cobalto de ese país debieron cerrar o acostumbrarse a niveles de producción y utilidades menores. Muchas empresas dejaron de ser sustentables. d.- La necesidad de una sociedad madura y no corrupta. Este punto podría estar incluido en el anterior, pero lo tratamos de manera independiente por su tremenda importancia para la sustentabilidad de toda economía. La corrupción es, sin duda, una de las mayores causas de pobreza (y, como ya hemos dicho, la pobreza es una de las mayores causas de contaminación). Por ello no puede asombrarnos que en los países con mayores niveles de corrupción existan los mayores niveles de pobreza y de contaminación ambiental. Los estudios demuestran que la inversión extranjera es mucho menor en los países percibidos como más corruptos y que por el contrario, conforme mejoran su gobernabilidad y reducen la corrupción, consiguen mayores y mejores créditos. Una muy buena guía en esta materia en el “Índice de Percepción de la Corrupción” de Transparency International, que se hace año a año, listando y comparando a 159 países a nivel mundial. En el Índice de 2005, los cuatro países con menor nivel de corrupción fueron: Islandia, Finlandia, Nueva Zelanda y Dinamarca; en el lugar 17 aparece Estados Unidos, y en el número 20 el primer país de habla hispana, Chile, seguido de Japón y España. Entre los más corruptos está Haití, Bangladesh y Chad (las economías más pobre del mundo). En resumen, estos cuatro elementos presentan en su 131
Desarrollo Sustentable y temas afines
esencia una característica común, la necesidad de certeza jurídica, política y económica. Se trata de un valor siempre presente en el mundo moderno, desde el discurso final que el comerciante usurero expone magistralmente en la famosa obra “El Mercader de Venecia”, 500 años atrás, hasta nuestros días. La ley y los contratos deben siempre cumplirse para que el desarrollo tenga lugar. Esa certeza es responsabilidad de la sociedad y, principalmente del Estado, y es esencial para el Desarrollo Sustentable.
La participación ciudadana y las licencias sociales En las últimas décadas la comunidad, más informada y más organizada, ha empezado a exigir una mayor cuota de participación en las decisiones de proyectos industriales que directa o indirectamente- les pudieran afectar. Esto ha significado un nuevo factor en la concepción y en el desarrollo de las empresas (particulares y estatales). En efecto, la forma tradicional de hacer empresa se ha basado en una concepción del derecho de propiedad de carácter absoluto, producto del cual se entendió que el dueño de un pedazo de tierra podía ejecutar dentro de su dominio -en la medida que cumpliera con la legislación- el proyecto que mejor estimara; consecuencia de su facultad de usar, gozar y disponer de su propiedad. No se requería más que cumplir con obtener los permisos que legalmente correspondían, y el proyecto se podía construir y poner en marcha, aunque no fuera del agrado de la comunidad. Pero esto ya no es del todo así.
132
Alejandro Canut de Bon L.
Cada vez más se exige que los proyectos industriales compartan con la comunidad sus planes. Un ejemplo de esto es la obligación de hacer publica la presentación de un Estudio de Impacto Ambiental, o el tener que realizar un foro público dentro del proceso de evaluación ambiental del proyecto. En algunos países el tema ha alcanzado importantes niveles de aceptación, al punto que algunos proyectos sólo pueden ser ejecutados en la medida que cuenten con una suerte de aprobación social. Ahora bien, es claro que estamos en general en presencia de una tendencia que si bien ha sido aplaudida por diversos estamentos de la sociedad, no debe desconocerse que su bondad -para muchos- dependerá de que tan lejos se lleven las cosas. Es aquí dónde el tema se vuelve discutible y, por lo mismo, interesante. En efecto, la gran aprensión que aún no se ha hecho escuchar con todas su fuerza (quizás porque no es “políticamente correcta”), radica en el perjuicio que puede significar que el titular del proyecto termine quedando entregado a la voluntad de la sociedad, más que al cumplimiento de la legislación. Los que alegan que esta tendencia no debe llegar al punto de que los proyectos industriales queden totalmente entregados a la voluntad de la comunidad, suelen argumentar que: a.- Existen proyectos que ninguna comunidad desea se construyan en sus cercanías, pero que son necesarios para la sociedad; b.- Requerir la voluntad de la sociedad equivale a dejar a los industriales entregados a la posibilidad de un boicot social o a la obligación de convertir a la comunidad en una suerte de copropietaria del proyecto; c.- Tarde o temprano esto significará un flaco favor a la misma sociedad, puesto que los proyectos -contar de obtener la aprobación social- deberán incurrir en inversiones sociales desmedidas, que se traducirán en mayores precios del producto final, o en menor cantidad de proyectos construidos. 133
Alejandro Canut de Bon L.
d.- La comunidad muchas veces no es capaz de comprender los aspectos altamente técnicos de un proyecto, o es manejada por grupos con agedas políticas propias. No obstante estos argumentos, el hecho es que las licencias sociales son cada vez más aceptadas. Las Organizaciones No Gubernamentales de carácter ecológico las han apoyado, y han trabajado para que las instituciones financieras internacionales, y particularmente el Banco Mundial, patrocinen solamente proyectos que cuenten con un amplio apoyo de las comunidades en que se emplazarán (apoyo que debe manifestarse a través de una consulta previa, libre e informada). Así las cosas, se puede concluir que este tema se está arrastrando a una arena similar al de la Responsabilidad Social Corporativa. Es decir, en la imposibilidad de imponer legalmente la necesidad de obtener una suerte de “aprobación social de los proyectos”, se está logrando -por la fuerza de la práctica- que dicha aprobación sea un requisito necesario para la obtención de financiamiento internacional. Un aspecto también importante que debe ser considerado, es el hecho que muchas organizaciones no gubernamentales tienden a oponerse a los proyectos industriales sin tomar en cuenta el sentir de las localidades y pueblos que se beneficiarán de los respectivos proyectos. En este sentido existe un interesante documental filmado en 2006 titulado con un juego de palabras: “Mine your own business”, que relata de manera cruda el sentir de un pueblo que ve como un proyecto minero cede frente a la oposición ambiental creada por grupos extranjeros interesados.
135
Desarrollo Sustentable y temas afines
En resumen, no obstante lo bueno de esta tendencia (aprobaciones sociales), no puedo dejar de manifestar que observo con aprensión que el tema puede llegar a un extremo quizás un tanto perjudicial. En efecto, nadie podría discutir la ventaja de una actividad empresarial transparente, ni la de una sociedad informada. Pero tampoco nadie debiera discutir la importancia y ventaja de un marco jurídico claro, que determine con precisión y certeza los requisitos que en definitiva deben cumplir los proyectos industriales para hacerse realidad. En ese marco, los permisos requeridos deben ser otorgados por la sociedad políticamente organizada, es decir, el Estado. Dejar uno de estos requisitos entregado a la comunidad, entendida ésta en un sentido amplio y difuso, puede quizás terminar perjudicando a los integrantes de la misma comunidad.
Humanidad y Medioambiente
136
Alejandro Canut de Bon L.
Este capítulo se refiere a nosotros, a la humanidad, y en particular a ese crecimiento desmedido que presiona por un excesivo consumo de recursos naturales, lo que su vez amenaza el equilibrio de la madre naturaleza. Pero no se crea que se trata de un mensaje pesimista. Curiosamente -debo confesar- mientras investigaba y redactaba estos artículos me fui convenciendo de dos factores que ponen la nota alegre. Por un lado, el crecimiento demográfico, si bien no se ha detenido, parece empezar a encontrar un equilibrio. Por otro lado, sin duda la humanidad vive en su culmen, en su mejor momento. Por cierto que queda mucho en que avanzar, pero no por ello se debe desconocer lo mucho que se ha avanzado en los últimos siglos. En resumen, pareciera por esto que debemos aprender a tener cierto escepticismo frente a la atmósfera un tanto negativa que a veces se forma frente a los temas ambientales.
La explosión demográfica ¿Cuántos somos?.. Hace 2000 años atrás, la población mundial alcanzaba los doscientos millones, y se mantuvo prácticamente así, creciendo muy lentamente, limitada por las pestes, la escasa higiene y las continuas guerras. Tardó 1800 años para alcanzar aproximadamente un billón (mil millones), y por mucho que
137
Desarrollo Sustentable y temas afines
ese crecimiento, del orden de 500% (de doscientos millones a mil millones), nos parezca importante, la verdadera explosión aún no ocurría. Ésta sería producto principalmente de los avances en las condiciones médicas, de higiene y de salud pública, acaecidas durante el siglo XIX. Para mediados del siglo XX, producto además de nuevos avances médicos (como la penicilina, a inicios de los cuarenta), la población había crecido un 100%, y llegaba así a los dos billones. Pero, para fines de siglo ya alcanzaba los 6 billones, y se calcula que para mediados del siglo XXI llegará aproximadamente a los 10 billones.33 ¡¡¡¡Eso sí que es una explosión!!!!. En los últimos 50 a 60 años ha aumentado la población en 4 billones, mientras que tardó 1800 años en aumentar sólo 800 millones. Cada día se suman cerca de 250,000 almas a la humanidad, y cada año cerca de 100 millones. En la próxima década la población mundial crecerá en más de lo que lo hizo en 1800 años. Los últimos 200 años han sido objeto, además del crecimiento exponencial de la población, de una redistribución de ésta, que en la mayoría de los casos ha resultado desordenada (asociada a las nuevas fábricas y ciudades), dando paso al surgimiento de suburbios superpoblados, sucios y pobres. Es más, si las tendencias actuales continúan, prácticamente todo el crecimiento demográfico ocurrirá en áreas urbanas, y en su mayor medida en los países pobres. En estos, la fertilidad es de 2,9 hijos por mujer, casi el doble de la media de los países desarrollados que es de tan sólo 1,6. Pero ello no es todo, otro punto importante en este análisis es que no sólo el número de seres humanos ha aumentado increíblemente y de manera desordenada, sino que también sus expectativas de consumo lo han hecho. La cantidad de recursos Se ha registrado un descenso en la tasa de fertilidad de las últimas tres décadas. Si este descenso continua, para el 2050 la humanidad podría ser sólo aproximadamente 9 billones, mientras que si la actual -2005- tasa de fertilidad se mantiene, la cantidad podría acercarse a los 12 billones. 33
138
Alejandro Canut de Bon L.
naturales per cápita que se utilizan hoy, excede -sin ir más lejoscon mucho a lo que se utilizaban pocas décadas atrás. Un solo ejemplo, a mediados del siglo XX el consumo mundial de cobre era de sólo 1,2 Kgs. por habitante, para 1970 era de 1,9 Kg, y para fines de siglo era de 2,5 Kgs. Es decir, se duplico (en términos per cápita) en sólo 50 años.34 En resumen, la pregunta que salta de manera inmediata es obvia: ¿puede la Tierra albergar un número ilimitado de seres humanos?... ¿cuál es el impacto de este crecimiento en el medio que nos rodea?. Thomas Malthus respondió esta pregunta con una visión pesimista en 1798. Cualquier incremento en la producción de alimentos sería insuficiente si la población mundial persistía en seguir creciendo geométricamente. Esto traería la hambruna y caos consecuente. Pero su proyección falló (Véase “¿Los Límites del Crecimiento?”). La revolución industrial permitió una revolución agrícola sin precedentes, y doscientos años después seguimos sosteniendo que la Tierra tiene capacidad para alimentarnos a todos, por lo menos, al presente. Pero la pobreza tiene muchas caras, y no sólo se presenta como hambruna. En la actualidad prácticamente el 25% de la población mundial carece de acceso a agua potable, el 20% de un lugar digno donde vivir, y un 40% de servicios sanitarios. Se estima por las Naciones Unidas que a lo menos un 20% de la población mundial vive con menos de un dólar al día (lo que se califica como extrema pobreza), y precisamente en la actualidad la meta principal de las Naciones Unidas es lograr disminuir a la mitad la extrema pobreza y el hambre, para el año 2015. Sin duda la presión de los países más pobres para alimentar Es del caso destacar que los países desarrollados tienen un nivel de consumo per cápita de cobre superior al de los países en desarrollo. Así, mientras que para el año 2000 EEUU y los países de la Unión Europea consumían cerca de 11 kgs/hab., el de los países en vía de desarrollo era de sólo 1,5 Kg/hab. Podrá comprenderse con facilidad que en la medida que los países en vía de desarrollo logren progresar, el consumo per cápita a nivel mundial puede crecer a tasas exponenciales. 34
139
Desarrollo Sustentable y temas afines
y satisfacer las necesidades básicas de sus habitantes, los lleva con rapidez a una sobre-explotación de su medioambiente. Existe así una fuerte relación entre las tasas de natalidad elevadas, la pobreza y el deterioro del medioambiente. Se afirma por algunos autores que se ha demostrado empíricamente que los países que detienen un crecimiento demográfico exponencial, logran a su vez controlar la pobreza extrema, y entran en la posibilidad de cuidar el medio que los rodea (Curva de Kuznets), pero por otro lado existen escuelas de pensamiento -generalmente vinculada a fuertes posiciones religiosas- que sostienen la necesidad e importancia de cumplir con el mandato divino de crecer y multiplicarse. El tema por cierto encierra muchas aristas que no pueden responderse con facilidad. En todo caso, cualquiera sea la posición que se pueda tener a este respecto, pareciera que existe cierta verdad en la conclusión que enseña que la forma más rápida de asegurar un daño ambiental es -precisamente- produciendo pobreza...... y que quizás aquella cita bíblica del Génesis, que manda a “Fructificad y multiplicaos, y llenad la Tierra”, y que se repite más adelante con palabras similares (“Procread abundantemente en la Tierra, y multiplicaos en ella”), es más metafórica que literal y, para muchos, definitivamente, no facilita el cuidado del medioambiente.35 Ecocidios Un término que se ha venido recientemente acuñando en nuestro vocabulario es el de “ecocidio”. Se utiliza para referirse a los pueblos que no son capaces de advertir que su propio accionar les producirá un colapso ecológico, al punto que tarde Algunas cifras relevantes, entregadas por las Naciones Unidas, que muestran el contraste por países, son: a).- Expectativa de vida al nacer: Japón 82 años / Zambia 36 años; b).- Porcentaje de niños muertos antes de los 5 años: Suiza: 0,3% / Sierra Leona 28%; c).- Población que vive con menos de dos dólares al día: Polonia 2% / Nigeria 91%; d).- Años promedio de educación: Canadá 11,6 años / Nepal 2,4 años; e).- Población con acceso a agua potable: Alemania 100% / Camboya 34%. 35
140
Alejandro Canut de Bon L.
o temprano se verá comprometida su existencia. Es decir, una suerte de suicidio, pero de carácter ecológico. Son varios los casos de culturas que han cometido ecocidio. Por cierto siempre será discutible si las razones de la desaparición de una cultura determinada, cualquiera que esta pueda ser, ha sido sólo una actitud negligente frente al medioambiente, o si esto como resulta más probable- ha sido un factor más en una cadena de hechos o causas concomitantes. Sea como sea, lo interesante de este tema son los resultados de los estudios que se han venido realizando de los que se estiman son los ecocidios más famosos de la historia y, en particular, los comunes denominadores que presentan estos diferentes casos, que hacen reflexionar sobre si nuestra cultura podría, en algún momento, tener una actitud también suicida. Un libro que ha tratado el tema con éxito es el texto, recientemente publicado (2005), del historiador ambientalista y profesor de geología de la Universidad de California de Los Angeles (UCLA), Jared Diamond. Este libro, un verdadero best seller de divulgación científica, se titula “Collapse: How Societies Cose to Fall or Succed” (Colapso: Como las sociedades escogen fracasar o tener éxito). Este autor, ganador del Pulitzer en 1998 (por otro libro que da cuenta de los factores medioambientales y estructurales que explican el éxito de la cultura occidental sobre otras), repasa las eventuales causas de la desaparición (ecocidio) de algunas culturas emblemáticas, como la de la Isla de Pascua
141
Desarrollo Sustentable y temas afines
en la Polinesia; de las colonias de los Vikingos noruegos en Groenlandia; de los indios anasazi en el sudeste norteamericano; de los mayas en Centroamérica; y de Haití y Ruanda en el presente. En todos estos casos, el común denominador es el daño ambiental de magnitud que no es advertido o, que siéndolo, no se detiene. El resultado siempre el mismo: se rompe el equilibrio ecológico de manera irreversible, y se pierde la cultura. Uno de estos casos, emblemático y comúnmente citado, es el de la Isla de Pascua. En un inicio un paraíso terrenal, con palmeras, bosques tropicales, suelos fértiles, poblado de especies diferentes, terrestres y marítimas. Con el tiempo, una isla con un severo grado de deforestación. Uno de los factores de este desenlace, fue que los habitantes de la isla rompieron el equilibrio básico y requerido para su propia subsistencia. Al talar los bosques para poder tener maderas para construir sus casas y otras actividades, fueron comprometiendo su futuro y, cual Tragedia de los Comunes, el resultado pareció cada vez más evidente, pero no por ello se logró evitar. Diamond se pregunta en su libro, ¿qué habrá pensado el pascuense que taló la última palmera gigante?... ; quizás se vio motivado por un Dilema del Prisionero y, quién sabe, tal vez por su mente pasó un cuestionamiento similar a aquel que el profesor Sylvan presenta en su “argumento del último hombre” (todos, conceptos vistos en este texto). Otro caso tratado en el libro, es el de las colonias de vikingos noruegos asentadas en Groenlandia. Cortaron los bosques para tener pastizales que sirvieran de alimento a sus ganados y para contar con leña para la construcción de sus casas, sin advertir que la fragilidad del ecosistema no soportaría la presión. Los terrenos perdieron humedad y con ello resistencia frente a los fuertes vientos propios de esa latitud. El poco pasto fue rápidamente
142
Alejandro Canut de Bon L.
consumido por los animales, al punto que el heno recolectado en verano comenzó a ser cada vez más escaso, comprometiendo el forraje necesario para la subsistencia del ganado durante el invierno. Se sumó a lo anterior que los vikingos no aprendieron, como si lo hicieron otras culturas vecinas, a aprovechar otros recursos que estaban al alcance. Las focas, comunes en el sector, les habrían proporcionado alimento, con su carne, y abrigo con su aceite. Los peces les habrían dado otra fuente de alimento. Pero, como evidencian los restos de los asentamientos hallados en Groenlandia, la pesca no fue una alternativa. El pueblo terminó muriendo de hambre. El común denominador más destacable, como ya se ha señalado, es la presión que, paso a paso, se va poniendo en el ecosistema, al punto de quebrar irreversiblemente su equilibrio. La falta de un plan de manejo, la tragedia de los bienes comunes, la dependencia de un mismo recurso y su sobreexplotación, etc, etc. .... el ecocidio al final. Y la pregunta que queda en el suspenso al terminar la lectura del libro es evidente... ¿estaremos nosotros cometiendo nuestro propio ecocidio?... y, ¿si efectivamente estamos causando el calentamiento global?...36
En este sentido encontramos el libro titulado “Ecocidio. Breve historia de la extinción en masa de las especies”, del profesor de la Universidad de Hawaii, Franz J. Groswimmer, publicado en el 2005 (Editorial Oceanía). 36
143
Desarrollo Sustentable y temas afines
Evaluación de los Ecosistemas del Milenio La Evaluación de los Ecosistemas del Milenio (EEM) es una estudio científico sobre las consecuencias que para el bienestar humano pueden tener los cambios que experimentan los ecosistemas existentes en nuestro medioambiente. Este estudio internacional fue realizado entre los años 2000 y 2004, por un consejo multisectorial compuesto por representantes de 95 gobiernos, empresas, ONGs, agencias de las Naciones Unidas y pueblos indígenas. Se trata de un estudio -según la misma EEMconducido por más de 1300 científicos de las ciencias naturales y sociales y revisado por otros 600 expertos. En resumen, es una evaluación científica que procura determinar las condiciones y tendencias de los ecosistemas existentes en el mundo y de los servicios que ellos brindan al ser humano (aguas limpias, alimentos, productos forestales, recursos naturales, etc) 37. Se afirma -en los reportes de la EEM- que se trata del análisis más integral hecho a la fecha sobre las numerosas y complejas formas en que la gente depende del medioambiente y de la manera que éste ejerce un efecto sobre la humanidad. Un ecosistema es un complejo dinámico de comunidades vegetales, animales y de microorganismos y su medio no viviente que interactúan entre sí. Los servicios de los ecosistemas, por su parte, son los beneficios que los seres humanos obtienen de los ecosistemas y son producidos por interacciones dentro de los ecosistemas. Los ecosistemas, como bosques, pastizales, manglares, y áreas urbanas proveen diferentes servicios a la sociedad. Estos incluyen los servicios de aprovisionamientos, de regulación y culturales que afectan directamente a las personas. Algunos servicios de los ecosistemas son locales, otros son regionales (control de inundaciones o purificación del agua) y otros globales (regulación del clima). Los servicios de los ecosistemas afectan el bienestar humano y todos sus componentes, incluyendo las necesidades materiales básicas como alimentos y viviendas, salud individual, seguridad, etc. 37
144
Alejandro Canut de Bon L.
Se señala -también en los mismos reportes de la EEM- que este estudio representa un hito para las políticas públicas y la concientización del sector público y privado, y que por lo mismo influirá en las inversiones, el clima regulatorio y la opinión pública a nivel nacional e internacional, durante los próximos 10 años38. Entre las principales conclusiones de la EEM se encuentran las siguientes (las que hemos procurado copiar en gran medida de manera textual de los reportes disponibles en internet: www. Maweb.org): 1.- Durante los últimos 50 años los seres humanos han cambiado los ecosistemas más rápida y extensamente que en cualquier periodo comparable de la historia humana, en gran parte para satisfacer las demandas rápidamente crecientes de alimento, agua dulce, madera, fibra y combustible. Los cambios que hemos hecho a los ecosistemas han contribuido a sustanciales ganancias en el bienestar humano y en el desarrollo económico. Sin embargo estas ganancias han acarreado crecientes costos, bajo la forma de degradación de muchos servicios de los ecosistemas, mayores riesgos de cambios abruptos y dañinos en los mismos ecosistemas, y perjuicios para algunos grupos de personas. 2.- Los dos tercios de los servicios de los ecosistemas examinados están siendo degradados o utilizados en forma no sostenible. Esto presenta serias ramificaciones que afectarán de diversas maneras, entre ellas, el hecho que los servicios de los ecosistemas que están libremente disponible hoy en día dejarán de estarlo o pasarán a ser más costosos en un futuro cercano. 3.- Los impactos de la degradación de los ecosistemas se sentirán tanto en el corto plazo (los próximos cinco años) como Desde una perspectiva positiva, la EEM afirma que los resultados de su estudio servirán para identificar prioridades en la administración del medioambiente, y proveerán elementos de planificación ambiental que hoy no están presentes, todo lo cual contribuirá a la concreción de potenciales soluciones. 38
145
Desarrollo Sustentable y temas afines
en el largo plazo (los próximos 50 años). 4.- Por un lado positivo, se puede afirmar que el 16% de los servicios han mejorado en los últimos 50 años, entre ellos las cosechas, el ganado y la acuicultura. 5.- Más superficie fue convertida a tierra de cultivo en los 30 años posteriores a 1950 que en los 150 años comprendidos entre 1700 y 1850. Los sistemas cultivados cubren actualmente una cuarta parte de la superficie terrestre del planeta. Se calcula que entre un 10 y 20% de los pastizales y de las tierras boscosas se convertirán a otros usos entre el año 2000 y el 2050, principalmente a cultivos agrícolas. 6.- Pero, las acciones para aumentar un servicio a menudo causan la degradación de otros servicios. Por ejemplo, en algunos casos se ha aumentado la producción de alimentos a expensas de la calidad del agua. 7.- Es difícil evaluar completamente los costos y los beneficios en los cambios en los ecosistemas porque muchos costos no son fáciles de cuantificar, o son lentos en hacerse manifiestos, o pueden aparecer sólo después de un tiempo de acaecida la actividad que los originan. 8.- La degradación de un ecosistema representa la pérdida de un bien de capital, pero sin embargo el impacto económico de esta pérdida está pobremente reflejado en los análisis financieros, incluyendo las cuentas nacionales (Véase “Contabilidad Verde”).
146
Alejandro Canut de Bon L.
9.- En términos concretos, se afirma que seis cambios de gran importancia están teniendo o tendrán impactos profundamente negativos sobre los ecosistemas: la escasez de agua, el cambio climático, el cambio de los hábitats, la perdida de la biodiversidad y las especies invasoras, la explotación excesiva de los océanos, y la sobrecarga de nutrientes. 10.- Se estima que entre el 15 y 35% del uso de agua para riego no es sostenible. 11.- Los recientes cambios observados en el clima, especialmente temperaturas regionales más elevadas, ya han tenido impactos significativos sobre la biodiversidad y los ecosistemas, incluyendo cambios en la distribución de las especies, el tamaño de las poblaciones, la época de reproducción, los eventos migratorios, y un aumento en la frecuencia de pestes y brotes de enfermedades. Para fines de siglo, el cambio climático puede ser el generador directo dominante de la pérdida de biodiversidad y de cambios en los servicios de los ecosistemas a escala mundial. 12.- Muchos arrecifes de coral han sufrido importantes episodios de blanqueo. 13.- El número total de especies del planeta está disminuyendo y la distribución de las especies se está tornando más homogénea. Durante los últimos 100 años los seres humanos han aumentado los índices de extinción de especies tanto como 1000 veces con respecto a los índices de referencia que han sido más típicos en toda la historia del planeta. Algo así como entre el 10 y 30% de las especies de mamíferos, aves y anfibios está actualmente amenazadas de extinción. Asimismo en la mayoría de las especies se está observando una fragmentación de sus poblaciones, cuyos tamaños y área de dispersión están disminuyendo. La diversidad genética también ha disminuido globalmente, particularmente con respecto a las especies cultivadas. 147
Desarrollo Sustentable y temas afines
14.- Se ha respondido a la demanda creciente de pescado de mar con el aumento de la capacidad pesquera y los avances tecnológicos. Las capturas declaradas aumentaron en forma sostenida durante el último siglo, alcanzando un máximo a mediados de la década de los ´80 para luego comenzar a disminuir. Muchas pesquerías económicamente importantes, como la del bacalao atlántico en Newfoundland, han colapsado abruptamente bajo la intensa presión pesquera, causando una significativa fractura de los sistemas sociales, económicos y ecológicos. 15.- La creciente demanda de pescado y sus derivados ha conducido a un aumento en la presión que se ha puesto en los ecosistemas marinos regionales. La acuicultura no ha podido aliviar esta presión debido a que ha continuado dependiendo altamente de los peces marinos como fuente de alimentación. 16.- Las flotas pesqueras realizan sus capturas cada vez más lejos de las costas y en aguas cada vez más profundas, debido a que las zonas costeras han sido agotadas. A medida que la pesca se extendió por el mar abierto, la proporción de recursos agotados aumentó de 4% en 1950 a 25% en el 2000. Por otro lado, los grandes depredadores (tiburón, atún, pez vela y pez espada) también se han visto afectados por la pesca industrial. La pesca excesiva de estos grandes animales ha cambiado la composición de la fauna de los océanos y ha modificado la interacción entre las especies al afectar la cadena alimenticia. Un hecho interesante es que durante el periodo de aumento de la pesca, muchas de las consecuencias de agotamiento no han resultado obvias. Éstas aparecieron abruptamente, de un periodo a otro. 17.- La seguridad alimenticia permanece fuera del alcance de mucha gente, y la mal nutrición infantil será difícilmente erradicada (aún para el año 2050), a pesar del aumento del suministro de alimentos. 148
Alejandro Canut de Bon L.
18.- Los ecosistemas terrestres están actuando como un sumidero neto de CO2 a una proporción de 1,2 (+/- 0,9) gigatoneladas de carbono por año. De esta forma han contribuido a la regulación del clima, pero el futuro de este servicio es incierto. Se prevé que la deforestación reducirá la capacidad de nuestra naturaleza de servir de sumidero de carbono. Por último, se prevé -en los informes de la EEM- que la mayoría de las causantes de estos cambios que están experimentando y soportando los ecosistemas, seguirán vigentes a los niveles actuales o que -peor aún- aumentarán en las próximas décadas. Se afirma que esto incrementará las probabilidades de “sorpresas” (catástrofes) que los servicios nos pueden dar. Es decir, los ecosistemas que actúan de una manera generalmente predecible, tendrán una actitud cada vez más impredecible. Esto se debe, según lo que se afirma, que estos ecosistemas suelen trabajar de una manera determinada hasta un punto, tras el cual deviene un funcionamiento caótico. Así, inundaciones catastróficas o extinciones de especies, de un periodo a otro, podrían ser realidad según la EEM. Ejemplos como el ya señalado del bacalao atlántico muestran que la “gota que llena el vaso” parece ser un fenómeno de la realidad de estos sistemas. Nuestra capacidad para prever estos cambios abruptos podría ser cada vez más limitada (Véase “Teoría del Caos”)39. La visión que nos entrega la EEM puede ser considerada por mucho como realista, pero -no es menos cierto- que otros tantos la consideran un tanto pesimista. Coincide en este sentido La Evaluación de los Ecosistemas del Milenio se realizó con el apoyo de varias instituciones internacionales, entre las que se cuenta principalmente el Programa de las Naciones Unidas para el Medioambiente (PNUMA), y otras, como la Organización para las Naciones Unidas para la Agricultura y la Alimentación (FAO), Centro Internacional de Mejoramiento de Maíz y Trigo (CIMMYT), Banco Mundial, Fundación Rockefeller, Instituto Nacional de Salud Pública y Medioambiente (RIVM), Comité Científico sobre los Problemas del Medioambiente (SCOPE), y el Instituto de los Recursos Mundiales (WRI). 39
149
Alejandro Canut de Bon L.
con otras proyecciones. En un extremo contrario presentamos a continuación “El Ecologista Escéptico”.
El Ecologista Escéptico En el año 2001 Bjorn Lomborg, un antiguo miembro de Greenpeace y actual profesor adjunto de Estadísticas en la Universidad de Aarhus, Dinamarca, publicó un libro titulado “El Ecologista Escéptico”, con el que desató una fuerte polémica internacional, que se ha mantenido hasta el presente, sobre el real estado del medioambiente. En efecto, en dicho libro, Lomborg procura revisar el real estado de la humanidad y del planeta, criticando algunas de las más importantes organizaciones no gubernamentales dedicadas al tema ambiental, por hacer -según él- un uso selectivo de la información científica existente, creando la imagen de un mundo que se encuentra al borde del desastre ambiental e influyendo de esa forma en las decisiones relacionadas con el uso de los recursos naturales. En términos generales, el libro es un mensaje de esperanza al punto que algunos comentaristas -quizás exagerando un tanto la nota- han señalado que se trata de un hito en la literatura ambiental, comparable con el famoso libro titulado “La Primavera Silenciosa” de Raquel Carson, el cual dio inicio en 1962 al 151
Alejandro Canut de Bon L.
movimiento ambiental. Sea como sea, el hecho es que el texto se apoya fuertemente en investigaciones y datos estadísticos, afirmando en definitiva que la generación actual de la humanidad no vive en un mundo que se dirige al desastre ecológico, como se podría pensar. Pero más que ello, los aspectos netamente ambientales del libro han sido unidos a información, también estadística, que nos muestra que en promedio la humanidad actual goza de mayor bienestar que cualquiera otra generación anterior de la historia, dado que cuenta en términos promedio con más tiempo libre, mayor seguridad, más educación, ingresos medios más altos, mayor esperanza de vida al nacer, menos hambre y menos accidentes. Todo esto ha creado -en oposición a otras corrientes más pesimistas- la idea de que la humanidad vive en su culmen, y que el futuro depara más esperanzas que en cualquier otro momento anterior en la historia. Lomborg es claro en señalar que ello no quiere decir que todo este bien, sino sólo que el destino del hombre comparativamente hablando- ha mejorado enormemente, y que esto se puede comprobar científica y estadísticamente (el libro contiene cerca de 3000 notas al píe de página, permitiendo al lector dirigirse a la fuente de cada información o número que entrega). La clave del argumento es, como se ha dicho, la comparación (el cómo se estaba antes, y el cómo se está ahora). Señala, por ejemplo, que si en 1915 el 75% de los jóvenes en países en vías de desarrollo eran analfabetos, para inicios del siglo XXI sólo el 16% no aprendía a leer y escribir. O que si en 1970 el 30% de la población del mundo en desarrollo tenía acceso a agua potable, en el presente la cifra ronda el 75 a 80%. O que si en el mismo año el 35% de dicha población padecía de hambre, para 1996 el número se había reducido al 18% (y que para el 2010 se espera que no sea más del 12%). Así, procurando basarse en una apreciación científica del 153
Desarrollo Sustentable y temas afines
estado actual del mundo, busca que el lector -con una mayor información- determine las prioridades a las que se deben destinar los escasos recursos de que disponemos. O, en otras palabras y refiriéndonos al tema ecológico, utiliza Lomborg la filosofía de costo-beneficio, para manifestar, por ejemplo, que muchas medidas de protección ambiental no se justifican por el costo que tienen. Que los mismos recursos económicos, aplicados a fines diversos, podrían producir un mucho mayor bienestar a la humanidad. Por ejemplo, en uno de los aspectos que más polémica ha causado, este autor destaca que el costo de la implementación del Protocolo de Kyoto sería mejor utilizado si se destinara a facilitar el acceso de agua potable en las regiones más pobres de África. Esto último salvaría más vidas que lo primero. Otra característica del libro es la crítica constante a las proyecciones de muy corto plazo que -a su juicio- suelen hacer, de manera alarmista, las organizaciones no gubernamentales. A modo de ejemplo, demuestra que si se toman sólo los registros de los años 1988 y 1989, y se proyectan, resulta entonces que la tasa de ocurrencia de los huracanes aumenta preocupantemente, pero si se incorporan al análisis los registro de los últimos 50 o 70 años, se aprecia como aumentos en esta tasa ya han ocurrido en el pasado, sin haberse por ello perpetuado. Lomborg nos recuerda que la naturaleza obedece a ritmos mayores que muchas veces no se comprenden y que por ello no se consideran en los muchos pronósticos catastróficos que se hacen. En resumen, se trata por cierto de un texto polémico, pero sin duda interesante. Se puede concluir que en general es demasiado optimista, como también se puede estimar que es más bien realista. En efecto, a ratos convence y a ratos no. Un libro que ayuda en poner freno a un sentimiento de pesimismo, a una visión de un mundo cada vez en peores condiciones. Por todo ello este autor no ha pasado desapercibido y, a lo menos decir, ha cumplido la buena tarea de enseñarnos a desconfiar de tanto comentario y a buscar -más informados- nuestro propio parecer 154
Alejandro Canut de Bon L.
sobre el futuro que espera a la humanidad y a nuestro planeta. 40
Ética y Medioambiente
En este capítulo nos referiremos a la componente ética que existe en las decisiones de explotar y utilizar recursos naturales, renovables o no renovables. Como se podrá comprender, se trata de un tema de hondas raíces, que se vinculan a las concepciones filosóficas e incluso religiosas de cada cual. En cierta forma este capítulo da contenido a los dos grandes conceptos de Desarrollo Sustentable que hemos indicado, y a la disyuntiva -también referida precedentemente- que nos presentan los conservasionistas versus los preservasionistas. Quizás, muy optimistamente, podemos esperar que el siglo XXI sea recordado por tres fenómenos concurrentes: el descenso de las tasas demográficas y la estabilización del crecimiento de la población (lo que algún asidero puede tener si extrapolamos el descenso en la tasa de fertilidad registrado en las tres últimas décadas); la erradicación de la extrema pobreza (que se estima como algo realizable) y; un equilibrio en la relación hombre y medioambiente. 40
155
Desarrollo Sustentable y temas afines
El Dilema del Último Hombre En una conferencia en 1973, el profesor australiano Richard Sylvan (1936-1996) propuso un problema de ciencia ficción que de vez en vez se utiliza para introducir el aspecto ético en los asuntos ambientales. Se le ha denominado “el argumento (o dilema) del último hombre”, y consiste en la siguiente situación hipotética: suponga que usted es el último ser humano en la Tierra, y está pronto a morir. Una vez que ya no exista, la única vida que habrá en el planeta será la de los animales, plantas, y microbios. Por alguna extraña razón a usted le divierte cortar árboles, y está de pie frente a la última secuoya gigante existente. La pregunta entonces es ¿Tiene derecho a cortarla por mera diversión?.... ¿Estaría mal, a pesar que con ese acto no dañaría a ninguna otra persona?... Lo importante es que la respuesta a esta pregunta, como a muchas otras que se vinculan con nuestra actitud frente a la naturaleza y al medioambiente, no se encontrará en el campo de la ciencia ambiental, sino en un campo ético y, por lo mismo, filosófico. Tener presente este simple hecho resulta de gran importancia al momento de discutir temas ambientales.
156
Alejandro Canut de Bon L.
En efecto, en diversos resúmenes de la historia de la ética ambiental se suele partir citando un famoso artículo escrito por el ambientalista Aldo Leopold (1887-1948), considerado uno de los padres del movimiento ambiental norteamericano, publicado en 1948 y titulado “The Land Ethic”. En dicho artículo el autor sostiene explícitamente que las raíces de la crisis ecológica que se empezaba entonces a vivir eran básicamente filosóficas (este artículo sólo sería divulgado gracias a una recopilación hecha por el Sierra Club, editada en 1970). Desde entonces los artículos sobre esta materia no se han detenido. La primera conferencia sobre este tema fue organizada en 1972 en la Universidad de Georgia, mismo año en que se publicó un texto que ha sido un constante referente, titulado “Is It Too Late?. A theology of ecology”, de John B. Cobb y, en una línea similar el mismo Richard Sylvan presentó en el Congreso Mundial de Filosofía de 1973 un trabajo titulado “¿Hay Necesidad de una Ética Ambiental?”. Un año más tarde otro profesor australiano, John Passmore, contrariaba a Cobb y a Sylvan argumentando con una publicación titulada “Man´s Responsability for Nature”, en el sentido que no se requería de ninguna ética ambiental. Desde entonces y hasta los años ochentas el tema se dividió entre quienes estaban con Sylvan, por un lado, y los que estaban con Passmore, por otro. Posteriormente, pareciera que esta discusión ha quedado algo decidida a favor de quienes sostienen la necesidad de una ética ambiental, como una disciplina independiente, sobretodo al tener presente que en las últimas décadas se han formulado posiciones que mueven cada vez más fuertemente las bases filosóficas sobre las que se ha construido la sociedad occidental. Pero más allá de hacer un resumen de lo que ha pasado con esta disciplina, lo que nos interesa aquí es destacar -como ya se ha señalado- que ella pertenece al campo de la ética y, por lo mismo, de la filosofía, y no al de la ciencia ambiental. Esto último obliga a que las respuestas a los dilemas ambientales sean tratadas no con 157
Desarrollo Sustentable y temas afines
una rigurosidad técnica, sino filosófica. Como se sabe, la ética es la rama de la filosofía que se preocupa -en una acepción simple y reducida- de distinguir entre lo correcto o incorrecto, entre lo bueno y lo malo (sentido en el que entenderemos el concepto en estás páginas). Para cumplir con este cometido, las afirmaciones éticas que se hagan se deben fundamentar en una corriente filosófica determinada, y buscar una lógica armonía entre aquello que se postula como correcto o incorrecto, por un lado, y los principios de la corriente filosófica que sirva de fundamento, por otro lado. Así las cosas, una pregunta como la que contiene el argumento del último hombre, o situaciones más simples pero reales (como la utilización o no de animales en laboratorios farmacéuticos, o la caza de ballenas o el corte de alerces, etc), nos obliga a encontrarnos de frente con nuestra actitud ante la naturaleza y, más que ello, con nuestras creencias filosóficas (conservadoras o liberales) e, incluso, religiosas. En fin, cualquiera sea la posición que se tenga, el hecho es que esta componente ética y filosófica de nuestras creencias explica en definitiva una parte importante de nuestros argumentos relacionados con la defensa o el uso del medioambiente. Tanto así, que muchos de los fallos judiciales que en materias ambientales, como en muchas otras, se dictan en los tribunales, sólo se explican a la luz de una posición ética y filosófica determinada. En efecto, si bien muchos podremos concordar en que los jueces, al fallar, deben esforzarse por aplicar la ley, y sólo la ley, también somos muchos los que comprendemos que jamás se puede exigir a los jueces que dejen sus concepciones filosóficas y éticas totalmente al margen de su tarea. Esto, pues el lenguaje no es perfecto, y -por eso- el derecho escrito (la ley) no lo es tampoco, lo que permite que se presenten en el ejercicio de la interpretación legal inevitables márgenes de discreción, que en el 158
Alejandro Canut de Bon L.
fondo constituyen aquellos intersticios por los que se cuelan las concepciones filosóficas y -por lo mismo- éticas de los jueces (y a veces, incluso religiosas). Por ello, es que tras un fallo que determina que está permitido el corte de alerces, o de alguna otra especie, o la caza de un animal, o el uso de estos en laboratorios farmacéuticos, o en general la explotación de un recurso cualquiera, existirá no sólo una ley, sino también un parecer ético-filosófico-ambiental. Esto es claramente comprendido en algunos países, como por ejemplo en Estados Unidos, y se traduce en que la elección de un nuevo juez de la Corte Suprema es un hecho de gran preocupación pública. Su carácter conservador o liberal, sus creencias religiosas y filosóficas en general, etc, serán comentadas y analizadas, pues -se sabe- ello influirá más temprano que tarde en los temas que nos interesan y, en el caso del medioambiente, en lo que se aceptará con el tiempo por sustentabilidad. Demás está decir que el carácter ético de los fallos, y en general el hecho de que exista un aspecto filosófico en muchas de las respuestas a cuestiones ambientales, nos enfrenta al problema de la subjetividad de nuestras afirmaciones. Esto pondrá a prueba, muchas veces, no sólo nuestra visión de la naturaleza y nuestra interpretación del derecho, sino -más que ello- nuestra capacidad de entender el real significado de la tolerancia (concepto, que al igual que sucede con el de Desarrollo Sustentable, se utiliza día a día sin mayor comprensión de su verdadera esencia). Esto sucede por ejemplo con las respuestas que emanan de posiciones que desafían fuertemente las concepciones filosóficas de Occidente, como ocurre con las corrientes preservacionistas o con la ecología profunda, como se indica a continuación.
159
Desarrollo Sustentable y temas afines
Ecología Profunda El concepto de “Ecología Profunda” o “Deep Ecology” procede de un artículo escrito y publicado en la revista “Inquirí” de 1973, por el noruego Arne Naess, profesor de la Universidad de Oslo, en el cual él contrastó dos corrientes o formas de encarar la ecología. A una de ellas se refirió como el “movimiento de ecología profunda de largo alcance” (longrange deep ecology movement), mientras que a la otra la calificó como el “movimiento superficial o poco profundo de ecología” (shallow ecology). El título del artículo fue precisamente “The Shallow and the Deep, Long-Range Ecology Movement”. Según Naess la característica fundamental de este movimiento (Deep Ecology) consiste en reconocer un valor intrínsico a todos los seres vivos y en general a la diversidad existente en el planeta. Consecuencia de este reconocimiento se deben producir, según este autor, diferentes acciones políticas, sociales, e incluso filosóficas. En mayor detalle, la literatura ha dado a la Ecología Profunda, en términos generales, ciertos principios básicos que podrían resumirse en el siguiente razonamiento: 160
Alejandro Canut de Bon L.
1.- Debe existir primero un reconocimiento del valor intrínseco de toda vida y diversidad, humana y no-humana (lo que denominan igualdad biocéntrica). Este valor es absolutamente independiente de la utilidad que la vida no-humana pueda o no tener para los mismos humanos. 2.- Los seres humanos no tienen derecho a reducir la diversidad no-humana, salvo cuando así se requiera para satisfacer necesidades humanas vitales. 3.- Los seres humanos tienen el deber de reducir la intervención humana en el mundo no-humano, si ésta resulta excesiva (situación que estiman necesaria en el presente). 4.- Esta disminución debe producirse mediante un profundo cambio cultural. Es decir, un cambio en la forma en que vive la sociedad, que afecte las estructuras económicas, tecnológicas e ideológicas. 5.- Este cambio debe centrarse principalmente en la calidad de vida, más que en incrementar el “estándar de vida”. En resumen, se plantea por este movimiento que no es posible proseguir con el tipo de crecimiento industrial que existe actualmente, y que por ello es urgente realizar cambios fundamentales en nuestro sistema de valores y prácticas. De no realizarse estos cambios, se destruirá la diversidad y la belleza del mundo, lo que en definitiva afectará nuestra propia capacidad de subsistencia cultural. Para algunos, la Ecología Profunda debe ser calificada como una corriente preservacionista, o como una corriente diferente, que se encontraría más allá del preservacionismo en general (Véase “Conservacionistas versus Preservacionistas”). De hecho, algunas corrientes dentro del movimiento de Ecología 161
Desarrollo Sustentable y temas afines
Profunda se han relacionado con ideas religiosas, como las budistas, y han sostenido que la crisis medioambiental que se vive puede solucionarse logrando una interdependencia de todos los fenómenos de la naturaleza, conectando al ser humano con la Tierra, y con el proceso de la vida en general. En este sentido están los escritos de la autora norteamericana Joanna Macy. Estas ideas se han vinculado en la literatura con la Hipótesis de Gaia, a la que también nos referimos en este texto (Veáse “Hipótesis de Gaia”). En resumen, la Ecología Profunda cuestiona las bases estructurales del progreso económico de la sociedad occidental. La crisis del medioambiente no es, para los ecologistas profundos, más que una manifestación de los problemas que derivan del tipo de desarrollo económico que busca insaciablemente nuestra sociedad y del hecho de estimar que el hombre es una criatura especial, en cierta forma desligada del resto de la naturaleza, con derechos sobre los demás animales y en general sobre todo cuanto existe. No nos hemos percatado aún, dicen algunos ecologistas profundos, que el ser humano es sólo un animal más, uno de las 10 millones de especies que habitan la Tierra. Nada demasiado especial. Parte integrante de la naturaleza, y no algo separado de ella. Según algunos ecologistas profundos, esta distinción inconciente que hacemos de naturaleza y ser humano, se nota incluso en nuestro lenguaje. Hablamos de la “contaminación de la Tierra o de la naturaleza” sin darnos cuentas que se trata de nuestra propia contaminación. Nosotros no somos sólo los contaminadores, sino también los contaminados. Por último, debemos destacar que esta visión del hombre, como un ser más de la naturaleza, contradice en alguna forma concepciones religiosas que ponen al ser humano en el centro de la creación y que expresamente le otorgan derechos sobre la naturaleza entera. Desde esta última perspectiva la Ecología Profunda no es sólo contradictoria con el crecimiento económico (en su acepción occidental y actual de este último concepto) sino también con valores culturales muchos más profundos que los 162
Alejandro Canut de Bon L.
meramente económicos, como lo son de hecho los religiosos.
Prohibir es más fácil El cuidado y protección del medioambiente y sus recursos resulta muchas veces un dilema amargo, en el sentido que siempre debemos encontrar a alguien que pague por dicho cuidado o protección. Podrá ser la comunidad toda o podrá ser sólo un conjunto de personas, pero la cuenta debe ser cancelada. Parafraseando a un famoso economista “no existen almuerzos gratis” en este tema. Recuerdo esto, puesto que no es extraño ver casos en los que, frente al dilema en cuestión, el Estado, los Tribunales o la comunidad, prefieren optar por cuidar y proteger prohibiendo el uso o la explotación del recurso, lo que nos presenta un aspecto ético importante. En efecto, esto -en algunos casos- resulta tremendamente injusto, pues equivale a endosar la cuenta que se debe pagar sólo a un grupo de ciudadanos; a los dueños del recurso que se desea proteger. A continuación indico, a modo de ejemplo, dos casos en que esto ocurre. Uno que fue resuelto en los tribunales y otro que ha sido discutido en la opinión pública. Se han generalizado los detalles, poniendo atención en el hecho principal que se desea 163
Alejandro Canut de Bon L.
ilustrar, es decir en el común denominador de ambos casos: una solución de protección aplaudida por muchos, pero -estimamosintrínsicamente injusta. a.- La prohibición de talar una especie determinada de árboles. El caso es el siguiente: año tras año se aprecia como disminuye una especie determinada, y por ello se decide prohibir su tala, a fin de evitar su extinción. Esta prohibición se hace mediante ley. Es aplaudida por muchos, salvo por las compañías forestales y por los dueños de algunos terrenos en los que se encuentran estas especies. La comunidad en su mayoría está feliz, pues se asegura así la preservación de la especie en cuestión. Nuestros bisnietos podrán conocer estos árboles, rezan los periódicos. Conclusión: el resultado parece óptimo y sin duda lo es, desde una perspectiva ambiental. b.- Prohibición de vender derechos de aguas de los pueblos indígenas. El caso es el siguiente: Por años grandes empresas mineras han comprado derechos para aprovechar (explotar) aguas subterráneas provenientes de captaciones ubicadas en la cordillera. Los necesitan las empresas como insumo en el proceso de beneficio de los minerales que extraen. El precio del derecho de aguas es tal, que las familias de los pueblos ancestrales no pueden evitar la tentación de venderlos a estas compañías y, con ello, se están condenando a su propia extinción. Vendidos los derechos, se mudan a las grandes ciudades. Este proceso está produciendo la extinción de una forma de vida que tiene cientos de años. De seguir este proceso de venta, una cultura entera desaparecerá. Se discute socialmente el tema y muchos grupos ambientalistas buscan que se dicte una ley que prohíba la venta de los derechos de aguas por parte de los pueblos indígenas. Estiman que con la prohibición, el problema terminará, y seguramente están en lo cierto. De dictarse dicha ley, los pueblos indígenas no podrían vender sus derechos y seguirían viviendo en el mismo lugar y de la misma forma en que lo han hecho por los últimos siglos. Conclusión: una cultura se preservará. 165
Alejandro Canut de Bon L.
¿Qué hay de equivocado o injusto en estos dos casos?... Veamos, en el primero de ellos, en el caso de la prohibición de talar árboles, lo injusto -estimo- radica en que como sociedad, a través de nuestros representantes (el Congreso), se decide endosar el costo de la preservación sólo a los dueños de los bosques. ¿Qué habría sido lo justo?.... Expropiar los bosques que decidimos preservar. Pagar su justo precio a los propietarios. En efecto, póngase usted, por un minuto, en los zapatos del propietario de un predio forestal rico en estas especies, al que por ley se le dice, de un día para otro, que no puede seguir explotando su bosque. No piense en una gran transnacional, las que resultan siempre impersonales, sino en un empresario mediano que ha forjado su propia industria y en la que tiene invertida una vida entera de trabajo. Resulta que somos todos, la sociedad en su amplia expresión, la que desea preservar la especie en peligro de extinción. Para ello bien podemos destinar entonces parte de nuestros recursos como nación, es decir de nuestros impuestos o ingresos. Claro, esto implicará un problema de opción. Al destinar recursos para expropiar los terrenos forestales y salvar la especie, deberemos renunciar por ejemplo a la construcción de un nuevo hospital o de una nueva carretera. O peor aún, aumentar los impuestos para poder así construir la misma cantidad de hospitales, carreteras, etc, y además expropiar. Pero por cierto que nadie desea pagar un peso más de impuesto, ni desea renunciar a nada. Preferimos que la cuenta sea pagada sólo por el propietario del bien, mediante la prohibición. Por ello es que resulta más fácil prohibir que expropiar. En concreto, no deseamos asumir el costo de la preservación, pero aplaudimos la misma olvidando que alguien pagará la cuenta.... y olvidando también el dicho pronunciado por el mismo famoso economista, que dice que “toda persona tiene derecho a hacer el bien público, siempre y cuando lo haga con su propio patrimonio”. Y, respecto del segundo caso; el de los derechos de aguas de
167
Desarrollo Sustentable y temas afines
los pueblos indígenas, ¿qué puede haber de errado en la solicitud de preservar la cultura evitando la venta de los derechos?... Sin duda que no hay nada de errado en querer preservar la diversidad cultural de una nación. Por el contrario. Pero no puedo dejar de pensar que si hay algo equivocado en la posición de ciertas personas o grupos que desde la comodidad que provee el mundo occidental, abogan por mantener a otras personas en una suerte de congelamiento cultural. En otras palabras, con que autoridad podemos nosotros prohibir a otros que vendan los bienes que son de su propiedad, simplemente porque no deseamos que cambien su forma de vida, su cultura. Una prohibición como la indicada conlleva un costo asociado, que evidentemente sólo pagarán aquellos que se vean privados de disponer de sus bienes. Sabemos bien que estos planteamientos tienen aspectos jurídicos y filosóficos que no se encuentran tratados en este artículo. Ello se debe a que la finalidad de estas páginas no es el análisis de detalles legales o de conceptos filosóficos, sino sólo el recordar que la prohibición como una vía para preservar tiene también sus costos. No siempre los vemos. Pero allí están, y alguien debe asumirlos. Por ello quizás la justicia y ética de estos temas está en que el costo de preservar sea compartido.
168
Alejandro Canut de Bon L.
Ciencia y Medioambiente
Como se señalará a continuación, la comprensión de la naturaleza proviene de nuestro conocimiento científico. Creemos entender, a través de él, la forma en que funciona el medioambiente. Pero en las últimas décadas un cambio de paradigma está empezando a tener lugar, lo que resulta especialmente notorio en la manera en que nos acercamos al tema ambiental y -como hemos señalado ya- a la economía.
169
Desarrollo Sustentable y temas afines
¿Qué es la ciencia? Estimamos importante partir este capítulo haciéndonos esta pregunta, pues -como se ha dicho- el entendimiento que tenemos de la naturaleza y del medioambiente proviene principalmente de nuestro conocimiento científico, es decir, de la ciencia. No obstante, pocas veces se advierte como este último concepto ha evolucionado tremendamente en las últimas décadas, al punto que lo que se entiende por ciencia hoy, a inicios del siglo XXI, dista mucho de lo que entendíamos por ella a inicios o mediados del siglo XX. Esta evolución explica, en alguna medida, porque nuestro entendimiento de la naturaleza también ha variado, lo que ha formado dos visiones que pugnan hoy fuertemente (y que trascienden -como hemos ya indicado- a otros campos, como por ejemplo la economía o la ética). Ahora bien, no podemos menos que destacar que se trata -en este artículo- de dar una respuesta filosófica a la pregunta que nos sirve de título y, por lo mismo, para muchos esta respuesta podrá resultar muy poco práctica, pero no por ello, esperamos, poco interesante. A riesgo de simplificar excesivamente, se puede afirmar que la filosofía se asienta principalmente sobre dos interrogantes fundamentales: La primera es ¿cuál es la esencia última de todo cuanto existe? y, la segunda es ¿cómo conocemos?... Las respuestas a la primera pregunta dan lugar a la ontología, y las respuestas a la segunda dan lugar a la epistemología. Esta última, también es conocida como “filosofía de la ciencia”, a pesar de que es posible distinguir una diferencia de matiz entre estos dos conceptos (epistemología y filosofía de la ciencia). Mientras el primero se refiere más precisamente al problema que presenta la pregunta ¿cómo conocemos?, el segundo se preocupa de saber ¿cómo se desarrollan, evalúan y cambian las teorías científicas?, es decir, ¿qué entendemos por ciencia?.41 41
La historia de la filosofía consiste, principalmente, en el desarrollo de las dos ramas
170
Alejandro Canut de Bon L.
Este apartado se centra en la filosofía de la ciencia y en particular en su desarrollo durante el siglo XX. Procura, esencialmente, explicar (resumir) que se ha entendido por ciencia durante los últimos cien años. El Neopositivismo; La visión tradicional de la ciencia. A comienzo de la segunda década del siglo XX, un conjunto de intelectuales se reunió periódicamente en la Universidad de Viena. Este conjunto estaba conformado por matemáticos, físicos, sociólogos, filósofos, etc, y pasaron a ser conocidos como el “Círculo de Viena”, mientras que su pensamiento -cuya influencia se haría sentir en toda Europa y Estados Unidos- sería conocido indistintamente bajo las siguientes denominaciones: “Neopositivismo”, “Empirismo científico” o “Positivismo lógico”. En muy pocas palabras, el mayor común denominador de este grupo de intelectuales era la absoluta confianza en la ciencia y la fe ciega en el progreso, unido esto a una total oposición a todo lo que pudiera insinuar algo sobrenatural. Para que una teoría o proposición pudiera ser considerada científica, debía ser capaz de pasar lo que ellos denominaron el “Principio de la Verificación” (es decir, la posibilidad de comprobar el postulado empíricamente, mediante el método científico). Una teoría o proposición que no pudiera ser sometida a este principio, carecía de sentido, y no podía ser considerada científica. Y si era posible someterla a este principio, sólo daría lugar a un nuevo adelanto o conocimiento científico una vez verificada (comprobada empíricamente). Así, para los neopositivistas, la ciencia se entendía, en líneas generales, como un conocimiento cierto, lineal señaladas (ontología y epistemología), sin olvidar por ello que existen otras ramas secundarias, como lo son la ética, la estética, la filosofía política, etc. Todas ellas se comprenden dentro del concepto general de filosofía.
171
Desarrollo Sustentable y temas afines
y acumulativo, en donde una nueva teoría asumía, complementaba y perfeccionaba las anteriores ya verificadas. Una suerte de cadena de “verdades comprobadas” que denominamos “conocimiento”, en la que toda nueva teoría, una vez verificada, constituye un nuevo eslabón, él que nos entrega una nueva pieza de entendimiento de la naturaleza. Por otro lado, este Principio de Verificación nos permite determinar lo que -como se ha dicho- no es ciencia. Aquella proposición que no puede ser comprobada o rechazada empíricamente no es científica. Se traza así, una línea que permite distinguir entre dos mundos, el científico y el que pretende ser científico, el de la ciencia y el de la seudo-ciencia (aquel que procura gozar, sin méritos suficientes, del calificativo de científico). En este último sentido, se encontraban -para el Círculo de Viena- todas aquellas teorías acomodaticias, que siempre tienen una respuesta a toda pregunta, pero que jamás permiten una comprobación empírica cierta. Así, por ejemplo, el psicoanálisis freudiano, o la interpretación marxista de la historia, que gozan de respuestas para todo, pero jamás de la posibilidad de ser sometidas a una comprobación empírica concreta. Comprenderá el lector como esto constituye la visión tradicional de la ciencia, que incluso persiste hasta hoy en el inconsciente colectivo. Es más, para el ciudadano medio, que pocas veces -por no decir nunca- se enfrenta a pensamientos epistemológicos, la ciencia es precisamente esa cadena de conocimientos ciertos, de verdades, a la que nos hemos referido, consecuencia y herencia del pensamiento post-Newtoniano.
172
Alejandro Canut de Bon L.
Como es sabido, con posterioridad a Newton, el hombre occidental creyó haber dado con el conocimiento verdadero y universal, en donde cada nueva ley o fenómeno científico descubierto y comprobado, quedaba cerrado a nuevos cambios. Esa era, precisamente, la característica principal de la ciencia, su validez, su certeza, su verdad absoluta.... hasta Popper. Karl Popper; Una nueva visión de la ciencia. Popper (1902-1994), fue un filósofo austríaco, de origen judío, que nació y creció en Viena, en donde fue parte -en un inicio- del Círculo de Viena. Posteriormente, en 1937, se vio en la necesidad de huir del Nazismo, lo que hizo aceptando un puesto en el Universidad de Nueva Zelanda, en donde permaneció durante los años de la segunda guerra mundial, trasladándose en 1945 a Londres para proseguir su carrera como profesor de lógica en el London School of Economics. Su aporte en la filosofía se suele dividir en dos grandes campos. Por un lado en la epistemología, siendo conocido en éste como uno de los dos más grandes filósofos de la ciencia del siglo XX (comparte el sitial con Kuhn, al que nos referimos más adelante). Por otro lado, en la filosofía política, en la que su obra cumbre, titulada “La Sociedad Abierta y sus Enemigos”(1945), es uno de los textos más citados del siglo XX. En este último campo, sus críticas al nazismo y, principalmente, al marxismo, están consideradas dentro de las más serias y efectivas jamás realizadas. Su visión de una sociedad abierta a la crítica y tolerante, continúa al presente más vigente que nunca. No obstante, y como es de esperar, su aporte en ambos campos tiene un común denominador (lo que es lógico, pues su epistemología es el fundamento de su filosofía política). Ese común denominador es la injustificada imposición de un único punto de vista; la imposibilidad de sostener una única verdad. En ambos campos su trabajo lo lleva a ser considerado uno de los más grandes aportes en la historia del pensamiento liberal. En resumen, para Popper, el desarrollo de 173
Desarrollo Sustentable y temas afines
la política y el de la ciencia consiste en una continua sustitución de teorías. A continuación explicaremos esto centrando nuestras palabras en su aporte a la filosofía de la ciencia. Como es sabido, la ciencia del siglo XX está fuertemente marcada por la famosa Teoría Especial de la Relatividad publicada en 1905, y la Teoría General de la Relatividad aparecida en 1915, ambas del genio alemán Albert Einstein. Estas teorías fueron un verdadero terremoto en la ciencia, y -por consecuencia- en la filosofía en general y en la epistemología en particular. Esto, puesto que rápidamente se comprendió por la comunidad científica que si estas teorías eran comprobadas, “verificadas” (y pasaban así a ser “verdades” científicas), las leyes newtonianas que habían regido nuestro entendimiento de la naturaleza por más de doscientos años tenían que ser incorrectas. Así, de un momento a otro, una teoría científica comprobada, como lo eran los postulados de Newton, pasaba a ser incorrecta. ¿Cómo podía esto ser posible?... La pregunta adquiría aún más valor si se consideraba que en base a dicha teoría habían tenido lugar un sinnúmero de progresos científicos y de desarrollos prácticos sin precedentes (Revolución Industrial incluída). Quizás la respuesta estaba -debe haber pensado Popperen el concepto que tenemos de ciencia y de “verdad”. Se suele decir que un hecho que impresionó profundamente a Popper en sus primeros años de filósofo, fue el haber escuchado que Einstein no descartara jamás (a pesar que su teoría ya había sido verificada) que en un futuro próximo se comprobara que su teoría no era correcta o simplemente que ella fuera superada o sustituida por otra posterior. 42 En el año 1919 la Teoría de Einstein fue comprobada -en la visión tradicional de la ciencia- con la muy conocida expedición de Eddintong. Nunca antes un episodio de verificación científica había logrado capturar tanta atención pública. A partir de entonces, una vez verificada la teoría, Einstein se transformó en un héroe inmediato, requerido por todas las universidades del mundo, e incluso su rostro de expresión pensativa trascendió la esfera científica transformándose en uno de los dos personajes más populares de 42
174
Alejandro Canut de Bon L.
Esa humildad científica no se condecía por cierto con la visión de la ciencia tradicional, descubridora de verdades absolutas, en donde cada conocimiento nuevo, cada teoría verificada, pasaba a ser un eslabón de una cadena lineal y acumulativa. 43 Así, la tesis de Popper, publicada en el libro “Lógica de la Investigación Científica” de 1935, nace en claro contraste con la epistemología empirista del Círculo de Viena. Popper propone en su texto la sustitución del “Principio de Verificación”, por el “Principio de Falsicabilidad”. 44 En efecto, Popper critica a los neopositivistas señalando que nunca es posible verificar con total certeza una proposición (una hipótesis o teoría). Ni mil verificaciones serán suficientes, ni 10 mil, pues siempre existirá -nos dice Popper- la posibilidad que un futuro acto de verificación no dé el resultado esperado, derrumbando el carácter absoluto de las conclusiones anteriores. Si se piensa, por ejemplo, que todos los felinos tienen cuatro patas, y se estima comprobada esa proposición por haber estudiado todas las especies de felinos conocidas y haber comprobado empíricamente (verificado) que todas ellas tienen cuatro patas; no se estará ni siquiera entonces exento de la posibilidad de encontrar, en un futuro próximo, una especie de felino que no cumpla con ello, lo que derrumbará la verdad indicada previamente. Así, miles de verificaciones no bastan para garantizar la verdad de una teoría, pero una sola refutación es suficiente para demostrarla falsa. En pocas palabras no es posible verificar, pero si es posible inicio de siglo (se dice que sólo era superado en popularidad por Charles Chaplin). 43 Como también es sabido, actualmente, en el campo de la física, se encuentran dos teorías que pugnan entre sí: por un lado la Teoría de la Relatividad de Einstein, y por otro la Teoría Cuántica. Estas dos teorías, que se muestran día a día como ciertas, se contradicen y por ello no pueden ser ambas correctas y, es más, se dice que lo más probable es que ambas sean incorrectas (lo que en todo caso no priva a la comunidad científica actual de utilizarlas obteniendo resultados de extraordinario valor práctico). Esto, como se verá, es un contrasentido en la visión tradicional de la ciencia, pero no en la visión Popperiana. 44 Este concepto proviene de la palabra inglesa “falsifiability” , que algunos textos universitarios españoles traducen como falsificación , o falsación e, incluso, como refutabilidad.
175
Desarrollo Sustentable y temas afines
falsificar (refutar). No es posible asegurar de manera absoluta la existencia de verdades, pero si es posible descartar teorías por errores (refutar). De esto se deducen consecuencias de importancia que afectan nuestro entender de la ciencia. Primero, la ausencia de verdades científicas; segundo, el hecho que la ciencia avanza, progresa, ya no por el descubrimiento de una nueva verdad (las que no se pueden alcanzar), sino por la eliminación de una teoría precedente. El progreso de la ciencia no está dado por la verificación, sino por la refutación. Se desmitifica así la idea de una ciencia triunfante y compuesta de certezas, puesto que no es posible considerar verdad a una teoría que aunque en el presente pueda ser verificada, de todas maneras en un futuro puede ser falsificada (refutada), y reemplazada por otra. La verdad -esa coincidencia entre lo que pensamos que puede ser y lo que realmente es- pasa sólo a ser una suerte de aceptación práctica y momentánea, un consenso (que sólo durará mientras la respectiva teoría no sea refutada). Si una teoría funciona bien a lo largo de años y años de aplicación, dando respuesta satisfactoria y práctica a cada comprobación, podremos incluso pensar que se acerca a la verdad (en el vocabulario popperiano se dice que es “verosímil”), pero ni siquiera entonces, ni siquiera después de siglos, podemos darla por verdadera. Incluso puede que efectivamente sea verdadera, pero ello jamás lo podremos saber con certeza. De lo anterior también se colige que para Popper el científico es quien mantiene una distancia crítica delante de toda hipótesis, por verificada incluso que ésta pueda estar. El científico es el que falsifica (refuta), no el que fundamenta. La finalidad de la ciencia es, de hecho, falsificar (refutar). Sólo así logra avanzar (nótese como la esencia de esta idea trasciende la epistemología, e incluso la filosofía en general. Para Popper el hombre racional es aquel que siempre está dispuesto a tomar 176
Alejandro Canut de Bon L.
distancia crítica de las supuestas verdades absolutas). Otro aspecto de importancia, consecuencia de la visión popperiana de la ciencia, es la discusión del sistema inductivo. En efecto, el método para pensar y buscar el conocimiento verdadero que imperaba hasta la Revolución Científica iniciada por Galileo, debía operar mediante el silogismo aristotélico, es decir, mediante un razonamiento “deductivo” que se inicia a partir de una verdad general (premisa mayor), para descender desde ella y mediante una premisa menor, a una situación particular. Por ejemplo: “Todos los hombres son mortales” (premisa mayor), “Juan es un hombre” (premisa menor), “por lo tanto Juan es mortal” (conclusión). Como se aprecia, el fundamento del silogismo aristotélico es la existencia de verdades generales (premisas mayores). La revolución que trajo consigo el método científico a inicios de la Edad Moderna consistió en que propuso buscar la verdad sin asumir a priori la validez de premisas mayores. Es más, el método científico discutió que el proceso fuera realmente “deductivo”, sino que más bien “inductivo”: en efecto, se pregunta el científico tradicional, ¿cómo sabemos que todos los hombres son mortales?... por la observación de caso tras caso. Así -dice el método científico- es la experiencia de miles de casos (actos de verificación), y no una verdad general, el punto de partida del conocimiento. Dicha experiencia se podrá elevar al carácter de “ley de la naturaleza”, pero no será ésta en sí el punto inicial. Para muchos, Popper discutiría incluso -en alguna medidael carácter inductivo del método científico, al señalar que la metodología de la ciencia se debe basar en hacer conjeturas y, posteriormente procurar refutarlas, es decir, es más deductivo que inductivo. Para Popper el método inductivo supone el error lógico de la generalización a partir de la observación de algunos
177
Desarrollo Sustentable y temas afines
casos (a partir de la verificación). Por el contrario, lo que se debe hacer -según Popper- es partir de proposiciones generales (teorías), para ir de ellas a casos específicos que puedan falsear dichas proposiciones. En resumen, Popper nos cambió nuestra visión tradicional de la ciencia. Si bien la falsificación (refutación) permanecería bastante ignorada por más de veinte años, se consolidaría rápidamente desde el momento en que la obra de Popper se tradujo al inglés, a fines de los cincuenta. A partir de los sesenta comenzará a hacerse presente cada vez con más fuerza en el mundo intelectual, momento en que un nuevo actor entraría en escena volviendo a introducir cambios en nuestra visión de la ciencia... nos referimos a Kuhn. 45 Thomas Kuhn, y sus paradigmas; Kuhn es un filósofo norteamericano nacido en 1922 y fallecido en 1996. Su formación de pregrado esta dada en el campo de la física teórica (magíster y doctor en física de la Universidad de Harvard, en 1946 y 1949, respectivamente). Profesor de filosofía e historia de la ciencia de diversas universidades norteamericanas a lo largo de su carrera (Harvard, Berkeley, Princeton y el MIT). Como indica él mismo en su libro publicado en 1962 titulado “La Estructura de las Revoluciones Científicas”, una vez graduado en física, tomó un curso que lo puso en contacto, por vez primera, con la historia de la ciencia. Dicho curso socavaría radicalmente algunos de sus conceptos básicos sobre la naturaleza de la ciencia, resultando esto en un cambio drástico de sus planes profesionales, puesto que pasaría de la física teórica a la historia de la ciencia y, de ésta, a la filosofía de la ciencia. La controversia sobre filosofía de la ciencia (y en particular sobre el progreso de la ciencia), entre Karl Popper y Thomas Kuhn, se apreció claramente en el marco del Coloquio Internacional de Filosofía de la Ciencia, sostenido en Londres en 1965, el que es citado comúnmente para referirse a dos diferentes entendimientos sobre la manera en que opera la ciencia y la formar en que ésta alcanza sus progresos. 45
178
Alejandro Canut de Bon L.
En el libro señalado Kuhn nos explica que el desarrollo de la ciencia se da principalmente con lo que él denomina cambios de “paradigma”. Los paradigma son “los logros científicos universalmente reconocidos que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica determinada”. Un paradigma, por ejemplo, fue el sistema geocéntrico, el que entregó un modelo de problema y de soluciones, hasta el siglo XV. Los problemas que presentaba la astronomía y las soluciones que se proporcionaban a ella, se daban dentro de dicho modelo. Este paradigma habría sido cambiado, durante el Renacimiento, por uno nuevo, por el sistema heliocéntrico, el que nos proporcionó nuevos problemas y nos dio el marco para nueva soluciones. El aporte de Kuhn radica en que él nos explica que en ciertos periodos, que él denomina de “ciencia normal”, los logros científicos se dan dentro del marco del paradigma imperante. Éste proporciona a la comunidad científica el cuadro intelectual en base al cual debe trabajar. En esto se diferencia de Popper. En efecto, para Kuhn -en estos periodos de ciencia normal- los avances científicos no se dan falsificando (refutando), sino por el contrario, verificando y solucionando nuevos problemas dentro del mimo paradigma. Así, para Kuhn, la ciencia avanza ordinariamente sin falsificar (refutar). Este modus operandi de la ciencia se alteraría en ciertos momentos históricos, cuando los supuestos fundamentales de un paradigma imperante, cualquiera que éste sea, se ven desafiados. En ese instante, se inicia un periodo de “ciencia extraordinaria”, caracterizado por el nacimiento de un nuevo paradigma y por la pugna de éste con el anterior. Sólo entonces, al momento de triunfar el nuevo paradigma (si es que triunfa) se produce una suerte de falsificación (refutación). Una característica importante en el pensamiento de Kuhn, es que los paradigma son incomensurables, incomparables, entre sí. No es posible, por mucho que un nuevo paradigma triunfe sobre uno anterior, asumir que aquel es mejor o más 179
Desarrollo Sustentable y temas afines
verdadero que éste. Los paradigmas no son más que modelos de problemas y soluciones, y no verdades en sí. De esta forma es posible concluir que si la verdad se mantenía inalcanzable en el pensamiento de Popper, derechamente no existe en la concepción epistemológica de Kuhn. Para Kuhn los paradigmas resultan de tal forma incomparables, que ni siquiera el triunfo de uno por sobre otro obedece a un proceso racional (si no más bien cultural). Lo que ven las personas que viven bajo un paradigma, simplemente no es visto por los que viven bajo otro paradigma. Se necesitará de un recambio generacional entero -explica Kuhn- para que el cambio de paradigma tome lugar completamente.46 Como señalamos al inicio de este artículo, lo importante para los efectos de este texto es reflexionar sobre el hecho que nuestro conocimiento sobre el medioambiente, y sobre el funcionamiento de la naturaleza, proviene de la ciencia, y que la visión que de ésta tenemos -salvo desde una perspectiva tradicional y hoy en gran medida superada- invita, a su vez, a pensar detenidamente sobre la validez de nuestro conocimiento. O dicho en otras palabras, para algunos autores nos encontramos actualmente en un periodo de “ciencia extraordinaria”. Y esto no sólo en nuestra visión de la ciencia en general, sino que en la visión de la economía en particular. En efecto, el doble entendimiento del concepto de Desarrollo Sustentables es una manifestación de esto, pues obedece precisamente para estos autores a los dos paradigmas en pugna.
La palabra “paradigma” puesta de moda por Kuhn, escapó en la última década al campo de la epistemología para encontrar una acepción mucho más amplia al ser definida como las razones culturales que nos permiten entender una situación sólo de una determinada manera. 46
180
Alejandro Canut de Bon L.
La Teoría del Caos Desde los inicios de la ciencia moderna (Revolución Científica Galileo-Newton, siglo XVII), el hombre ha creído que el conocimiento de las diversas partes de un sistema permite la comprensión del sistema en su totalidad o, dicho en términos más generales aún, que la naturaleza opera como una gran máquina en la que el entendimiento racional de cada una de sus piezas permitiría la comprensión del todo. Esto es
181
Desarrollo Sustentable y temas afines
lo que desde un punto de vista humanista se suele denominar Reduccionismo, y es el supuesto sobre el que se ha construido la ciencia en los últimos 400 años. 47 Ahora bien, no obstante lo señalado, a inicios del siglo XX (1903) el matemático y físico Henri Poincaré, profesor de la Sorbonne de París, cuestionó esta perfección newtoniana, en relación a las órbitas planetarias. Demostró que un sistema simple, gobernado por las leyes de la gravitación y el movimiento, puede comportarse de una forma impredecible debido a que pequeñísimas diferencias en las condiciones iniciales, pueden significar diferencias fundamentales en los resultados. Este cuestionamiento careció de atención hasta entrada la segunda mitad del siglo XX, y más precisamente hasta la década de1960, en que se inició un estudio más sistemático de lo que se puede denominar “dinámicas caóticas”, es decir sistemas que aparentemente no obedecen de manera estricta a un estudio lineal de causa-efecto. Quizás el primer científico en dar un paso en este sentido ya entrado el siglo XX, fue el meteorólogo norteamericano Edward Lorenz, quien procurando realizar simulaciones y proyecciones basadas en parámetros elementales, comprendió que en la predicción del clima -como en otros muchos sistemas de la naturaleza- algunas instrucciones sencillas pueden En 1687 Newton publicó su obra cumbre, titulada “Principios Matemáticos de Filosofía Natura” (más conocida por su nombre abreviado “Principia” ). Este libro es para la mayoría de los historiadores el texto científico más importante en toda la historia de la humanidad. En él se explica, entre otras, la teoría de la gravitación y las tres leyes del movimiento gravitatorio de los planetas. Desde esta publicación se ha estimado que partiendo del estado y ubicación de un cuerpo cualquiera (o de varios cuerpos), y aplicando las leyes de física, es posible proyectar -mediante causa y efecto- el estado y ubicación futura de él o los cuerpos (lo que se suele denominar “determinismo físico” ). Esto hizo pensar a muchos científicos que mediante estas leyes el universo físico dejaba de tener secretos para el entendimiento humano. Pero, más importante que ello -desde el punto de vista de la evolución del pensamiento en general- es que el nacimiento de la ciencia moderna (es decir, la conjunción del genio mecánico de Galileo con el genio matemático de Newton), logró explicar los fenómenos terrestres y celestes dentro de una misma teoría, basada en las leyes de la mecánica, y con ello creó la sensación que el hombre podía comprender y dominar la naturaleza, lo que influyó decisivamente en la evolución de la ciencia y en el futuro de la humanidad. 47
182
Alejandro Canut de Bon L.
originar estructuras extremadamente complejas, imposibles hoy de proyectar con precisión. El ejemplo más recurrente de un sistema caótico es, precisamente, la predicción del clima. Al presente entendemos como opera el viento, porque y cuando debe nevar o llover, etc, pero a pesar de ello no somos capaces de predecir el clima con el detalle que desearíamos. El trabajo de Lorenz fue publicado en 1960, en una revista de meteorología y le tomó años para ser suficientemente conocido pero, una vez que lo fue, revolucionó el mundo científico. De hecho, para inicios de la década de 1970 algunos científicos trabajaban ya en la forma de encarar estos sistemas caóticos. Una de las principales teorías en este campo ha sido desarrollada por el físico norteamericano Mitchell Feigenbaum, quien ha determinado la existencia de ciertas constantes que se repiten en el comportamiento de los sistemas que tienden al caos, conocidas hoy como “números de Feigenbaum”. Así y en resumen, la búsqueda de una explicación matemática de estos fenómenos naturales complejos, es lo que hoy denominamos Teoría del Caos (dicho en términos un poco más complejos es posible afirmar que la Teoría del Caos es la rama de las matemáticas y de la física que trata de comprender el comportamiento de un proceso determinista, en el cual el valor de una función cambia constantemente en razón de una regla que se define en bases al valor actual de la misma función). Algunas características interesantes de esta Teoría son las siguientes: a.- La dependencia sensible de las condiciones iniciales:
183
Desarrollo Sustentable y temas afines
el estudio del Caos ha puesto de manifiesto la extremada sensibilidad de algunos sistemas (en lo que precisamente radicaría la imposibilidad de su proyección). Es decir, cualquier mínima perturbación o variación en la información o condiciones iniciales de un sistema complejo, producirá un resultado final muy diverso al esperado. Esto es lo que se conoce comúnmente como “Efecto Mariposa”, dado que se suele explicar metafóricamente de la siguiente forma: el simple aleteo de una mariposa puede significar, meses después, un tornado de proporciones a miles de kilómetros de distancia. b.- Se suele relacionar con la denominada Geometría Fractal: en efecto, quien profundice en este tema, encontrará en la literatura de divulgación científica una interesante relación entre, por un lado, las constantes a las que se refiere Feigenbaum y, por otro lado, la denominada “Geometría Fractal”, la que también se ha desarrollado a partir de la década de 1970. Para explicar básicamente esta relación cabe señalar que un fractal es una figura geométrica con una estructura compleja que se repite a cualquier escala, mayor o menor. Lo interesante es que los fractales parecen estar presentes en diversos ámbitos de la naturaleza, como por ejemplo en la similitud de la forma de una rama de un árbol con la forma del árbol mismo, o en las “irregularidades” de la geografía de un litoral a cualquier escala que se aprecie. Lo que ha cautivado la atención de este tema es que se ha sugerido por algunos científicos que las aparentes “irregularidades” de la naturaleza -en diferentes campos, desde una flor a las galaxiaspodrían tender a una constante a mayor escala que recién estaríamos empezando a comprender. Por ello el estudio de los fractales en la ciencia ha crecido rápidamente, y en alguna forma -mediante estas constantes- tiende a relacionarse con el estudio del Caos. Se ha estimado que la tecnología de los fractales es en cierta forma la representación gráfica de problemas dinámicos.
184
Alejandro Canut de Bon L.
Por ello, esta tecnología podría quizás ayudarnos a entender, al menos intuitivamente, los sistemas dinámicos de la naturaleza. 48 c.- Se suele relacionar de manera indirecta con la denominada Teoría del Todo. Para comprender esta relación indirecta, cabe hacer la siguiente explicación. La Teoría del Todo es una estructura teórica hipotética (es decir, aún no es realidad), que en caso de llegarse a formular podría dar explicación unificada de la naturaleza. En efecto, en la naturaleza existen cuatro fuerzas fundamentales, cuya comprensión independiente permite explicaciones parciales de los fenómenos naturales. La primera de estas fuerzas fundamentales es la Gravedad, explicada originalmente por Newton (quien nos dio con esto la visión determinista de la ciencia) y comprendida hoy mediante la Teoría General de la Relatividad de Einstein (1915); La segunda de estas fuerzas es el Electromagnetismo, explicada por Maxwell durante el siglo XIX (su comprensión permitió entre otras cosas los avances en las telecomunicaciones que caracterizaron el siglo XX). Durante el inicio del siglo XX se incorporaron a esta lista la Fuerza Nuclear Débil y la Fuerza Nuclear Fuerte.
El hecho que la naturaleza contenga ciertas formas o proporciones que se repiten a diversas escalas y en diversos aspectos, se relaciona -de manera curiosa- con ciertos temas de conocimiento popular, como lo es por ejemplo la famosa “Serie de Fibonacci”. Esta serie de números, dónde cualquiera de ellos es siempre la suma de los dos anteriores: 1,1,2,3,5,8,13,21,34,55 etc., constituye una secuencia interesante por varias razones. En efecto, conforme se avanza en la serie, el resultado de la división de cualquiera de los números de la secuencia, hecha por el anterior, tiende siempre a 1.618. Se suele decir que este número y secuencia se encuentra en la forma de diversas estructuras o manifestaciones de la naturaleza -caracoles, flores, tormentas, galaxias, etc- y se asocia además con la base de la estética occidental, al relacionarse con la denominada Proporción Áurea o Proporción Divina (1.618) (por ejemplo, en la arquitectura, se suele considerar bello el edificio que en sus proporciones contenga este número, como es el caso del Partenón en Grecia). El nombre de la Serie se debe a que ella fue formulada por el matemático nacido en Pisa, Leonardo de Pisa, apodado Fibonacci (1170-1230), conocido como el más grande matemático europeo de la Edad Media, quien en 1202 publicó el libró titulado “Liber Abasí” que influyó decisivamente, entre otras cosas, en la popularización y uso de los números árabes en Europa (mismos números que utilizamos hasta el presente. Anteriormente se utilizaban los números romanos). 48
185
Desarrollo Sustentable y temas afines
El hecho importante para lo que nos preocupa es que tres de estas fuerzas -el electromagnetismo y las dos fuerzas nuclearesse estudian y procuran explicar bajo lo que se denomina Teoría de la Mecánica Cuántica (la que nos sirve para entender el mundo de las partículas subatómicas). Por otro lado, la fuerza de la gravedad se estudia y explica -como ya se señaló- bajo lo que se denomina Teoría de la Relatividad General (que nos sirve para entender el mundo de los grandes astros). Lo curioso es que estas dos teorías aparecen como incompatibles entre sí. De esta forma, uno de los mayores desafíos actuales de la ciencia física (si es que no el mayor) es encontrar una teoría que sirva para explicar el universo de lo micro y de lo macro a la vez, es decir, una descripción unificada de todas las fuerzas fundamentales de la naturaleza. Esta teoría hipotética es lo que se denomina la Teoría del Todo, y su importancia y relación con el Caos radica en que esta teoría podría permitir la comprensión de los fenómenos de la naturaleza que hoy no somos capaces de explicar. 49 Ahora bien, cabe preguntarse a esta altura, cuál es la relación de la Teoría del Caos con el medioambiente (o, en otras palabras, porque nos referimos a la Teoría del Caos en este libro). La respuesta es simple, y consiste en la comprensión de los fenómenos naturales y del ecosistema. El hecho es que el cuidado También se suele relacionar la Teoría del Caos con el Principio de la Incertidumbre de Heisenberg, con el Teorema de la Incompletitud de Gödel, y -en una perspectiva más filosófica e indirecta- con el experimento del Gato de Schrödinger. El Principio de Incertidumbre fue formulado en 1927 (y por él Heisenberg obtendría el Premio Nobel en física en 1932). Este principio declara que no es posible realizar una determinación exacta y simultánea de la posición y del momento de un cuerpo. El Principio de la Incertidumbre destronó la ley de causa y efecto, que había reinado en la ciencia desde Newton, debilitando de paso la filosofía determinista del Universo. Einstein no concordó con Heisenberg sobre la validez de este principio, y su oposición suele resumirse en la siguiente frase: “Dios no juega a los dados con el Universo”, contenida en una carta que le envió a otro físico (Born), y en la que le explica que no está de acuerdo en el carácter aleatorio, y probabilístico de la física cuántica. Steve Hawking señaló en relación a esta frase que: “Al parecer Einstein estaba doblemente equivocado cuando afirmó que “Dios no juega a los dados”. Los estudios sobre la emisión de partículas desde agujeros negros permiten sospechar que Dios no solamente juega a los dados, sino que, a veces, los echa donde nadie puede verlos”. 49
186
Alejandro Canut de Bon L.
del medioambiente a través del derecho y la economía, presupone -para su efectividad- el entendimiento científico de la naturaleza. Asumimos en la cultura occidental este entendimiento con la visión científica que ha caracterizado la ciencia de los últimos 400 años (reduccionismo, causa-efecto, determinismo), pero empezamos a estar advertidos que la misma ciencia está descubriendo en las últimas décadas que dicho entendimiento parece en alguna forma parcial, y por lo mismo se sigue buscado hoy una comprensión holística de la naturaleza. 50 Es curioso como este tema que parece altamente teórico, explica situaciones prácticas. Por ejemplo, asumimos que el conocimiento científico y, en especial, la ley de la causaefecto, nos permite determinar con toda precisión los impactos ambientales que un nuevo proyecto industrial producirá en el entorno en que se construirá. Para ello se levanta primero lo que se denomina “línea base” del lugar, a la que se suma, posteriormente, el nuevo proyecto, determinando así los efectos o consecuencias de éste. Es tal la fe que nuestra cultura ha desarrollado en la visión reduccionista de la naturaleza, que las leyes ambientales que crean los sistemas de evaluación de impacto ambiental ni siquiera se ponen en el supuesto que las variantes ambientales que determinaron la aprobación o rechazo de un Estudio de Impacto Ambiental, puedan evolucionar de una manera diversa a la prevista científicamente, mediante la más estricta causa-efecto. Se ha producido en estos casos inclusos vacíos legales notorios. Sobre este punto volveremos en el artículo subsiguiente (“Estudio de Impacto Ambiental, naturaleza e incertidumbre”). Nuestro lugar en la historia de la Tierra El mayor impacto que el avance de la ciencia ha tenido en nuestra forma de pensar, a lo largo de los últimos 500 años, Como se ha señalado en el artículo anterior (¿Qué es la ciencia?), resulta interesante estudiar la forma en que la visión que tenemos de la ciencia ha cambiado durante el siglo XX, y como ello ha influido particularmente en la filosofía de la ciencia. 50
187
Desarrollo Sustentable y temas afines
es el habernos permitido comprender el verdadero lugar que ocupamos -como especie- en la historia de la Tierra. Como es sabido, hasta fines de la Edad Media la visión que teníamos de nosotros mismos, era la de ser la especie ubicada desde el inicio de los tiempos en el centro del Universo, con el Sol y los planetas girando a nuestro alrededor (concepción geocéntrica), en donde el Universo estaba compuesto sólo por la Tierra, el Sol, cinco planetas (Mercurio, Venus, Marte, Júpiter y Saturno) y las estrellas.51 Es más, para muchos la Tierra había sido creada a las nueve de la mañana del 23 de octubre del año 4004 a.C.. Esta posición, sostenida y defendida por algunos hasta incluso entrado el siglo XX, era el resultado del estudio realizado por James Ussher (15801656), obispo de Armagh y profesor de Teología del Trinity College de Dublin, quien había llegado a esa conclusión después de sumar rigurosamente las edades de los patriarcas indicados en el Antiguo Testamento. El primer gran paso que contribuiría a cambiar esta concepción del Universo y de nosotros como una especie privilegiada al centro de él, fue iniciado por Nicolás Copernico (1473-1543) quien propuso considerar la posibilidad de que fuera el Sol, y no la Tierra, el centro del Universo (concepción heliocéntrica). El libro de Copérnico, publicado en 1543, se titula “De revolutionibus orbium coelestium” (Sobre las revoluciones de los cuerpos celestes) y es considerado uno de los libros más importantes dentro de la historia de la ciencia. La teoría de Copérnico fue posteriormente perfeccionada por el alemán Johannes Kepler (1571-1630), y por el Italiano Galileo Galilei (1564-1642). Tan influyente fue este aporte, que de hecho se ha afirmado que la ciencia moderna es -en medida Estos cinco planetas eran conocidos desde la Antigüedad. Recién en 1789 se descubre Urano, en 1846 Neptuno, y en 1930 Plutón (este último re-clasificado el 2006 como “plantea enano”). 51
188
Alejandro Canut de Bon L.
importante- producto de la revolución que en el mundo científico significó esta nueva concepción del Universo. El segundo gran paso fue sin duda el conjunto de descubrimientos que tuvieron lugar en el cambio de la Edad Moderna a la Edad Contemporánea (1750-1850). Entre estos, el aporte hecho por Charles Darwin (1809-1882) es seguramente el de mayor importancia, al punto que se afirma que el impacto que representó Darwin en la cultura occidental es de tal naturaleza y profundidad, que se inscribe con facilidad entre los logros científicos que -de manera aislada- han influido con mayor fuerza en la evolución del pensamiento. Sólo comparable con los nombres de Copérnico, Galileo, Newton y Einstein. Nos
189
Desarrollo Sustentable y temas afines
referimos por cierto a la Teoría de la Evolución y a la Teoría de la Selección Natural, sistematizadas y publicadas en el texto “El origen de las especies por medio de la selección natural” (1859). Básicamente la teoría de Darwin consiste en el siguiente razonamiento: 1).- La población de toda especie está en constante reproducción y crecimiento; 2).- En este crecimiento tienen más posibilidades de sobrevivir y reproducirse aquellos individuos con
190
Alejandro Canut de Bon L.
características o rasgos que le permiten superar con mayor facilidad las fuerzas adversas del entorno, mientras que los que carecen de estos rasgos tienen menos posibilidades de sobrevivir, alcanzar la madurez y reproducirse; 3).- Las características o rasgos tienden a heredarse de generación en generación; 4).- Por tanto, en el curso de muchas generaciones, se van fortaleciendo y perpetuando las características o rasgos que favorecen la sobrevivencia, mientras que los otros van paulatinamente desapareciendo. De esta forma, en un proceso lento y gradual, imperceptible en el corto plazo, pero muy claro en el largo término, se va modificando la especie, incluso al punto de parecer una diferente, sobre todo si el proceso tiene lugar de manera paralela en diversas latitudes o lugares geográficos (diferentes hábitats, demandan diferentes rasgos de sobre vivencia)52. El hecho importante es que así como Copérnico y Galileo habían sacado a la Tierra del centro del Universo, Darwin sacó al hombre del centro de la historia de la Tierra. A esto se sumaron los decisivos avances registrados por la geología, la estratigrafía, la paleontología y la arqueología, los que en su conjunto permitieron una visión diferente de la historia de la Tierra y de la historia del hombre en ella.
Otra forma bastante común de presentar el aporte de Darwin es dividiendo sus ideas en dos teorías: Por un lado, la Teoría de la Evolución (consistente en que todas las especies han evolucionado desde otras especies pre-existentes) y, por otro lado, la Teoría de la Selección Natural (consistente en que las características que permiten con mayor facilidad la supervivencia de una especie cualquiera, tienden a heredarse y a perpetuarse en esa especie, determinando así el proceso mismo de la evolución). La primera de estas dos teorías fue rápidamente aceptada por la comunidad científica, mientras que la segunda fue en general rechazada y discutida. La Teoría de la Selección Natural sólo sería aceptada por la comunidad científica gracias a las investigaciones realizadas durante la segunda década del siglo XX, complementarias de la Teoría de la Herencia de Gregorio Mendel (1865), en lo que se ha denominado Neodarwinismo (teoría que explica la evolución conjugando factores genéticos con la idea de la selección natural. Fue formulada en 1918 por los británicos Ronald Fisher y John Haldane, junto al norteamericano Sewell Right). 52
191
Desarrollo Sustentable y temas afines
En efecto, la geología (del griego “geo”, tierra, y “logos”, conocimiento) se desarrolló fuertemente a partir de fines del siglo XVIII e inicios del siglo XIX. Después de un duro debate para sentar las bases de la geología, el gran aporte lo constituyó el texto titulado “Principios de geología” (1830) del británico Charles Lyell (1797-1875) quien desafió fuertemente las interpretaciones religiosas de la formación y evolución de la Tierra (influyendo notablemente en Darwin, quien leyó sus libros durante su viaje a Sudamérica como naturalista de la expedición del Capitán Robert Fitz Roy. Nótese que esta lectura dio a Darwin el tiempo geológico que la evolución requeriría). Formadas las bases de una lectura científica de la formación de la Tierra, se lograron otros tantos e importantes avances científicos: en 1840 el suizo Jean Luis Agassiz (1807-1873) formuló la teoría consistente en que la Tierra en algún momento había estado cubierta en su mayor parte por glaciares (Edad del Hielo), y; en 1885 el vienes Eduard Suess (1831-1914) publicó el primero de cinco volúmenes, titulado “La Cara de la Tierra”, permitiendo un nuevo entendimiento de la formación de las montañas. Esta última teoría facilitaría a su vez la comprensión de otros fenómenos naturales, como los terremotos; y la formulación de otras teorías, como la denominada “Teoría de la Deriva Continental” formulada en 1912 por el Alfred Wegener (18801930). Esta última teoría -que tardó décadas en ser aceptada del todo- nos enseñó que los continentes se encontraban unos 225 millones de años atrás unidos en un sólo supercontinente, al que se denominó Pangaea (del griego “pan gaia”, todo tierra). Por su parte, la estratigrafía (estudio de las rocas vistas como capas o estratos de la Tierra), siguiendo la “ley de superposición” enunciada por el danés Nicolaus Steno (1638-1686), se desarrolló rápidamente durante el siglo XIX como parte de la geología, y nos enseñó a clasificar las rocas en ígneas, metamórficas y sedimentarias, permitiéndonos leer por vez primera la historia de la Tierra, como si las diversas capas o estratos se transformaran en las hojas de un libro con millones de años. 192
Alejandro Canut de Bon L.
Junto a la estratigrafía se desarrolló la paleontología, el estudio de la vida en la prehistoria, sea animal o vegetal, realizado mediante el análisis de fósiles encontrados en los estratos. Durante el siglo XIX se descubrieron y reconstituyeron los primeros esqueletos de dinosaurios (Inglaterra - 1820), lo que dio paso a un estudio sistemático de los fósiles en general, facilitando esto a su vez la identificación y clasificación de los estratos. Esta rama de la ciencia se desarrolló principalmente gracias al aporte de los británicos William Smith (1769-1839) autor del Mapa Geológico de Inglaterra y Gales (1815), Richar Owen (18041892) acuñador del término “dinosaurios” (terribles lagartos), y Tomas Huxley (1825-1895), quien estudiando el primer fósil de Archaeopteryx (descubierto en 1860, en Alemania) concluyó que se trataba de un perfecto ejemplo de la Teoría de Darwin53. Por último, la arqueología se desarrolló también fuertemente durante el siglo XIX. En el año 1807 se fundó el Museo Nacional de Dinamarca que estableció -en la presentación de sus muestras- la clásica división de la Prehistoria que se utiliza hasta el presente: Edad de Piedra, Edad del Bronce y Edad del Hierro. En este mismo siglo se realizaron importantes trabajos de excavación en el antiguo mundo clásico y, los descubrimientos de los que posteriormente se denominaron Hombre de Cro-Magnon (1834), Hombre de Neandertal (1856) y Hombre de Java (1891).54 El Archaeopteryx cooperó fuertemente en la aceptación de la teoría de Darwin, al proveer una suerte de eslabón perdido entre dos grupos de animales: los reptiles y los pájaros. De tamaño pequeño (como una paloma o cuervo) se parecía en mucho a los pequeños dinosaurios (contaba con dientes, extremidades posteriores muy desarrolladas, y una larga cola), pero -a diferencia de los dinosaurios- contaba también con alas, siendo probable que volara. 54 Muy básicamente se ha establecido que la secuencia de la evolución del hombre podría ser la siguiente: 1).- Los Australopitecos, aparecidos hace dos a cinco millones de años y extinguidos hace unos 500 mil años. Fueron los primeros en caminar semi-erguidos y en utilizar herramientas muy rudimentarias (huesos partidos); Los Australopitecos más famosos en la actualidad son Lucy y la Niña de Tung. El primero de estos dos, conocido también como “la Madre Genética de la Humanidad”, es un fósil de una mujer de aproximadamente 25 años de edad, 25 kilos, y un metro de estatura, descubierto en Etiopía, en 1974, bautizado con el nombre de Lucy debido a 53
193
Desarrollo Sustentable y temas afines
En pocas palabras, durante el siglo XIX se formó la historia moderna de la Tierra. Y con ella, el hombre fue poco a poco convenciéndose de que el papel que ha jugado en la historia de nuestro planeta es mucho menor al que originalmente había estimado. De hecho actualmente se calcula que si toda la historia de la Tierra se comprimiera en sólo un año, el hombre recién aparecería en esta historia dentro de la última hora del día 31 de Diciembre de dicho año. Es más, el periodo que va desde el inició de la civilización en Mesopotamia al presente, equivaldría -matemáticamente- al último segundo del último minuto. Los que en el momento de su descubrimiento el arqueólogo encargado estaba escuchando la canción de los Beattles “Lucy in the Sky with Diamonds”. Lucy fue una mujer que vivió hace aproximadamente 3.2 a 3.5 millones de años, y representa el esqueleto más antiguo jamás hallado de un antepasado de la humanidad que caminará semi-erguido. El segundo, la Niña de Tung, fue el primer Australopiteco descubierto (1925). Se trata de una infante encontrada en la cueva de Tung, en Sudáfrica. Con este descubrimiento se dio inicio a la paleontología moderna. Ahora bien, se trata de antepasados de la humanidad, pero no se piense que la apariencia de los Australopitecos se asemejaba a la de un hombre actual. Por el contrario, es muy similar a la de un simio, en su cara y en su cuerpo. Su principal importancia en la evolución es el hecho de haber caminado semierguido, y -por ello- haber dispuesto de manos, lo que le permitió utilizar piedras como herramientas. No se vestían, carecían de idioma y de cualquiera otra manifestación de inteligencia superior. A inicios del 2005 se comunicó el hallazgo de un nuevo homínido, más antiguo que Lucy, de seis a siete millones de años, descubierto en Chad y bautizado como Toumai, que significa esperanza en dialecto Chad, pero para fines del mismo 2005 se había discutido su autenticidad; 2).- El Homo Erectus (Ej: Hombre de Java, Hombre de Pekín), habría aparecido hace unos 800 a 500 mil años atrás. Fueron los primeros en caminar en posición totalmente vertical, en utilizar herramientas de piedra y fuego, y en vivir en tribu; 3).- El Hombre de Neandertal, que habría vivido aproximadamente en el periodo que va desde el año 120 mil al año 35 mil a.C.. Se trató de una especie de Homo Sapiens diferente a la especie humana (Homo Sapiens Sapiens), que habría realizado los primeros entierros, se habría comunicado, vestido, vivido en familia o en comunidad. Eran bajos, pero de contextura fuerte. Los primeros restos de un Neandertal fueron encontrados en 1856, en el valle de Neandertal, en Alemania. A la fecha se han encontrado más de 300. Se habría extinguido durante la última glaciación (quizás como resultado de la aparición de la especie humana con la que habría competido por los mismos recursos, pero sin llegar a mezclarse: en 1996, mediante análisis de ADN se concluyó que los Neandertal no corresponden al Homo Sapiens Sapiens, con lo que se comprobó algo que sólo se venía sosteniendo desde mediados del siglo XX: que no existió sólo una linea de evolución); 4).- Por último, el Hombre de Cro-Magnon, correspondiente al Homo Sapiens Sapiens (es decir, nosotros, los primeros en expresarse artísticamente).
194
Alejandro Canut de Bon L.
últimos 2000 años, representarían menos de un segundo. 55 A todo esto se suma que en sucesivos descubrimientos durante el siglo XX se ha comprendido que la Tierra es un planeta más (uno de los nueve que contiene nuestro sistema solar), orbitando una estrella más (una de las cientos de millones que existen en nuestra galaxia, la Vía Láctea), en una galaxia más (una de las cientos de millones que existen en nuestro Universo visible). Incluso se ha llegado a sostener que el Universo, siempre
Desde un punto de vista científico se estima la edad de la Tierra en aproximadamente 4.5 mil millones de años. Esto se ha concluido producto de las investigaciones realizadas en base a la radioactividad- del científico Bertram Boltwood. En efecto, a principio del siglo XX (1907) Boltwood descubrió que el uranio se descompone muy lentamente transformándose en plomo, lo que le permitió calcular la edad de la Tierra determinando la proporción plomo/uranio que se encuentra en los estratos de las rocas (a mayor cantidad de plomo, mayor antigüedad). Ahora bien, estos 4.5 mil millones de años se dividen desde un punto de vista geológico en Eras, las que a su vez se subdividen en Periodos, los que se vuelven a subdividir en Épocas y en Edades. Las Eras son cuatro, del presente hacía atrás: 1).- Cenozoico (desde el presente hasta aproximadamente 65 millones de años atrás. Se compone de dos periodos, el Cuaternario y el Terciario. La evolución del hombre en la tierra habría ocurrido principalmente en los últimos dos millones de años, durante el Cuaternario); 2).- Mesozoico (desde 65 millones de años a aproximadamente 250 millones de años atrás. Se compone de tres periodos, el Cretácico, el Jurásico y el Triásico. Los dinosaurios habrían aparecido durante el Tríasico, habrían tenido su apogeo durante el Jurásico, y habrían desaparecido al final del Cretácico); 3).- Paleozoico (desde 250 millones de años a aproximadamente 570 millones de años atrás), y; 4).- Precambrico (desde 570 millones de años al inicio de la historia de la Tierra). Por último, cabe destacar que la edad del Universo se ha estimado en aproximadamente 14 mil millones de años. 55
195
Desarrollo Sustentable y temas afines
en expansión, no es único. 56/ 57 Todos estos descubrimientos, además de desafiar concepciones religiosas (que de hecho podríamos considerar un tanto egocéntricas), han hecho comprender -sólo en las últimas Considerando estos nuevos conocimientos, en 1961 el científico americano Frank Drake, propuso una ecuación que ha ganado notable fama (y controversia) en las últimas décadas, y que se conoce de hecho como la Ecuación Drake . Esta ecuación procura estimar el número de civilizaciones tecnológicamente avanzadas que podrían estar presentes en nuestra galaxia y que podrían ser capaces de comunicarse con nuestra civilización. Para ello, utiliza una serie de parámetros. La Ecuación Drake es la siguiente: N = R* · fs · ne · fl · fi · fc · tvida; Donde: R*: es el ritmo de formación de estrellas (por año) en nuestra galaxia; fs: es el porcentaje de estrellas que pueden alojar planetas; ne: es la fracción de planetas que son habitables; fl: es la fracción de planetas habitables en los que podría desarrollarse finalmente vida; fi: es la fracción de planetas con vida en los que ésta podría evolucionar hacia una forma inteligente; fc: es la fracción de estos planetas en los que podría aparecer una civilización capaz de desarrollar una tecnología suficiente para comunicarse con otras civilizaciones; y, tvida: es el tiempo medio de vida de dicha civilización (en años) antes de que se produzca su extinción. La fórmula es la expresión algebraica de un razonamiento lógico secuencial, sobre las condiciones que tendrían que darse para que una civilización éste en un estado tal que posea la tecnología apropiada para comunicarse. La Ecuación de Drake no pretende tener una validez científica, sino solamente brindar un juego intelectual para poder avizorar la posibilidad de vida inteligente a medida que la ciencia va ampliando sus horizontes. El resultado es impresionante, con millones de posibilidades, lo que plantea una fuerte inquietud sobre nuestra propia existencia, originalidad y fragilidad. 57 La historia del descubrimiento de la expansión del Universo parte en el siglo XIX. En efecto, en 1842 el físico austriaco Cristian Doppler (1803-1853) formuló el siguiente enunciado: el cambio relativo en la frecuencia (longitud) de una onda de sonido, es percibido como un cambio en la frecuencia de la onda misma o, lo que es equivalente, como un cambio en la naturaleza del sonido. Posteriormente se comprendió que los cambios que se producen de manera relativa en la frecuencia de las ondas de sonido, también se producen en la frecuencia de las ondas de luz. La diferencia es que mientras los cambios relativos en la frecuencia de las ondas de sonido producen cambios en el sonido mismo (que van de grave a agudo o viceversa, como se aprecia cuando un automóvil se acerca a nosotros en comparación a cuando se aleja), los cambios relativos en la frecuencia de las ondas de luz dan lugar a cambios en los colores que componen el espectro respectivo. De esta forma, una menor frecuencia (mayor longitud de onda) dará lugar a lo que se denomina, “corrimiento al rojo”. Así, un objeto que se aleja de nosotros (y cuyas ondas de luz se perciben por lo mismo con una menor frecuencia), producirá una luz cuyo espectro presenta el corrimiento indicado. Esta fue la clave que permitió al astrónomo Edwin Hubble (1889-1953) la formulación de su importante teoría de Expansión del Universo (1929), la que daría a su vez lugar a la teoría del Big-Bang formulada por el ruso George Gamow (1904-1968) en 1948. En efecto, al considerar el Efecto Doppler en el análisis de los espectros de luz que emiten las galaxias lejanas, se concluyó que dichas galaxias se alejan de nosotros y que, por lo mismo, el Universo de expande. 56
196
Alejandro Canut de Bon L.
décadas- que la naturaleza tiene su propio ritmo, y que muchos de los cambios que nosotros -como especie- podamos producir en el clima y en los ecosistemas de la Tierra son evidentemente más importantes para nuestra supervivencia y la de otras especies, que para la de la Tierra misma. Algunos hechos que nos ayudan a captar la verdadera importancia de nuestra realidad son -por ejemplo- el hecho que un meteorito de gran tamaño pueda caer -como ha ocurrido miles de veces en el pasado- extinguiendo especies y cambiando el clima de la Tierra de un segundo a otro58 o, la posibilidad que, como se ha sugerido científicamente, la causa de los periodos glaciales consista en que la galaxia en que se sitúa nuestro sistema solar, la Vía Láctea, rote en un ciclo de millones de años, llevando al sistema solar -y a la Tierra- por diversas regiones interestelares, alterando por ello el clima de nuestro planeta drásticamente cada cierta cantidad de años. El último periodo glacial terminó aproximadamente sólo hace 12 mil años (menos de un par de segundo en la historia de la Tierra), y aún no se sabe por qué. Estimamos prudente traer a reflexión estos hechos, porque de alguna forma ellos se relacionan con nuestra percepción de la naturaleza y de la estabilidad del medioambiente que tanto cuidamos. Este tipo de fenómenos naturales, como los comentados, mucho mayores a la historia del hombre en la Tierra, nos permiten comprender lo relativo y frágil que es nuestra especie, y más que ello, el hecho que la estabilidad que percibimos y cuidamos es quizás comparable con la estabilidad que una simple hormiga Fue el científico Eugene Shoemaker quien durante el siglo XX probó que la Tierra, al igual que la Luna, había sido en el pasado objeto de golpes de meteoritos. Con esa base advirtió de la posibilidad de nuevos impactos que podrían aniquilar la humanidad, y predijo (con éxito) en 1993 el impacto producido por un cometa contra Júpiter en 1996. Todo esto ha dado lugar a programas internacionales que rastrean el espacio procurando prever la posibilidad de un impacto con la Tierra, denominados NEOs (Near Earth Object, es decir Objetos Cercanos a la Tierra). Este tema de objetos celestes chocando con la Tierra, se suele relacionar con la teoría conocida como “Panspermia” (del griego pan, totalidad, y spermia, semilla) de los astrónomos Fred Hoyle y Chandra Wickramasinghe, que defiende que la vida procede del espacio en forma de microorganismos que llegaron transportados por cometas que golpearon la Tierra. 58
197
Desarrollo Sustentable y temas afines
percibe en su corta vida al interior de un bosque, durante una tarde de un día soleado de verano. Ella no comprende que el día terminará, que el verano dará paso a otra estación más severa, que lloverá y nevará, que soplará el viento, las hojas se caerán y la temperatura bajará, etc, etc. En pocas palabras que el medioambiente y la naturaleza en general obedecen a un ciclo mayor, mucho mayor de aquel que la humanidad ha sido testigo y que podamos comprender.
Estudios de Impacto Ambiental, naturaleza e incertidumbre Durante las últimas décadas del siglo XX las legislaciones
198
Alejandro Canut de Bon L.
ambientales de los más diversos países pusieron en aplicación los denominados “sistemas de evaluación de impacto ambiental”. A partir de la entrada en vigencia de estos sistemas, el particular que desea realizar un proyecto empresarial debe, previo al inicio de la construcción del proyecto, someterse a evaluación ambiental. Esto último lo hace presentando a la autoridad ambiental un documento, generalmente denominado “Estudio de Impacto Ambiental” (EIA). En dicho documento, el particular debe predecir y evaluar todos los impactos ambientales que su proyecto industrial producirá. La autoridad ambiental analizará el EIA, y lo aprobará o rechazará, según corresponda (es decir dependiendo de si los impactos ambientales que el proyecto producirá son o no aceptables). Como es sabido, para que el sistema funcione, el titular del proyecto debe primero levantar lo que se denomina “línea base”, es decir la descripción detallada del área de influencia del proyecto que se propone construir, incluyendo los aspectos biológicos, químicos, físicos, sociales, etc. Sobre esta línea base debe simular el proyecto industrial, determinando así las consecuencias que éste produciría -en la eventualidad de ser aprobado y construido- en el área respectiva. Ahora bien, se comprenderá que el espíritu del sistema de evaluación de impacto ambiental descansa en la idea de que la naturaleza funciona, en su totalidad, en base estricta a la ley de causa-efecto, y que ella puede ser totalmente comprendida por la ciencia. Por lo mismo, cual reloj, una vez establecidas las condiciones iniciales, las consecuencias de todo futuro cambio pueden ser determinadas, proyectadas, con total precisión. Por ello, el titular de un proyecto industrial debe primero obtener la línea base (condiciones iniciales), sumar a ella su proyecto (nuevas condiciones), y proyectar así la diferencia, en la naturaleza, entre dos situaciones; una sin proyecto y otra con proyecto. En ello consiste en su esencia una evaluación de impacto ambiental.
199
Alejandro Canut de Bon L.
Pero, ¿es posible proyectar toda futura variación de la naturaleza?.... ¿qué sucede si, una vez aprobado el proyecto, se presenta durante la vida de éste un impacto ambiental que no fue previsto (no fue proyectado) en el EIA?...; Recordemos que no todo impacto es efectivamente predecible o proyectable y que la naturaleza a veces nos resulta esquiva, no por negligencia, sino por su esencia. Hemos hablado a lo largo de este texto de la Teoría del Caos y de la incertidumbre; hemos enunciado como el reduccionismo y la ley causa-efecto no siempre permiten asegurar la proyección que en detalle buscamos, y; lo más importante, hemos planteado que durante el siglo XX el hombre terminó de descubrir que la naturaleza tiene una escala de eventos mucho mayor a nuestra medida, con glaciaciones y sequías, creaciones y extinciones, etc, que por cierto escapan a nuestro entender, como especie. Los modelos que utilizamos se hacen, muchas veces, en base a registros que en escala geológica comprenden sólo los últimos segundos de la vida de nuestro planeta. En fin, parece ser que la naturaleza no se nos revela totalmente, por mucho que avancemos en la ciencia, al punto que es nuestro paradigma -sobre lo que la ciencia es- lo que ha empezando a cambiar (Véase “¿Qué es la ciencia?”). Estamos empezando a comprender que exigir una proyección de todo posible efecto, en detalle, atenta -en ocasiones- contra el viejo adagio que nos enseña que “nadie debe estar obligado a lo imposible” (piénsese por ejemplo en un modelo hidrogeológico. Asumir su perfecto funcionamiento y creer que se puede modelar toda posible variación, implica desconocer la complejidad que le es propia y significa asumir pretenciosamente que se comprende a la perfección el funcionamiento de la naturaleza). Teniendo todo esto presente, no se puede dejar de pensar en lo pretencioso que suena esperar que los estudios de impacto ambiental proyecten siempre, en todo caso, en detalle y con certeza, todo posible efecto de nuestro actuar. Por cierto que ello no quiere decir que estemos en presencia de un instrumento 201
Alejandro Canut de Bon L.
ineficiente, que debamos obviar, pero -dicho a contrariis- si quiere decir que la evaluación de impacto ambiental no es, en todo caso, un instrumento infalible. Y si esto último es efectivo, debemos entonces concluir que -en algunos casos complejos- aún cuando medie la mejor de las evaluaciones posibles, el hecho es que un grado importante de incerteza nos acompañará a lo largo de la vida de algunos proyectos industriales y, por lo mismo, la gran pregunta que queda flotando en el aire es la siguiente: ¿cómo podemos distinguir en aquellos casos los impactos que se deben a mega ciclos naturales, de aquellos que causa el proyecto?..... Es más, ¿de hacerse efectivo un impacto no previsto (de causa desconocida), quién será el responsable por él?... ¿quién asumirá su costo?..., ¿el particular que presentó el EIA, o la autoridad o sociedad que lo aprobó?... Existirán de seguro proyectos en que los nuevos impactos podrán ser identificados en sus causas e incluso mitigados (si se deben al proyecto), pero habrán otros en los que nada de esto será posible..... en estos últimos, ¿será alguien responsable de lo imposible?...
Hipótesis de Gaia El nombre de esta hipótesis proviene del nombre que los antiguos griegos daban a la diosa de la Tierra, Gaia, hija de Caos, 203
Desarrollo Sustentable y temas afines
y su contenido descansa básicamente en la idea de que nuestro planeta es un gran organismo, dotado de la facultad de generar y mantener las condiciones medioambientales necesarias para el desarrollo de la vida animal y vegetal. Es decir, un sistema en el cual cada una de sus partes se encuentra relacionada con las otras, tal cual ocurre con las células de un mismo cuerpo, como si se tratara de un ente vivo, de un superorganismo biológico, que se auto-ajusta y auto-regula constantemente. Esta idea es tan antigua como la cultura occidental, pero no había sido presentada seriamente sino hasta bien entrado el siglo XX. En efecto, en 1972, el inglés James Lovelock (1919- ), un científico que trabajó para la NASA -durante la década de 1960- explorando la posibilidad de vida en Marte, insistió en esta controversial hipótesis, obteniendo en un inicio un generalizado rechazo por parte de la comunidad científica. Quizás si esta hipótesis no hubiese sido presentada por un científico de credenciales tan sólidas como las de Lovelock, y vigorosamente apoyada por la microbióloga estadounidense Lynn Margulis, el rechazo habría sido aún mayor, y no se habría vuelto a hablar del tema. En efecto, para muchos de los pares de Lovelock esta hipótesis rayaba en la superstición y el misticismo. Pero para Lovelock las pruebas demostraban que toda la biosfera del planeta Tierra, desde las bacterias a las ballenas, pasando por los árboles, podía ser considerada como un único super organismo. Se dice que Lovelock arribó a esta hipótesis mientras trataba de determinar los signos de vida que debían buscar, en el planeta Marte, los instrumentos que él estaba diseñando para la NASA. Para ello pensó en el proceso contrario, es decir, si él fuera un marciano buscando vida en la Tierra lo único que habría requerido habría sido analizar la composición del aire de nuestro planeta. En efecto, la atmósfera de la Tierra contiene una importante cantidad de oxígeno libre, lo que nos dice que debe haber algo que reponga este oxígeno continuamente, lo 204
Alejandro Canut de Bon L.
que no puede ser otra cosa que la vida. De ello concluyó que en nuestro planeta el conjunto de organismos interacciona para lograr la continuidad de la existencia, al punto incluso que estimó que de haber un cambio en las condiciones que determinan la vida, seguramente el mismo sistema actuaría de alguna forma que permitiera contrarrestar las consecuencias de dicho cambio, a fin de mantener el conjunto de la vida en el planeta. Esto es lo que se denomina homeostasis. Es decir, un sistema que se conserva a sí mismo y que se adapta a los cambios, alterando el medio que lo rodea en la medida necesaria para su propio bienestar (mediante mecanismos correctivos y amortiguadores, de la misma forma en que un animal compensa cambios de temperatura con acciones reflejas de su cuerpo). Impulsado por la idea de que la Tierra se comporta como un gran sistema homeostático, Lovelock se dio a la tarea de buscar pruebas en este sentido, y las encontró en diferentes manifestaciones o equilibrios que se dan en la naturaleza, así por ejemplo en la forma que los océanos mantienen la concentración de sal en sus aguas, o en la manera en que se mantiene constante la temperatura de la Tierra, etc. 59 Con estas pruebas Lovelock publicó en 1979 el libro titulado “Una nueva visión de la vida sobre la Tierra”, volviendo Es un hecho que la atmósfera de la Tierra es única, compuesta aproximadamente en un 79% de nitrógeno, 20% de oxígeno, y 0,03% de dióxido de carbono, mientras que en nuestros vecinos ésta está compuesta casi exclusivamente de dióxido de carbono y algo de nitrógeno. En un inicio la radicación solar era muy menor a la actual, pero ello no congeló los océanos de nuestro plantea debido a que la atmósfera terrestre contenía más dióxido de carbono que en el presente (el dióxido de carbono tiene la característica de retener la temperatura). Conforme el Sol aumentó su radiación, en un proceso de miles de años, las plantas disminuyeron la proporción de dióxido de carbono en la atmósfera, permitiendo mantener la temperatura necesaria para la vida. Esto es, según Lovelock, una manifestación de Gaia. Es decir, a través de los procesos fisicoquímicos toda la materia viva interactúa para mantener las condiciones que permiten la vida. Otra manifestación de esta hipótesis es el hecho que el grado de acidez del agua, el aire y la tierra, se mantenga en un valor neutro (pH 7), óptimo para la vida, no obstante la gran cantidad de ácidos producidos por la oxidación en la atmósfera (de los óxidos nitrosos y sulfurosos), son liberados al descomponerse la materia orgánica. Esto se debe a que la biosfera produce gracias a los procesos metabólicos de los seres vivos una gran cantidad de amoniaco (sustancia alcalina) que anula los ácidos. 59
205
Desarrollo Sustentable y temas afines
a insistir con su hipótesis dos años más tarde, esta vez apoyado en “Daisyworld”, un programa de simulación computacional que le permitió capturar en cierta medida la atención de algunos de sus pares. El modelo procura demostrar que todo ente vivo tiende a regular su medioambiente de manera automática. Su nombre (Daisyworld) se debe a que Lovelock simula un planeta poblado de margaritas (“Daisy”, en inglés), que se regula constantemente frente a las variaciones de temperaturas del Sol. En resumen, la idea que encierra la hipótesis de Gaia invita a considerar a nuestro planeta como una suerte de superorganismo vivo, en el que todas las especies se relacionan e interactúan a fin de mantener las condiciones que le permiten la vida. Considerada de esta forma, la hipótesis resulta científicamente difícil de respetar para muchos de sus pares, dado que contradice la mayor parte de los postulados científicos sostenidos como validos, incluso -en alguna medida- a la Teoría de la Evolución de Darwin (la vida no estaría influenciada por el entorno, sino que el entorno por la vida). Debemos tener claro que si bien es cierto que Gaia es una hipótesis formulada bajo un general rechazo por parte de la comunidad científica, no es menos cierto que de alguna forma ha sabido cobrar cierta atención y respeto durante los últimos años, sobretodo de parte de aquellos que revisan sus postulados a la luz de nuevos paradigmas, teniendo presentes los cambios que nuestra cultura impone al medioambiente.60 Es del caso destacar que el origen de la Hipótesis de Gaia coincide en la historia con el momento en que se realizan las primeras contemplaciones de nuestro planeta desde el espacio exterior. En efecto, la conquista del espacio hecha por el hombre durante los ´60, como así también las diversas naves y sondas enviadas a Marte y Venus, nos permitieron -por vez primera como especie- asombrarnos de la belleza de nuestro azul planeta, y contrastarla con los pálidos colores de nuestros planetas vecinos. Quizás fue esta posibilidad de mirarnos a nosotros mismos desde el espacio exterior la que permitió la idea de que nuestro planeta (su biosfera, para ser más preciso) es un sistema en sí, lo que facilitó un trabajo conjunto de diversas disciplinas -como la geología y la biología- sentando las bases para esta hipótesis que nos muestra a nuestro planeta como un todo. Se dice que el nombre de la teoría -Gaia- fue propuesto a Lovelock por 60
206
Alejandro Canut de Bon L.
su amigo, Premio Nobel en Literatura, William Goldging (autor de “El Señor de las Moscas”).
207
Desarrollo Sustentable y temas afines
Globalización y Medioambiente
Este capítulo nos hace reflexionar sobre la globalización desde una doble perspectiva. Por un lado, el hecho que los grandes problemas ambientales no respetan fronteras y afectan a los más diferentes rincones del planeta y, por otro lado, el hecho que las soluciones ambientales se están estandarizando también a nivel internacional.
La destrucción del ozono y el Calentamiento Global Entre los temas ambientales que más preocupan actualmente, y sobre los que más se ha escrito, se encuentran dos que tienen un claro común denominador, cual es el hecho de 208
Alejandro Canut de Bon L.
demostrar que el problema ambiental carece de fronteras. En efecto, en muchos casos no importa donde se produzca el acto contaminador, pues el efecto se extiende a diferentes rincones del planeta llegando, a veces, a alcanzar a toda la humanidad. Así ocurre con la destrucción de la capa de ozono y con el fenómeno del calentamiento global. En las próximas líneas nos referiremos a estos dos fenómenos, tanto con la finalidad de comprender básicamente en que consisten, cuanto con el deseo de comentar la globalidad del problema ambiental: a.- ¡¡¡¡Falta un pedazo de cielo!!!!!... Quizás ésta es una buena expresión para resumir la sensación de asombro que la progresiva destrucción de la capa de ozono cobró repentinamente a inicios de la década de los setenta. La historia es la siguiente: En la década de los veinte y treinta el mercado de los frigoríficos y aire acondicionados en general se encontraba en gran expansión, y sus productos eran tremendamente deseados, incluso por razones de salud pública. Permitían estos productos avanzar en la urbanización de ciudades ubicadas en lugares calurosos, mantener alimentos y productos lácteos, y en general eran dispensadores de una mayor calidad de vida y de comodidad, evitando tener que recurrir a los pesados bloques de hielo. Sólo una cosa
209
Desarrollo Sustentable y temas afines
molestaba en el uso masificado de los sistemas de refrigeración: la sustancia necesaria para su funcionamiento era peligrosa. Se requería que la industria química fuese capaz de proveer una sustancia igualmente útil para este propósito, pero que careciera de los riesgos del amoníaco o del dióxido de azufre, que eran las sustancias utilizadas inicialmente. Y la industria estuvo a la altura: los químicos norteamericanos y alemanes inventaron un tipo de molécula inexistente hasta entonces. Se les denominó clorofluorocarbonos (CFC), por ser una combinación de átomos de cloro, flúor y carbono. El éxito superó toda proyección, y los CFC no sólo sirvieron para los frigoríficos y sistemas de aire acondicionados, sino que además encontraron aplicación en muchos otros productos, tales como aerosoles, espumas aislantes, agentes limpiadores, etc. Un nombre comercial que comúnmente se recuerda de esta sustancia (CFC) fue el Freón, marca comercial del fabricante DuPont. Los CFC se utilizaron por décadas a un sorprendente volumen de producción. Jamás se pensó en que podrían tener un efecto nocivo.... hasta que en la década de los ´70 todo cambió repentinamente. En 1974 dos investigadores de la Universidad de California, F. Sherwood Rowland y Mario Molina, descubrieron y advirtieron que los CFC podrían dañar gravemente la capa de ozono. Por sus estudios y predicción, en 1995, se les concedió el Premio Nobel de Química. Desde entonces, diversas iniciativas, campañas y tratados, han procurado disminuir el uso de los CFC, al punto que para fines del siglo la capa de ozono mostraba ya una recuperación. Pero, ¿qué es la capa de ozono, cuál es la importancia de su cuidado y, por qué los CFC producen su destrucción?.... El ozono es una molécula inestable de tres átomos de oxígeno que, en términos simples, sirve de escudo de defensa contra la luz ultravioleta del Sol (UV-B). Es todo lo que existe entre la Tierra y la abrasadora radiación proveniente de nuestra estrella. Sin esta capa protectora, ubicada en la estratosfera, aproximadamente a unos 25 kilómetros sobre nosotros, las moléculas orgánicas que constituyen la vida en el planeta se desintegrarían, sin contar 210
Alejandro Canut de Bon L.
que la disminución de ozono incidiría importantemente en diferentes aspectos propios de la salud como lo son, por ejemplo, la posibilidad de desarrollar cáncer a la piel o el funcionamiento del sistema inmunológico, y podría llegar a afectar el crecimiento de las plantas y dañar el fitoplancton afectando el desarrollo de la fauna marina. Su destrucción se produce debido a que la misma radiación UV arranca los átomos de cloro de las moléculas de CFC. Y los átomos de cloro, al quedar libres y combinarse con las moléculas de ozono, destruyen a esta última (en promedio, un solo átomo de cloro libre es capaz de destruir 100.000 moléculas de ozono antes de neutralizarse). El hecho es que después de los estudios realizados por los dos investigadores de la Universidad de California, fueron muchas las investigaciones, discusiones y -posteriormente- las iniciativas para disminuir el uso de los CFC. En 1978 fueron declarados ilegales en Estados Unidos, Canadá, Noruega y Suecia. En 1987 se firmó el denominado “Protocolo de Montreal”, el que fue complementado por otros acuerdos internacionales firmados en Londres y Copenhague, respectivamente. En los años posteriores, más de 150 países firmaron este acuerdo, logrando un programa de reducción progresiva en la producción de CFC hasta su total supresión al término del siglo XX. Durante el siglo XXI la capa de ozono debiera iniciar una lenta recuperación. Los CFC se produjeron mayoritariamente en el hemisferio norte (90% correspondía a Europa, EEUU, Japón y Rusia). Una vez producidos subían -por efecto del viento- a la estratósfera, a la altura de los trópicos, y eran trasladados a los polos. Debido a que en el polo Sur se forman menos nubes que en el polo Norte (por diferencia de temperaturas), la destrucción del ozono es mayor en el primero de éstos, sobretodo en la primavera (septiembre y octubre). Dado que el ozono se regenera constantemente, el agujero que aparece en la capa de ozono, sobre el polo Sur, principalmente en los meses de septiembre y octubre, desaparece rápidamente a fines de diciembre. No obstante que los CFC 211
Desarrollo Sustentable y temas afines
han sido prácticamente erradicados del mercado, el agujero ha tendido a aumentar con los años. Existe la esperanza que este fenómeno desaparecerá en aproximadamente medio siglo (tiempo que tomarán los átomos de cloro sueltos, producidos antes de la erradicación de los CFC, en ser naturalmente neutralizados).61 b.- ¡¡¡¡Hace mucho calor!!!!... Cientos de millones de años atrás la Tierra se encontraba cubierta en muchas partes de pantanos, repletos de helechos y otras especies, todas las que con los siglos quedaron bajo fango, convirtiéndose lentamente en lo que hoy denominamos carbón. En otras partes y en otras épocas, grandes cantidades de plantas y animales unicelulares quedaron también sepultados y cubiertos con sedimentos, lo que facilitó su descomposición, transformándolos en líquidos y gases orgánicos, a los que hoy denominamos petróleo y gas natural, respectivamente. Por esta razón el carbón, el petróleo y el gas natural son denominados genéricamente como “combustibles fósiles”, puesto que como se ha explicado son -en esencia- fósiles de organismos que vivieron millones de años atrás. Ahora bien, al quemar combustibles fósiles se liberan átomos de carbón (C), y se mezclan con el oxígeno existente en el aire (O2), lo que produce dióxido de carbono (CO2). Lo importante de este proceso, es que -para una gran cantidad de científicos- su resultado (el dióxido de carbono) es el principal responsable del denominado “efecto de invernadero” (“greenhouse effect”, en inglés), lo que incide en el “calentamiento global” y en el “cambio climático”. En resumen, al quemar bencina en los motores de nuestros Dos datos anecdóticos respecto de los CFC y la capa de ozono son: a).- Un científico que jugó un importante rol en este tema fue, más allá de los dos profesores de la Universidad de California que pusieron en evidencia el problema, J. Lovelock (el mismo científico creador de la Hipótesis de Gaia). En efecto, Lovelock, estudiando la dinámica de la alta atmósfera, buscó compuestos químicos que fueran enviados periódicamente a ella y que tuvieran una larga vida antes de descomponerse o neutralizarse. Encontró en los CFC el compuesto ideal para sus estudios y -de paso- comprobó su acumulación en la atmósfera, dando información precisa que serviría para desterrar del mercado a los CFC, y; b).- Los CFC fueron creados para ser utilizados en los sistemas de refrigeración, y hoy se estima que son -además de causantes del agujero de la capa de ozonoresponsables en parte del efecto invernadero. 61
212
Alejandro Canut de Bon L.
automóviles y aviones, o carbón en una caldera, o petróleo o gas en las industrias, etc, estamos contribuyendo a aumentar la temperatura de la atmósfera de la Tierra, lo que a su vez tiende a producir un cambio en el clima en general. Pero, ¿cómo nos dimos cuenta de esto y por qué -según los científicos- el dióxido de carbono produce este efecto?. Se suele decir que el primero en percatarse y advertir este fenómeno fue el geólogo y físico británico John Tyndall (1820-1893), quien ya en 1863 descubrió que ciertos gases absorben o atrapan el calor, mientras que otros son literalmente “transparentes” al mismo. Tyndall afirmó así que, por ejemplo, una producción constante durante un largo periodo, de vapor de agua o de dióxido de carbón (los que absorben el calor), podría llevar a una suerte de “efecto invernadero” y -mediante ello- a un cambio climático. Ahora bien, el efecto del calentamiento global se produce debido a que la cantidad de luz solar absorbida por la Tierra debiera igualar la energía que la misma Tierra devuelve al espacio (de hecho esto ocurre en gran medida, al punto que si pudiéramos ver en banda infrarroja térmica, podríamos apreciar como la Tierra brilla constantemente producto de la luz infrarroja propia que emite al espacio). En este proceso, la atmósfera (o mejor dicho, algunos de los gases suspendidos en la atmósfera, como lo son por ejemplo los dióxidos de carbono, el vapor de agua y los clorofluorocarbonos) absorben una parte de esta luz infrarroja que emite la Tierra, capturándola y manteniéndola en la Tierra en vez de permitir que se disperse en el espacio. Por ello es posible decir que estos gases son una verdadera manta sobre la Tierra. El resultado es que nuestro planeta debe calentarse algo para lograr el equilibrio entre la luz solar que recibe, y la radiación infrarroja que emite. En términos promedios la temperatura de la superficie de la Tierra es 13° centígrados (de no haber atmósfera y efecto invernadero alguno, la temperatura promedio sería aproximadamente -20° centígrados). Por ello, se puede decir que el efecto invernadero es bueno, dado que permite que los océanos no estén congelados y 213
Desarrollo Sustentable y temas afines
que la Tierra albergue la vida que conocemos. El problema es que al parecer estamos –desde la Revolución Industrial en adelanteaumentando este efecto. Esto último es lo que en términos generales denominamos “Calentamiento Global”. Se estima que durante el siglo XX la temperatura promedio de la superficie de la Tierra aumentó casi en un grado centígrado. La revista Science de enero del 2006 reporta un estudio basado en registros climáticos efectuados en el hemisferio norte por científicos de la Escuela de Ciencias Ambientales de la Universidad de East Anglia, del Reino Unido. Mediante mediciones en los cambios de los anillos de los árboles, el análisis de conchas fósiles y testigos (muestras de perforaciones) de hielo, este estudio determinó que el siglo XX registró las mayores temperaturas desde el siglo IX (periodo que corre del año 890 al 1170). Es más, los escenarios desarrollados por el Grupo Intergubernamental de Expertos sobre Cambios Climáticos (IPCC) proyectan para el año 2100 un aumento en la temperatura promedio de superficie a escala mundial de 2,0 a 6,4 grados Celsius por encima de los niveles de la era preindustrial, como así también un aumento en la incidencias de sequías e inundaciones y una elevación del nivel del mar de 9 a 88 cms. Claro que todo esto es un tema discutible a nivel científico. Para muchos este aumento no es producto del efecto invernadero. La Tierra ha experimentado cambios en sus condiciones climáticas desde siempre, dando paso a grandes glaciaciones como a periodos más calurosos, cuyas causas no sabemos con certeza, y que en todo caso claramente no se deben a gases postRevolución Industrial (el 53% de los artículos publicados en la prensa popular de los Estados Unidos ponen en duda que el calentamiento global sea causado por la humanidad). De hecho, los mismos estudios indicados precedentemente arrojan que aproximadamente entre los años 1580 y 1850 tuvo lugar lo que se ha denominado la Pequeña Edad del Hielo. En definitiva para muchos científicos los cambios climáticos se han producido desde siempre, y al parecer son producto de razones externas a la Tierra, como podrían ser cambios en la órbita de la Tierra alrededor 214
Alejandro Canut de Bon L.
del Sol (Teoría de Milankovith) o cambios en la intensidad de la actividad solar. Para otros las causas son internas, como la actividad volcánica o la misma actividad antrópica (producción de gases invernaderos). En todo caso, desde la década que se inicia en 1980, el tema del cambio climático ha adquirido una mayor relevancia pública y política y, se ha tendido a considerar la posibilidad que el calentamiento global sea causado por el mismo hombre. Es más, en este último año se ha creado un consenso en que es cada vez más urgente tomar medidas al respecto.62 En este sentido, en 1988 se celebró la Conferencia de Toronto sobre Cambio en la Atmósfera, en la que se discutió por vez primera el fenómeno del cambio climático, y producto de la cual los países industrializados se comprometieron a disminuir la emisión de CO2 para el año 2005, en lo que se conoció como el “Objetivo de Toronto”. Después de este significativo paso, tuvo lugar una serie de encuentros y documentos, hasta que en 1997 se firmó el denominado Protocolo de Kyoto (Convenio Marco sobre el Cambio Climático, de la ONU). En este último se estableció el compromiso de lograr una reducción de 5,2% de las emisiones de CO2 para el año 2010, tomando como línea base el año 1990. Este Protocolo fue firmado por más de 160 países, y entró a regir en febrero del 2005 (al ser ratificado por una cantidad de países El 2006 el demócrata Al Gore, ex vicepresidente y candidato a la presidencia de los EEUU, hizo un documental titulado “An Inconvenient Truth” (Una Verdad Inconveniente), relativo al calentamiento global. En dicho documental indica como los glaciares de todo el mundo han mostrado un retroceso importante en los últimos años; como han retrocedido las nieves de vastos sectores de los Alpes y de los Himalayas; como la plataforma antártica Larsen-B -de 100 kilómetros de largo por 20 de anchose fragmentó y desapareció en dos meses, y; como durante el año 2003 la plataforma ártica Ward Huntse se partió en dos. Se argumenta en el documental que si este proceso sigue adelante, el nivel de las aguas podría aumentar entre 6 y 10 metros. Esto, en términos prácticos, significaría -por ejemplo- que las costas de la Florida, incluyendo la ciudad de Miami, desaparecerían bajo el mar, al igual que la mitad de la ciudad de San Francisco, mientras que Holanda sería devastada; 20 millones de personas tendrían que ser evacuadas del área de Pekín; 40 millones del área de Shangai; 60 millones del área de Calcuta y Bangladesh, y; gran parte de Manhattan quedaría sumergida en el agua. 62
215
Alejandro Canut de Bon L.
suficientes para representar el 55% de las emisiones existentes). Estos dos fenómenos (Agujero en la Capa de Ozono, y Calentamiento Global), son un claro ejemplo en un doble sentido: Por un lado, del hecho que la actividad del hombre puede impactar hasta el último rincón de la Tierra y que la globalidad no es sólo un tema cultural (sino también de impacto ambiental) y, por otro lado, del hecho que a pesar de que la ciencia no pueda siempre lograr un total consenso sobre las causas de un problema determinado, los países si pueden adoptar precautoriamente medidas tendientes a limitar sus actividades asumiendo la más aceptada teoría científica.
217
Desarrollo Sustentable y temas afines
Las normas ISO Estandarizando el cuidado del Medioambiente A fines del siglo XVIII y principalmente durante el siglo XIX, el Mundo vivió lo que podríamos denominar el primer gran paso en un proceso que parece no tener término: el proceso de la estandarización. Este primer paso estuvo dado por la implementación del denominado Sistema Métrico Decimal, el que fue adoptado durante la década de 1790 en Francia y desde ese país se extendió a gran parte del resto del mundo. Este proceso de estandarización continuó fuertemente durante el siglo XX, impulsado por la Organización Internacional de Estandarización, conocida en el mundo entero como ISO (en griego “iso”, igual). Su trabajo, en los más diversos campos, ha ayudado a hacer posible el mundo globalizado de fines del siglo XX.
218
Alejandro Canut de Bon L.
En el campo ambiental esta organización ha jugado un importante rol al estandarizar, primero, un sistema de gestión ambiental y, en el último tiempo, ciertos parámetros de responsabilidad corporativa. En las próximas líneas nos referiremos a estos dos esfuerzos de estandarización, ambos de importancia dentro del tema del Desarrollo Sustentable. a.- El Sistema de Gestión Medioambiental (SGMA): un SGMA, cualquiera que éste sea, es un sistema que tiene por objeto que una empresa controle sus actividades, procesos y productos, con el fin de evitar impactos medioambientales. Su meta será minimizar los impactos medioambientales de sus operaciones. El espíritu de todo SGMA asume que las empresas pueden ser entendidas como procesos sometidos a ley de causa-efecto, en donde la operación de la empresa es la causa, y los impactos que en el medioambiente se pudieren producir son los efectos. Los SGMA pueden estar normados, estandarizados, como es el caso de ISO 14001, quizás el más famoso de estos sistemas, o el EMAS (Reglamentación de la Unión Europea), o pueden ser informales, como lo sería un programa particular tendiente a controlar los desechos de una empresa cualquiera. De hecho, como es obvio, los SGMA partieron siendo sistemas particulares e informales, pero poco a poco el comercio internacional hizo sentir la necesidad de distinguir con claridad que empresas tenían un sistema efectivo y eficiente de control de sus impactos, para diferenciarlas de aquella que no. Surgió así la necesidad de discriminar entre unas y otras. Con ese fin se establecieron ciertas normas internacionales de gestión medioambiental, y se consagró un sistema de certificación de las empresas que cumplieran con el. Nacieron así las ISO 14001. El punto de partida de la estandarización de los SGMA puede ser fijado a inicio de la década de los ´90. En efecto, en 1991, el tema fue objeto especial de una ronda de negociaciones 219
Desarrollo Sustentable y temas afines
del GATT en Uruguay y de la Cumbre de Río de Janeiro de 1992. Se contaba entonces con la experiencia de las Normas ISO 9000 (sobre calidad), desarrolladas por ISO durante la década de los ´80 y puestas en aplicación a partir del año 1987. Esta experiencia sirvió de base para que ISO fuera la encargada de estandarizar también las normas de un sistema de gestión ambiental, lo que dio lugar a las ISO 14001.63 Ahora bien, un aspecto que resulta menester enfatizar es el hecho que las Normas ISO 14001, como cualquier sistema de gestión ambiental, no es más que una herramienta de ayuda tendiente a mejorar el control de los impactos ambientales de una empresa, pero no es -y esto debe quedar claro- un conjunto de normas que contengan impactos máximos permitidos. De esta forma, contar con un certificado de ISO 14001 no significa, en modo alguno, que la empresa en cuestión tiene emisiones inferiores a “x”, o, no asegura, por ejemplo, que los residuos de un proceso contengan menos de “x” miligramos de bacteria por litro. Para ello están las respectivas normas de emisión, fijadas por la respectiva legislación ambiental. El SGMA debe velar porque se cumpla la legislación que corresponda, entre otras metas, pero no fija en sí mismo el nivel de emisión o contaminación permitido. Consecuente con esto, las auditorías ISO (sea para obtener, sea para mantener, la certificación ISO), no se realizan para asegurar que las emisiones de la empresa en cuestión están o no por debajo de un determinado estándar, sino para comprobar que se cumplen todos los elementos necesarios de un sistema y que éste funciona correctamente. Durante la década del ´90 la aplicación de las normas ISO 14001 se extendieron por el mundo. Empresas de la más diversa Las ISO 9000 tienen a su vez como base las normas de estandarización de la BSI (British Estándar Institute), desarrolladas para controlar la calidad de los productos de la industria de la defensa británica. Resulta por lo mismo paradójico que las normas ISO 14001, que tienen por objeto el cuidado del medioambiente, encuentran de alguna forma su raíces en normas cuyo objeto era controlar la calidad de armamentos, que como tales son hechos para la destrucción. 63
220
Alejandro Canut de Bon L.
naturaleza y ubicación geográfica optaron por poner en marcha este sistema de gestión ambiental estandarizado, solicitando se certificara su funcionamiento por la organización ISO. Pronto quedó en evidencia su utilidad y beneficio. Utilidad en el sentido de tener un sistema totalmente estandarizado, evitando así tener que re-inventar la rueda en cada empresa, y beneficio en el sentido de contar con una calificación independiente y respetada a nivel internacional que da fe de la existencia de un sistema eficiente y que abre las puertas de mercados exigentes en estas materias, como el europeo, y facilita además la obtención de créditos internacionales. b.- La Responsabilidad Social Corporativa (RSC): a partir de esta década, la primera del siglo XXI, ISO ha procurado un nuevo paso en la estandarización, cual es la promoción de una terminología internacional de responsabilidad social corporativa que sea aceptada por todos los grupos de interés de una empresa determinada (stakeholders). Estas normas serán conocidas como ISO 26000, y su objetivo será integral, es decir económico, ambiental y social. Se trata de la tercera generación de estándares internacionales. La RSC es un concepto no exento de discusión (Véase “Responsabilidad Social Corporativa”), pero de una u otra forma se ha ido arraigando en la sociedad respaldado por una serie de directrices y regulaciones que cuentan con un amplio apoyo ciudadano y sobretodo por muchas ONGs (organizaciones no gubernamentales), como así también por gobiernos y asociaciones de consumidores. Las ISO 26000 estarán orientadas a establecer una guía que sirva de manera efectiva para que cada organización pueda poner en operación el tema de la responsabilidad social, respetando las particularidades propias de cada contexto social, cultural, político, económico, ambiental y legal. Se espera que estas normas ISO entren en operación a fines de está década. Su formulación será meditada y cuidadosa dado que abarcarán temas de diversa naturaleza como lo son los derechos humanos, el respeto a la diversidad cultural y el 221
Desarrollo Sustentable y temas afines
medioambiente, mecanismos de identificación de condiciones socioeconómicas, de calidad de vida y de stakeholders, procedimientos de participación pública, de comunicación e información transparente, y en definitiva la promoción de alianzas entre empresas privadas, sociedad civil y Estado.
Derecho y Medioambiente
Este capítulo se refiere a los principales principios de derecho que se han formado en materia ambiental y que deben, por lo mismo, 222
Alejandro Canut de Bon L.
tenerse presente en relación al Desarrollo Sustentable. No se busca, en este texto, imponer la lógica en que descansan estos principio, sino más bien explicarla e -incluso- en algunos casos, discutirla.
Principio Precautorio El Principio Precautorio establece básicamente que frente a una eventual obra o actividad que pudiera tener como consecuencias importantes impactos negativos, se debe adoptar una posición que tienda a no ejecutar o realizar dicha obra o actividad, aún cuando no existan pruebas científicas concluyentes de la concreción de estos impactos. En términos más generales, el principio aconseja ser prudente ante la incertidumbre científica del impacto que pudiera ocasionarse. Este principio se remonta al primer tercio del siglo XX, consolidándose en Europa poco a poco en diversos temas que han tenido importancia para la salud humana, como por ejemplo en el uso y descarga de pesticidas y sustancias químicas en general. Su consagración definitiva tuvo lugar en la Declaración de Río de
223
Desarrollo Sustentable y temas afines
Janeiro (junio de 1992). 64 En dicha Declaración, en su apartado N°15, se señaló: “Con el fin de proteger el medioambiente, los Estados deberán aplicar ampliamente el criterio de precaución conforme a sus capacidades. Cuando haya peligro de daño grave o irreversible, la falta de certeza científica absoluta no deberá utilizarse como una razón para postergar la adopción de medidas eficaces en función de los costos para impedir la degradación del medioambiente”. El principio fue muy rápidamente adoptado en numerosos tratados multilatelares, como así también en diversas declaraciones internacionales. Por enunciar sólo algunos, cabe indicar: El Convenio sobre la Diversidad Biológica de 1992; El Convenio Marco del Cambio Climático de 1992; El Tratado de la Unión Europea de 1992; El Convenio para la Protección del Medioambiente Marino del Atlántico Nororiental de 1992; El Convenio de Helsinki sobre la Protección del Medioambiente Marino en el Báltico de 1992; El Programa de Acción de Washington para la Protección del Medio Marino de las Como se indicó al inició de este texto, en junio de 1992, a instancia de las Naciones Unidas, se reunieron durante 12 días delegados de 178 países, en las cercanías de Río de Janeiro, Brasil, a fin de tratar temas relacionados con el cambio medioambiental. Dicha reunión se denominó “Conferencia sobre Medio Ambiente y Desarrollo de las Naciones Unidas”, también conocida como la Cumbre de la Tierra . El propósito último de la conferencia era determinar las reformas medioambientales necesarias que debían emprenderse a largo plazo. Los principales temas abordados en esta conferencia incluían, el cambio climático, la biodiversidad, la protección forestal, y en general aspectos económicos y políticos relacionados. La Cumbre de la Tierra terminó con la redacción de dos documentos: una agenda, que se denominó Agenda 21 (un proyecto de desarrollo medioambiental de 900 páginas) y, una declaración denominada Declaración de Río (un documento de sólo cinco páginas en el que se demanda la integración de medio ambiente y desarrollo económico). La Cumbre de la Tierra fue un acontecimiento histórico de gran significado, no sólo por hacer del medio ambiente una prioridad a nivel mundial, sino por su éxito en el sentido de convocar delegados de 178 países, lo que la convirtió en la mayor conferencia internacional jamás celebrada. 64
224
Alejandro Canut de Bon L.
Actividades Realizadas en Tierra (PNUMA), de 1995. Ahora bien, existen diversas discusiones de carácter doctrinario que se presentan en relación a este principio, entre las que destacan las siguientes: a.- Respecto de la legitimidad misma del principio. Muchos sostienen que la falta de prueba científica de la existencia de un daño es razón suficiente para invalidar el principio. En el otro extremo, no son pocos los que estiman que un mundo sin precaución tendrá mucho que lamentar. Para los primeros, la sola existencia del principio precautorio induce a cambiar el peso de la prueba en el proceso de toma de decisión. La forma de proceder que se deduce del principio altera la carga de la prueba en el sentido que quien desea actuar debe probar con certeza científica la falta de consecuencias perjudiciales de su acción, para así evitar que el principio sea invocado en su contra. La más mínima posibilidad teórica de un daño podría así detener toda actividad, lo que demuestra para algunos que la filosofía del principio es poco racional. Además, los eventuales perjuicios distraen la atención y los recursos de tanto otros perjuicios de los que si tenemos certezas. Nuestro actuar, nuestros recursos y energía, deben estar orientados a estos últimos perjuicios (los ciertos). Por último alegan que una sociedad que vive precavida, es una sociedad que no avanza, no se desarrolla, lo que -en el largo términosignificará mayor costo y mayor contaminación (agregan que la forma más segura de tener un medioambiente contaminado, es tener un medioambiente subdesarrollado. Nos recuerdan que la pobreza es la mayor fuente de contaminación. Véase “La Curva de Kuznets”). Para los segundos, la precaución consiste precisamente en no actuar ante la falta de certeza de la naturaleza y magnitud de la consecuencia. El principio se justifica, pues el hombre 225
Desarrollo Sustentable y temas afines
ha demostrado ser demasiado temerario en sus decisiones, con consecuencias nefastas para el medioambiente. Por lo demás, el principio no debe ser llevado al extremo que implique un total cambio del peso de la prueba, dentro del proceso de toma de decisión. Muchos alegan que el principio debe ser entendido dentro de un equilibrio, lo que precisamente da pábulo para las siguientes discusiones. b.- Si aceptamos que el principio es legítimo, las preguntas que surgen son: ¿qué debe gatillar la aplicación del principio?...., ¿cómo se determinará la existencia de un “probable daño” que amerite su aplicación?... ¿quién lo determinará?... En esta discusión se refleja no sólo el temor a que el principio sea llevado a un extremo paralizante, sino además el temor que el principio sirva a propósitos extra-ambientales, como sería por ejemplo una finalidad comercial proteccionista. Un país impide a una empresa extranjera operar en su territorio, amparándose en este principio, en circunstancia que en realidad la finalidad de su medida es proteger la industria local de la competencia de empresas internacionales. La más mínima falta de certeza científica podría dar lugar a la aplicación del principio, dejando a la empresa con el peso de la prueba al que nos referíamos precedentemente. c.- ¿Qué tan probable debe ser el daño ambiental para que el principio opere?... ¿de qué magnitud debe ser el perjuicio eventual?... ¿debe el principio operar sólo en presencia de un probable daño “irreparable”, o de todo daño o impacto ambiental?... Se podrá advertir por el lector que la discusión que se produce en torno a estas preguntas es en muchos aspectos similar en argumentos a las dos discusiones anteriores. Es decir y en resumen, este principio puede fácilmente permitir medidas 226
Alejandro Canut de Bon L.
arbitrarias, al no existir una muy clara definición de su concepto y de sus límites. Pero además, ante estas preguntas queda en evidencia el carácter económico de la discusión, cual es el hecho de si el principio en cuestión debe operar con o sin prescindencia de los análisis de costo-beneficio o de riesgo-beneficio. Es decir, la pregunta adicional aquí es la siguiente: ¿incluye este principio consideraciones económicas?... La Declaración de Río, en su N°15, establece un principio de reconocimiento de las consideraciones económicas al decir “...medidas eficaces en función de los costos...”. Ahora bien, para comprender en mayor detalle esta discusión, se debe considerar que el análisis debe contemplar, por ejemplo, los costos y beneficios tanto del actuar, como del no actuar. Recordemos que la decisión de no actuar (aplicar el principio) evita un costo eventual (posible contaminación), pero conlleva también un costo seguro (costo asociado a la inacción). La comparación de ambos costos en el corto y largo plazo, en un caso concreto, podrá ilustrar de mejor manera la utilidad de aplicar o no el principio. Es claro que este principio se ubica entre dos filosofías de vida que están en alguna forma en contradicción. En un extremo, una filosofía o visión estrictamente ecológica y, en el otro extremo, una visión que procura el cuidado del medioambiente, pero que admite una ecuación que puede conducir a costos ambientales en ciertos casos. Mismas dos filosofías que han estado presente a lo largo de todo este libro. En otras palabras, el sentido y alcance que se le debe efectivamente dar a este principio es algo que aún está en discusión. Sin duda su esencia radica en el viejo adagio que nos enseña que “más vale prevenir que lamentar”. En dichas esencia no existe debate. La discusión no obstante parte desde el instante que procuramos definir la extensión de la prevención. ¿Qué tan 227
Alejandro Canut de Bon L.
preventivos debemos ser en la ausencia de prueba científica?... Estas discusiones y reflexiones que hemos señalado no son menores. Por cierto, aceptar que el principio debe operar en toda situación, sin consideración alguna a las reales posibilidades de concreción del daño, o de su magnitud, o de un análisis de costo-beneficio, etc, tendría un efecto paralizante en la economía y desde ese punto de vista resultaría contradictorio del ideal de un “Desarrollo Sustentable”, según hemos ya entendido. Por otro lado, no es menos cierto que la precaución descansa en una esencia difícil de rebatir, tan difícil como discutir la sabiduría que inspira el viejo adagio que hemos señalado. Pareciera que la virtud consiste, una vez más, en la búsqueda del justo punto medio de que nos habló Aristóteles. Principio “El Que Contamina Paga” Este principio fue adoptado por vez primera en el año 1972, por la Organización para la Cooperación y el Desarrollo Económico (OCDE), como una recomendación relativa a aspectos económicos internacionales en políticas ambientales. Postula básicamente que las medidas necesarias para evitar toda contaminación deben ser asumida (costeadas) por los responsables del proceso productivo que de lugar a la respectiva contaminación. En otras palabras, y aplicando el vocabulario aprendido en este texto, podemos resumir este principio con las siguientes palabras: El costo de internalizar toda externalidad ambiental negativa corresponde al que produce la externalidad en cuestión. Resulta menester aclarar que la forma en que se ha 229
Alejandro Canut de Bon L.
enunciado este principio (es decir, con las palabras “el que contamina paga”) no es quizás la más feliz, dado que invita a un doble error: a.- Por un lado, hace pensar que está permitido contaminar en la medida que se pague un precio por ello. Eso no es correcto; el principio no encierra la posibilidad de contaminar (ni siquiera pagando). Por el contrario, lo que busca es que no se contamine, indicando para ello a la persona que debe asumir el costo de evitar la contaminación; b.- Por otro lado, desde un punto de vista más jurídico, no son pocos los que -erradamente- ven en este principio la obligación de reparar los daños causados por una acción contaminante, olvidando que la fuente de dicha obligación está en las normas de la responsabilidad civil extracontractual. Es conveniente ser muy claros en este punto, pues es común encontrar personas (incluso abogados) quienes suponen que la finalidad del principio es precisamente la obligación de reparar el daño causado por la contaminación. Quizás estos dos errores sobre el objetivo que encierra el principio, se deben a que se ha difundido más su denominación que su contenido. El gran objetivo (contenido) del principio es, como se ha señalado, por un lado, el que se eliminen las externalidades ambientales negativas (es decir, disminuir la contaminación), y; por otro lado, que los costos de esta disminución sean asumidos por los respectivos contaminadores y no por la sociedad toda. Se trata así, por cierto, de un principio más ambiental y económico, que jurídico. Este doble objetivo se persigue obligando a que todos los costos en los que se incurren durante un proceso productivo, se incorporen en el precio final del respectivo bien que se produce (Véase “Economía de Ciclo de Vida”). Esto presupone la siguiente cadena de hechos: 231
Desarrollo Sustentable y temas afines
a.- El productor internaliza sus externalidades ambientales negativas. Es decir, asume los costos de no contaminar; b.- El productor refleja en el precio del bien en cuestión, los costos que ha debido asumir. Esto significa que el precio del bien aumenta. c.- El aumento del precio del bien hará disminuir la demanda del mismo por parte de sus consumidores, lo que consecuentemente disminuirá aún más la posible contaminación que la confección de este bien podía producir. En este proceso es lógico que muchas empresas no puedan seguir cargando los costos que deben internalizar, ni al precio del bien, ni al margen de utilidad que obtiene, lo que implicará que quedarán fuera del mercado. A la luz de lo que persigue el principio en cuestión (internalización de las externalidades negativas), situaciones extremas como la señalada son incluso consideradas socialmente beneficiosas por la economía. No obstante, una aplicación excesivamente rígida y rápida de este proceso puede generar consecuencias demasiado drásticas a la luz del interés general. Por ello se suele considerar, en la aplicación de este principio, medidas tales como plazos diferenciados para su adopción, sea por sectores de la economía, sea por grupos (por ejemplo, distinguiendo entre las empresas existentes y las que se construyan en lo futuro, en donde sólo a estas últimas se les exige de manera inmediata la implementación de una medida determinada). Dado que estos procesos se realizan a nivel nacional, generalmente se producirá una desventaja competitiva en el ámbito del comercio internacional. El primer país en internalizar los costo en una determinada materia, se pondrá en la situación de desventaja señalada, pero al mismo tiempo -una vez internalizados dichos costos en la mayoría de los países- aquellos que se atrasen en el proceso, se arriesgan a perder preferencia de los consumidores, a perder mercados internacionales, e incluso a ser acusados de 232
Alejandro Canut de Bon L.
una suerte de dumping ambiental. Ahora bien, como es lógico para que el principio opere en la manera señalada, se requiere que sea posible determinar al respectivo responsable de la contaminación. Él será quien deberá realizar la internalización, es decir asumir el costo de evitar la contaminación. Si bien esto parece simple y claro, la verdad es que son muchas las situaciones en las cuales precisar al responsable de la contaminación resulta complejo. Piénsese en aquellas contaminaciones “acumulativas”, es decir producto de varias causas que concurren simultáneamente o, en las acciones “en cadena” en las que la contaminación final es producto de una serie de actos en los que no existe un responsable fácil de determinar, como ocurre con la contaminación causada por los gases de los escapes de los automóviles, en la que la responsabilidad pudiera considerarse que recae en los productores de los automóviles, o en los productores de las gasolinas que se utilizan o en el propietario de cada automóvil. En estos casos el principio no resulta de fácil aplicación, a pesar de que existen recomendaciones internacionales para asignar la responsabilidad en cuestión, las que sugieren que la internalización de los costos debe realizarse en el punto de la cadena que ofrezca mayores características de eficiencia y que presente menor distorsión posible en el mercado. Otro punto importante que merece ser destacado es la estrecha relación entre este principio y la Tragedia de los Comunes (ya estudiada precedentemente). Como hemos indicado en su oportunidad, las externalidades ambientales negativas suelen presentarse en relación a los bienes comunes, es decir en aquellos bienes que pueden ser utilizados por todos sin que nadie pueda alegar derechos exclusivos sobre ellos (como el aire, el mar, etc). Como se ha dicho, estos bienes -que sin duda tienen un valorcarecen de precio, en el sentido que al estar fuera del comercio, los diversos agentes sociales no le asignan un precio determinado. Por lo mismo, el daño o perjuicio que los particulares puedan 233
View more...
Comments