José Uriel Aréchiga Viramontes y Enrico Martínez Saens - Introducción a La Ingeniería Química

January 21, 2018 | Author: vanngp | Category: Mass, Force, Newton's Laws Of Motion, Motion (Physics), Momentum
Share Embed Donate


Short Description

Descripción: m...

Description

JOSÉ URIEL ARÉCHIGA VIRAMONTES Y ENRICO MÁRTINEZ SAENS

INTRODUCCIÓN A LA INGENIERÍA QUÍMICA

UAM-I SEPTIEMBRE DE 2014 1



INTRODUCCIÓN A LA INGENIERÍA QUÍMICA

PRIMERA PARTE. Historia y Disciplinas SEGUNDA PARTE Ingeniería Química y Medio Ambiente 2

Índice



PRIMERA PARTE

Página I.- Introducción 3 II.- Cinemática 12 III.- La Teoría Cinética de los Gases. 19 IV.- La Temperatura, Termómetros. 25 V.- Calor y Termodinámica. 34 VI.- Equilibrio. 40 VII.- Operaciones Unitarias y Procesos de separación. 46 VIII.-Los fenómenos de Transporte 56 IX.- La utilización de la energía 65 X. Introducción a la Ingeniería de las Reacciones Químicas. 78 XI.- Metodología de Investigación para el Desarrollo de Procesos 87 XII.- Ingeniería de Reactores Químicos 95

SEGUNDA PARTE XIII.- La Contaminación Ambiental y los Límites del Crecimiento 105 XIV.- El principio Precautorio 118 XV.- La Producción más Limpia 121 XVI.- Análisis o evaluación del Ciclo de Vida: 123 XVII.- Huella ecológica, cuestiones básicas. 131 XVIII.- El desarrollo sustentable 136 XIX.- La Sustentabilidad. 143 XX.- Sustentabilidad Ciencia y Tecnología 147 XXI.- La Química Verde 153 XXII.- La Ingeniería Química Verde 158 XXIII.- Ética y Sustentabilidad. 164

3

Introducción a la Ingeniería Química. I.- Introducción. Justificación: ¿Por qué otro texto para Introducción a la Ingeniería Química? Hasta ahora la gran mayoría de los textos dedicados a la Introducción a la Ingeniería Química han estado dirigidos principalmente a tratar temas como balances de materia y energía, análisis de las operaciones unitarias y en ocasiones al análisis dimensional. Es por ello que decidimos abordar la introducción a la IQ desde una perspectiva histórico-social, con la pretensión de destacar tanto la producción de satisfactores para la sociedad, como la estrecha vinculación que existe entre el quehacer de la Ingeniería Química y las modificaciones inadvertidas del medio ambiente en el siglo XX. Por lo tanto, consideramos que existe una gran responsabilidad para los que ejercen la IQ, no solamente en la remediación, sino en la preservación y por lo tanto en la búsqueda de nuevos productos y nuevos procesos que garanticen la sustentabilidad. Lo anterior implica no solamente mayor información, sino también una actitud diferente en cuanto a la Ética profesional. Como ya se ha señalado con anterioridad y como luego se verá, las condiciones del surgimiento de la IQ como disciplina se encuentran enraizadas en el desarrollo del capitalismo europeo y como consecuencia el quehacer del IQ, sobre todo en la creación de nuevos proceso y en la operación de los ya existentes, se desenvolvió estrechamente vinculado al fortalecimiento de “la empresa”, independientemente de los efectos secundarios que la producción pudiera tener sobre el entorno. Dos casos pueden servir de ilustración: Los detergentes y la contaminación de la bahía de Minamata en Japón con Mercurio. Los detergentes llegan al mercado después de la Segunda Guerra Mundial para sustituir, en gran medida, el uso del jabón vigente desde hacía más de 2000 años. Su éxito fue rotundo. Unos 20 años después, al extenderse su empleo a nivel mundial, aparecieron las consecuencias: en primer lugar los fosfatos utilizados como estabilizadores en su formulación, ocasionaron la “eutroficación”, sobre fertilizaron las aguas y el crecimiento exagerado de las plantas acuáticas secuestró el oxígeno con consecuencias funestas para la reproducción de peces, aves y anfibios. Más aun, el dodecil-bencen-sulfonato de sodio de cadena ramificada, empleado como principio activo del detergente, resultó ser bacteriostático y por lo tanto no biodegradable. En el segundo caso, una planta productora de fungicidas, ubicada a la orilla de un río que desembocaba en la bahía de Minamata, tiraba al río desechos con Mercurio, que terminaron por producir graves daños en la salud de los pobladores de la bahía. Ambos casos fueron remediados, pero muestran la gran importancia de la información para los IQ`s sobre las

4

consecuencias que su quehacer cotidiano puede tener para la sociedad humana y el medio ambiente. ¿En qué medida los resultados de la actividad de la IQ han sido responsable del deterioro ambiental? Es difícil juzgar, la historia está ahí, pero los seres humanos son perfectibles. Lo que sí resulta indudable es la necesidad de un código de ética que contemple la preservación de la naturaleza-medio ambiente y sociedad humana- como principio fundamental.

Un poco de historia: La ingeniería química es una disciplina que tiene su origen, hacia el final del siglo XIX y los principios del XX, en las necesidades de una industria de procesos creciente, que a su vez fue el producto de la revolución industrial, expresión del capitalismo floreciente que envolvió al globo en un mercado mundial encabezado, entonces, por el imperialismo inglés. En otras palabras, la ingeniería química es el resultado de un proceso multifacético propiciado por el capitalismo y el mercado mundial que cristaliza en un ámbito científico-tecnológico extraordinariamente dinámico. Si desmontamos la cebolla histórica en algo así como una cámara lenta es posible mirar el desarrollo de las actividades que dieron lugar a la IQ partiendo del quehacer práctico de los seres humanos primitivos, quienes descubrieron los pigmentos (óxidos metálicos, procesados de alguna manera) para decorar sus cuerpos. Con el paso del tiempo encontraron que algunos animales y plantas poseían sustancias coloreadas con las que se podían teñir las fibras y dieron colorido a sus vestidos. De igual manera extrajeron sustancias odoríferas, principalmente de origen vegetal para perfumarse y perfumar sus templos. El proceso de conocimiento continuó en avance y descubrieron la fermentación: el jugo de frutas se convertía en vino y el cocimiento de cereales en cerveza. En paralelo y al avanzar en las técnicas de labrado de las piedras, se encontraron con los metales: en principio oro y cobre nativos, maleables, fáciles de convertir en objetos de ornato. En el curso de los siglos logran domesticar el fuego y con él se apoderaron de un gran instrumento de transformación: la arcilla húmeda y plástica, muy fácil de modelar para formar ladrillos, estatuillas o recipientes, fue endurecida al someterse al fuego: aparece la cerámica, la piedra artificial. Calcinaron la piedra caliza y obtuvieron cal, que mezclada con arena y agua se convirtió en mortero para pegar piedras y ladrillos y así construir la Torre de Babel. En algún momento calentaron piedras rojas de óxido de hierro o de cobre en medio de un exceso de combustible vegetal (atmósfera reductora) y obtuvieron el metal fundido, más fácil de trabajar para producir herramientas más eficaces que las de piedra. Al fundir los óxidos metálicos mezclados con arena y otros minerales se formaron natas que al enfriarse se convirtieron en vidrio. Las pieles de los animales, para conservarlas flexibles, se trataron con cortezas de ciertos árboles y fueron curtidas. Con mejores herramientas el trabajo vital se hizo más liviano y dio más tiempo para pensar, imaginar y producir “innovaciones”. La raza humana se volvió sedentaria, la división del trabajo, hasta entonces una división entre los sexos (las mujeres dedicadas al cuidado del fuego y las crías y los hombres a la caza) se convirtió en una división entre los miembros de

5

la comunidad y dio lugar a los oficios: aparecieron junto a los agricultores, los artesanos: los alfareros, los herreros, los curtidores, los zapateros, los orfebres, los perfumeros, y otros. La especialización propició el desarrollo del conocimiento, se mejoraron los procesos y las herramientas, el trabajo se facilitó y fue más eficiente. La sociedad humana tuvo más tiempo para observar, para pensar, para imaginar. Una nueva división produjo la separación entre los dedicados al trabajo manual, necesario para satisfacer las necesidades inmediatas de la sociedad y los dedicados a la observación, a la sistematización del conocimiento por una parte y por otra los productores de objetos destinados al adorno personal a la decoración o a la magia. Pasaron muchos siglos. Europa se volvió el centro de un mundo plano sobre el que se desplegaron sucesivamente el imperio romano, cuya caída marcó el inicio de la edad media, el surgimiento del imperio musulmán, su comercio con China y la India, como mecanismo de transferencia del conocimiento de la porcelana, de las especias, de la producción del papel y de la pólvora, así como de los conocimientos astronómicos, y saberes médicos vinculados con la producción de medicamentos y otros productos.

El mundo esférico y la Química Con la Caída de Constantinopla y la desaparición del imperio romano de oriente comenzó el Renacimiento europeo. Pocos años después el mundo plano dejó de existir. Un marinero genovés sostuvo que el mundo era una canica y que navegando hacia occidente se llegaría al oriente. Patrocinado por los reyes católicos en lo que parecía una loca aventura llegó a unas tierras comparables al paraíso terrenal donde “unas criaturas que parecían humanos” andaban desnudos y disfrutaban de la naturaleza. América (todavía no se llamaba así) “había sido descubierta.”1 Los descubridores se encontraron en las nuevas tierras con una gran abundancia de metales preciosos, oro y plata, que hicieron fluir hacia Europa donde eran considerados como dinero. Como todo mundo sabe, el dinero se hizo para gastar y los españoles comenzaron a comprar y los artesanos europeos a producir, de tal suerte que el “descubrimiento de América” impulsó el crecimiento del mercado, que aumentó la producción y favoreció tanto el desarrollo de las innovaciones tecnológicas como la aparición de los “descubrimientos científicos” que rompieron con la tradición aristotélica. Copérnico propone un cambio radical: la tierra no es el centro del universo y gira alrededor del sol como lo hacen los planetas. Galileo propone la ley de la inercia y descubre los satélites de Júpiter que giran a su alrededor, como la luna lo hace con la tierra y los planetas en torno al sol. Torricelli descubre la “presión atmosférica”, Newton propone la ley de la gravitación. La Alquimia, heredada de las tradiciones egipcias, china, griega y musulmana luego de pasar por la Iatroquímica y la teoría del flogisto, dejará sus sedimentos sobre los que se levantará la química. Boyle, Blake, Proust y Dalton contribuirán notablemente al conocimiento de la materia y sus transformaciones. Lavoisier nombra al Oxígeno y al Hidrógeno, genera conceptos que rompen con la tradición, propone la ley de la conservación de la materia y surge la Química.

1

Dirá E. Galeano…”¿fueron descubiertos? “¿Los Indios no se sabían existentes? (paráfrasis)

6

El conocimiento científico cambia la concepción del mundo. El mercado crece impulsado por el oro y la plata que fluyen de América a Europa: en parte por el aumento de la capacidad de compra y en parte por el incremento de la producción fruto de “la formación de capitales” resultado de la piratería.

El Vapor, los gases y la Revolución Industrial A la fuerza motriz de los seres humanos, de los animales domésticos, del viento y del agua se suma la del vapor. Surge la teoría del calor y Joule propone el equivalente mecánico. Genios como Watt y otros transformarán el conocimiento práctico en máquinas. Cerca del 1787, Charles 2 descubrió la ley que lleva su nombre dando continuidad a un proceso de conocimiento iniciado con la Ley de Boyle. Posteriormente Gay Lussac, a principios del siglo XIX, redondearía las propuestas anteriores al establecer la ley general del estado gaseoso. Por su parte, Antoine Lavoisier –un poco antes de que la revolución le cortara la cabezademostró que el fuego se debe a la reacción exotérmica de sustancias combustibles con oxígeno. También llamó Hidrógeno (del griego: productor de agua) al gas descubierto por Cavendish. Igualmente demostró que el CO2, el H2SO4 y el HNO3 contienen oxígeno. Ya antes, en 1780, Lavoisier, junto con Pierre Laplace, publicó su “Memoria del Calor”, en la que concluyen que la respiración es una forma de combustión. Nicholas Leblanc desarrolla un proceso para la producción de Na2CO3, en 1789. La competencia entre Francia e Inglaterra en torno a las innovaciones era muy cerrada. Pero en tanto que los franceses eran más “científicos”, los ingleses eran más prácticos y sus inventos se tradujeron rápidamente en la “maquinización” de la industria: abarataron los costos de producción e impulsaron la expansión del imperio británico. Hacia 1800, Francia todavía no acababa de salir de su revolución, cuando Napoleón se convirtió en Emperador y se lanzó a la conquista de Europa. Como es lógico suponer, toda la capacidad industrial de Francia se puso al servicio de la guerra. Mientras en Inglaterra crecía la industrialización. Las fábricas comienzan a instalarse en la cercanía de los centros urbanos junto con su propia fuerza motriz proporcionada por el vapor. Y aparecen las grandes urbes. Al crecer la industrialización, acelerada por el crecimiento del mercado y de los nuevos descubrimientos, se produce una gran demanda de álkalis solubles (Na2CO3 ) por tres de las mayores industrias de la época: vidrio, jabón y papel. Su producción por el método de Leblanc produce grave contaminación en los barrios donde se encuentran las instalaciones.

La electricidad La imaginación, la búsqueda y la iniciativa de los “científicos naturales” no descansa, lo que lleva, en los albores del siglo XIX al descubrimiento de una nueva potencia: la electricidad. En este campo destacan los trabajos de Benjamín Franklin como pionero. Al conocimiento 2

Charles, fue el primer hombre en volar en un globo aerostático

7

de la electricidad se suman los descubrimientos del italiano Luigi Aloisio Galvani y de su alumno Alessandro Volta, junto con los del francés André-Marie Ampère. También los científicos ingleses participaron de la aventura, particularmente Sir Humphry Davy y su notable alumno y ayudante Michael Faraday, en defensa de cuyos “inútiles experimentos” expresó Davy: "Nada es tan peligroso para el progreso de la mente humana que suponer que nuestras ideas científicas son finales, que no existen misterios en la naturaleza, que nuestros triunfos son completos, y que no existen nuevos mundos por conquistar.”

El Calor y la termodinámica El vapor y su potencia así como el comportamiento de los gases con sus misterios, continúan siendo un gran atractivo para inventores y científicos. Como ya se vio, en 1802 GayLussac formula la Ley General del Estado Gaseoso, en tanto que, en 1811, el italiano Amadeo Avogadro demuestra que volúmenes iguales de cualquier gas, bajo las mismas condiciones de presión y temperatura, tienen el mismo número de moléculas, lo que se conoce como el Número de Avogadro, cuyo peso es proporcional al peso molecular del gas correspondiente. Por su parte, los ingleses, más prácticos, continúan con el desarrollo de las aplicaciones: Robert Fulton inventa el barco de vapor, liberando a la navegación del incierto comportamiento del aire. El tiempo de viaje se vuelve más preciso y poco después, en 1814, George Sttephenson inventa la Locomotora abaratando el transporte de mercancías. La conquista por el vapor de nuevos territorios en la práctica, pone a pensar a los teóricos, de tal suerte que para 1824, Sadi Carnot avanza en el proceso de conocimiento y publica sus “Reflexiones sobre la Potencia Motriz del Fuego” y las bases de la Termodinámica. Por su parte en 1846 Joule establece el Equivalente Mecánico del Calor, lo que vino a demostrar que el calor es una forma de energía.

La Industria química La industrialización continúa en Inglaterra y para 1835 existían ya más de 120.000 telares mecánicos en las fábricas—, lo que atrajo en masa a hombres, mujeres y niños a las ciudades industriales, las grandes urbes continúan creciendo. El incremento de la maquinización requirió de mejores materiales, lo que condujo al avance de la metalurgia. En 1855 Henry Bessemer inventó un nuevo proceso para convertir el hierro en acero, un metal mucho más resistente y versátil que el hierro forjado. Esto suministró materia prima a las nuevas líneas ferroviarias, mejoró la calidad de los barcos y el poder del armamento.3 Los cambios se sucedían uno tras otro y las necesidades de energía de la industria en desarrollo continuaban “in crecendo”. Muy pronto apareció otra fuente de energía: En 1855 Benjamin Silliman, de New Haven, Connecticut, destiló petróleo y obtuvo alquitrán, naftaleno, gasolina y otros solventes. La actividad en los laboratorios era incesante y en 1856 William H. Perkin, cuando intentaba sintetizar quinina, obtuvo el primer colorante sintético derivado del alquitrán de hulla. A 3

.- La demanda de acero era casi insaciable, en 1910, Krupp, el mayor fabricante alemán, tenía unos 70.000 empleados, cuando en el año 1822 solo tenía 122.

8

partir de entonces, la creciente necesidad de colorantes y blanqueadores para el teñido y estampado de los productos de la industria textil, en expansión, fue satisfecha con colorantes sintéticos, productos de una industria química floreciente. Esta nueva industria se sumó a las ya existentes y la demanda de productos químicos inorgánicos se incrementó, lo que trajo cambios en las correspondientes industrias: en 1859 John Glover inventa una torre de absorción para la producción de H2SO4 en las cámaras de plomo y la separación (NOx) y para 1861, Solvay desarrolla un nuevo método para producir carbonato sódico, que redujo considerablemente la enorme contaminación del proceso Leblanc. La química orgánica continuó sus avances y se obtuvieron los compuestos orgánicos nitrados de donde saldrán explosivos, propulsores, textiles sintéticos, plásticos y otros materiales. En 1866 Alexander Parkes ("The Father of Plastics") inventa el celuloide. La era de los textiles sintéticos arranca con el invento, en 1884, de la Viscosa-Rayon por el químico francés Hilaire Chardonnet. En 1866 Alfred Nobel inventa la dinamita, forma segura de la Nitroglicerina, que fue sintetizada por primera vez en 1846 por el químico italiano Ascanio Sobrero. La teoría también avanza y se consolida: En1869 Dimitri Mendelejeff publica una tabla donde organiza los elementos, hoy conocida como Tabla Periódica, en tanto que para 1878 Josiah Willard Gibbs propone la teoría de la “Termodinámica Química”. En1889 el científico sueco, Svante Arrhenius, analizó el efecto de la temperatura sobre la tasa de reacción, k = A (-Ea/T) y propuso el concepto de “Energía de Activación”, en lo que hoy se conoce como la “Ecuación de Arrhenius”, Para 1900 la producción de H2SO4 se revoluciona, John Herreshoff desarrolla el primer método de contacto, y BASF produce en Alemania Índigo sintético en escala comercial.

La Ingeniería Química Los avances en los diversos campos contribuyeron para la continuidad de la revolución industrial. Particularmente en Inglaterra, se había desarrollado una gran industria de procesos con necesidades propias, que requería de la integración de los saberes de los químicos, analistas e industriales, con las habilidades y conocimientos de los ingenieros mecánicos de dicha industria. Es por ello que en 1880 George Davis un antiguo inspector de la industria del álcali propuso en Inglaterra una "Society of Chemical Engineers", con lo que aparece por primera vez el nombre de una nueva disciplina. Posteriormente en 1888 Davis sentará las bases de la nueva profesión al presentar en Manchester una serie de 12 “Lecturas” sobre Chemical Engineering y para 1901 publicará su libro "Handbook of Chemical Engineering", el primer manual de la profesión, en el que por primera vez agrupará las operaciones que eran comunes a los procesos de varias industrias. Mientras tanto, en EUA, The Massachusetts Institute of Technology (MIT) comenzó en 1888 su "Course X" (ten), el primer programa de cuatro años en Ingeniería Química. El siglo XX arranca envuelto en una fiebre de descubrimientos e invenciones que modificarán las formas de reproducción de la sociedad. La ciencia y la tecnología encabezan una situación de cambio permanente. La imitación de la naturaleza en el laboratorio conduce a una corriente

9

de nuevos productos que pasan rápidamente a la industria, para modificar el consumo de las grandes poblaciones e ir poco a poco cambiando, de manera inadvertida, la relación de la sociedad humana con la naturaleza. Entre los desarrollos que marcarán el inicio del siglo XX y que impactarán en el desarrollo de la naciente disciplina (IQ) resaltan tres: El del motor de combustión interna, la refinación del petróleo para la obtención de combustibles y la producción de amoníaco a partir del nitrógeno del aire. (En 1895 Linde establece un proceso para la licuefacción del aire). En paralelo aparecen nuevos descubrimientos que apuntalan la naciente disciplina: se desarrolla el motor a gasolina, se descubre el polímero termofijo conocido como la “Bakelita”, Haber y Bosch inician la producción de amoníaco sintético. El Kaiser convoca a desarrollar un método para la producción de Hule Sintético y ofrece 10, 000 marcos. Un hecho sobresaliente en el campo teórico fue la propuesta por Arthur D. Little del término “Operaciones Unitarias”, para agrupar en un solo concepto teórico al conjunto y a cada una de acciones realizadas en los procesos de transformación, lo que constituyó un primer paso en la construcción de la disciplina. Y así se entrelazan permanentemente los logros prácticos con el desarrollo de nuevos productos y sus procesos respectivos, con las reflexiones académicas sobre el quehacer, para comprender mejor los fenómenos y las variables que los determinan. El transcurso del siglo XX será testigo del florecimiento de la disciplina, de sus logros y de las consecuencias de cambiar las formas de consumo sociales, para una población mundial con crecimiento exponencial y sus efectos sobre la naturaleza. Referencias: Pafko, Chemical Engineering Timeline. AICHE. Wikipedia.

Desarrollo y consolidación de la Ingeniería Química La reflexión sobre lo que se hace y el cómo se hace, en la práctica continua, llevó a Arthur D. Little a proponer el concepto de “Operaciones Unitarias” sentando las bases para el desarrollo de la IQ como disciplina científica, en lo que se conoce como su primer paradigma. La expansión de la producción de automóviles hizo crecer la demanda de gasolina. La refinación y el mejor aprovechamiento del petróleo crudo condujeron al cracking térmico en 1912. Por otra parte, la escasez de fertilizantes nitrogenados, hasta ese momento suministrados por el “nitro” de Chile, propició el proceso de “fijación” del nitrógeno del aire y llevó a la frontera de la IQ a vencer el desafío de procesos con altas presiones y temperaturas4 Pasada la Guerra Mundial, la Ingeniería Química se consolidó apoyada en los trabajos teóricos de Walker Lewis y MacAdams; Principles of Chemical Engineering, publicado en 1923. Con este texto se dio inicio a la serie sobre ingeniería química de Mc Graw Hill.5 4 5

.-En vísperas de la 1ª Guerra Mundial. Hasta qué punto fueron los fertilizantes o más bien los explosivos los que impulsaron la síntesis del AmonÍaco. Scriven, op cit

10

La literatura básica de la profesión se enriqueció con la aparición en 1934 de el “Perry”: Chemical Engineer’s Handbook, Manual del Ingeniero Químico, recopilado por John H. Perry de Du Pont como editor en jefe. En el campo de la práctica la producción del hule sintético, de los polímeros y los textiles sintéticos, la producción de antibióticos, de plaguicidas, de detergentes, y el desarrollo de la industria petroquímica, antes y después de la Guerra Mundial II, fueron los detonadores para la innovación y la creación de nuevas tecnologías y el fundamento para la aparición de un nuevo concepto unificador: “Los Fenómenos de transporte”, Transport Phenomena, publicado en 1960 por Bird, Stewart, and Lightfoot.

La Revolución Científico-Tecnológica (RCT) e Ingeniería Química Los desarrollos científico-tecnológicos durante la segunda mitad del siglo XX, tanto de nuevos productos y procesos como de nuevos procesos para viejos productos, propiciaron el florecimiento de la profesión, la que se convirtió en cierta manera en la disciplina protagonista de la llamada RCT y del cambio en el “qué y el cómo” del consumo.6 Para el inicio del tercer cuarto del SXX, la disciplina se vio fortalecida con la inclusión curricular de una sólida formación matemática, imprescindible para la comprensión cabal, tanto de los Fenómenos de Transporte como de la Ingeniería de Reactores Químicos. La incorporación de la computadora favoreció las tareas de Simulación para la mejor comprensión de los procesos a través de los modelos y la consolidación del Control Automático como una materia fundamental. La integración de una sólida formación en matemáticas, el poder de la simulación y las computadoras cada día más poderosas, permitieron, primero, un diseño de procesos más racional y luego un diseño integrado de producto-proceso, en una muestra de la capacidad de la IQ para operar en la micro, la meso y la macro-escala de los procesos de transformación.7

La IQ madura y sus interacciones posibles IQ Ambiental Ingeniería Química y Medio Ambiente: Ingeniería Ambiental El trabajo interdisciplinario entre los IA y los IQ se ha vuelto un imperativo de nuestro tiempo, tanto a nivel de la remediación como de la prevención de los efectos de la contaminación. Es por ello que, la Ingeniería Química, en tanto que disciplina, se encuentra estrechamente vinculada con la Ingeniería Ambiental, ya que esta última enfrenta situaciones que a menudo son controladas bien por los fenómenos de transporte, bien por las tasas de reacción de los contaminantes, o por las cinéticas de descomposición, etc. Cuestiones en las que la IQ se ha especializado. 6

Aréchiga RTC e IQ, CONIQyQ 1992

7 Warren W. Seider, J. D. Seader, Daniel R. Lewin, and Soemantri Widagdo, Product and Process Design

Principles, John Wiley & Sons, 2009.

11

Bioprocesos, Bioreactores. La célula como reactor y la célula como fábrica. Los microorganismos pueden llevar a cabo una serie de procesos químicos y sintetizar algunos compuestos orgánicos a través procesos complejos de múltiples pasos con una gran eficiencia, como sucede con la producción de etanol, de ácido cítrico, antibiótico, etc. Por otra parte, los microorganismos son productores de enzimas, las cuales son biocatalizadores El hecho de que los microorganismos crecen y se reproducen a través de una compleja red de reacciones químicas con alrededor de mil diferentes catalizadores localizados dentro de paredes compuestas por las membranas semipermeables (selectivas) de las células las convierte en motivo de estudio para el desarrollo de tecnología e innovación de procesos8.

Ingeniería Biomédica: Otro campo de interacciones prometedoras se presenta con la Ingeniería Biomédica en el estudio conjunto de los complejos procesos de dinámica de fluidos en los flujos sanguíneos, de difusión gaseosa en los pulmones y otros fenómenos de transporte a través de las membranas selectivas en los intestinos o la diálisis en los riñones. (Órganos artificiales o sistemas extracorpóreos)

8 Bailey J.E. ADVANCES IN CHEMICAL ENGINEERING, VOL. 16 pp425-444, 1991

12

II.- Cinemática



En el principio fue la materia en movimiento… La observación de los fenómenos que se presentan en la vida cotidiana y la reflexión sobre ellos, ha llevado a la humanidad a conocer a la naturaleza, a interpretarla y hacer de este conocimiento una herramienta para mejorar sus condiciones de trabajo y de vida. ¿Qué impulsa a los cuerpos para que se muevan? En resumen, para Aristóteles, el movimiento sólo es posible cuando una fuerza actúa permanentemente sobre el cuerpo móvil. Es decir que movimiento y fuerza son inseparables… “un objeto en movimiento es siempre el efecto de una especie de entelequia, ya sea visible ó invisible” Los filósofos medievales Oresmes y Buridan retoman, para su teoría del “ímpetu”, especie de fuerza invisible existente en el mundo físico, el argumento de Philoponous, un seguidor de Aristóteles, que sostiene que “cuando un objeto es lanzado al aire se le imparte una fuerza, que es la responsable del movimiento después que la mano ya no está en contacto con el objeto fuerza que tiende a disiparse”. El experimento de Galileo… Cuenta la leyenda que Galileo, dudando de la afirmación de Aristóteles, se propuso realizar un experimento para entender cómo actúan las fuerzas sobre los cuerpos en movimiento. Tomó tres tablas y labró un canal semicircular que corría longitudinalmente por la mitad de las tablas y lo recubrió de pergamino. Pulió y lubricó el canal para disminuir al máximo la fricción. Luego colocó una de las tablas horizontalmente y con el canal hacia arriba. Las otras dos tablas las colocó como cabeceras conectando los canales lo mejor posible y cada una formando un ángulo œ con la horizontal. A continuación hizo correr por el canal de la tabla de la izquierda, desde una altura h1, una esfera de bronce (¿) muy bien pulida. Esta bajó, discurrió por la horizontal y ascendió por la tabla del lado opuesto. Se midió la distancia total recorrida, Dt1. Se repitió el experimento disminuyendo el ángulo de la tabla de la derecha y se observó que la distancia Dt2>Dt1. Nuevamente se redujo el ángulo y se comprobó que Dt3>Dt2. Una nueva reducción del ángulo al repetir el experimento arrojó una Dt4>Dt3. Con esto se tuvo la certeza de que cada disminución del ángulo a permitiría que la esfera avanzara una distancia mayor, algo así como Dt = f(a). Una extrapolación genial: Si el ángulo fuese cero a = 0 y la fricción nula f = 0, el cuerpo móvil recorrería una distancia infinita. De ahí el principio de la inercia: un móvil no cambia su estado de reposo o de movimiento si no hay una fuerza que actúe sobre el o un cuerpo sólo modifica su estado de reposo o de movimiento por la actuación de una fuerza.

13

Aquí es importante destacar que sobre la tierra no existe el movimiento “rectilíneo” como tal, ya que la horizontal como recta, es un segmento de curva que tiene como radio el radio terrestre. Pero es indudable que el “modelo” funciona. La caída de los cuerpos: si dos esferas iguales en diámetro, una de ébano y otra de plomo, se dejan caer simultáneamente desde lo alto de una torre ¿cuál llegará primero al piso? Según Aristóteles, la velocidad de caída es proporcional al peso. Posteriormente Galileo, luego de varios experimentos (más bien imaginarios) en los que fue agregando pesos, postuló que todos los cuerpos caen con la misma velocidad. Por lo tanto ambas esferas, si no fuera por la resistencia del aire, tocarían tierra al mismo tiempo.9 Todos los cuerpos caen a la misma velocidad de mayor altura un objeto cae a mayor velocidad Por lo tanto la caída es un movimiento acelerado.10

Es posible que Galileo no haya realizado físicamente los experimentos. Lo que resulta indudable son sus ejercicios mentales, de imaginación, de lógica y sobre todo de abstracción: despojar a la realidad de las influencias de la apariencia engañosa para profundizar en los fenómenos y encontrar su esencia.

La abstracción, la geometría.

Realidad, abstracción, imaginación y modelos En el principio era el punto (.), entidad ideal sin dimensiones, por lo tanto realmente inexistente, cuyo movimiento engendró la línea como una propuesta unidimensional. La línea al moverse produjo la bidimensionalidad del plano, el cual en su desplazamiento dio origen al volumen tridimensional. Luego el volumen fue el volumen de un cuerpo sobre la tierra y fue grávido, pesaba: se llenó de una cantidad de masa, fue la materia en movimiento.

9 Koyré Estudios Galileanos, SigloXXI 10 En Levenspiel, “Rambling Through Science & Tecnology” p10.3

14

EN EL PRINCIPIO APARECIO EL PUNTO ...

...SU MOVIMIENTO..

ENGENDRÓ...la línea...el plano...el volumen

Ahora bien, de acuerdo con la ley de la inercia, que como tal fue postulada por Newton, los cuerpos materiales sólo pueden cambiar su estado de reposo o movimiento por la acción sobre ellos de una fuerza ¿pero que es una fuerza? Masa y peso Aunque la masa y el peso están estrechamente relacionados entre sí, no son lo mismo. Un objeto en la Tierra no tiene el mismo peso que tendría en la luna si en ambos casos se emplea una balanza de resorte. Ojo que pasaría si se emplea una balanza con pesas??? En la Luna pesaría mucho menos por la disminución de la atracción gravitacional. Si bien el peso se ha modificado, la masa continúa siendo la misma. En cambio el impacto de un guijarro a 15 km/h será el mismo independientemente del lugar, sea este sobre la tierra, en la luna, en Júpiter o en el sol. Otra cosa sucede si un objeto, de 1 kg en la tierra, cae sobre los pies de alguien: en Júpiter y más aún en el sol, le aplastaría completamente los pies por el efecto gravitacional.11 Así pues en tanto que la masa permanece constante, independientemente del sistema gravitacional, el peso es una función de la aceleración. La unidad de medida para ambos es el kg especificando, kg masa o kg fuerza. En la tierra, un kg fuerza expresa el efecto de la aceleración de la gravedad sobre un kg masa. kgf = kgm . g, donde g = 9.8m/seg2 es la aceleración de la gravedad en la tierra.

Con unidades: masa en kg, aceleración m/seg2 F = kg × m / seg = 1 Newton La dinámica de Newton y el concepto de fuerza: Las tres leyes de Newton : 1.- Ley de la Inercia: Todo cuerpo mantiene su estado de reposo o de movimiento a menos que una fuerza externa actúe sobre el. 2

11 De Leeuw 42 RAMBLING THROUGH SCIENCE

15

2.- Si se aplica una fuerza F a un cuerpo de masa m se producirá una aceleración a según la expresión: F = m × a 3.- Cuando un cuerpo C ejerce una fuerza F sobre otro cuerpo D, este a su vez ejercerá sobre C una fuerza - F igual pero de sentido contrario a F (Acción y reacción). Como se puede notar la fuerza se define por su efecto: la aceleración que produce su acción sobre la masa de los cuerpos. En resumen: Mientras que la primera ley describe cualitativamente a la fuerza por el comportamiento de un cuerpo en ausencia o bajo la acción de dicha fuerza, la segunda ley es una expresión cuantitativa que muestra cómo cambian los cuerpos cuando una fuerza actúa sobre ellos. La tercera ley establece que toda fuerza en acción tiene una existencia inseparable de su reacción, otra fuerza de igual magnitud pero de sentido contrario. La tercera ley también se le conoce como Ley de Conservación del Momentum El Momentum: Otro concepto clave de la dinámica newtoniana y muy útil para el estudio de la mecánica de fluidos es el de momentum, el cual se define como el producto de la masa por la velocidad. = kg × m / seg Si se considera la acción de una fuerza por un cuerpo A sobre otro cuerpo B en movimiento durante un tiempo t, se tendría para B: mB ( v2 - v1 ) B é kg × m ù F = mB a = = N = 2 ú ê t s û ë Multiplicando ambos lados por 𝑡 da:

(v2 - v1 ) B

Ft = m B DvB Impulso a B

Cambio en el momentum

El cambio en el momentum en B es de la misma magnitud que el impulso suministrado.12 La Energía Otro de los conceptos fundamentales para la comprensión del mundo y sus fenómenos, también postulado por Newton, fue el concepto de Energía. Inicialmente esta fue concebida como cinética o potencial. La energía en principio se asocia al movimiento como Energía Cinética, la cual es igual a la mitad del producto de la masa del cuerpo en movimiento, por el cuadrado de la velocidad. Ek = mv 2 / 2 . Mientras que como energía potencial se relaciona con la posición (altura h) de los cuerpos respecto de la superficie terrestre y la fuerza gravitacional. E p = mgh 12 Levenspiel, Rambling trough Science and Tecnology, p10.7

16

1 J = (1 newton)(metro) = N · m

“En un sentido amplio pero veraz, puede decirse que la energía Newtoniana es un proceso dinámico en el que para ambas, la energía cinética y la energía potencial, tienen lugar sus transformaciones, su transmisión y su distribución”. Sin embargo cabe hacer notar que si bien la Mecánica Newtoniana describe de manera precisa y objetiva las manifestaciones de la energía, esto lo hace por medio de conceptos muy abstractos donde tanto la fuerza como la energía se definen sin referencia con algún agente mecánico.13 Si la fuerza es igual a la masa por la aceleración F = m . a y la energía cinética se establece en términos de masa por aceleración E = mv 2 / 2 , dado que la aceleración es la derivada de la velocidad con respecto al tiempo a = dv / dt se puede establecer la relación: F = dE / dt . Con esta expresión se puede cuantificar la cantidad total de fuerza, en un período de tiempo, a partir del total de energía equivalente transformada en ese tiempo por medio de la integral de: E = F dt La definición cuantitativa en términos de espacio, tiempo y masa (materia) desplegadas en un espacio medible se muestran interconectadas por su descripción matemática.

“Galileo and Newton started science as we know it today”14.

La montaña Rusa Uno de los ejemplos más comunes para ilustrar las transformaciones de la energía cinética en energía potencial y viceversa, es sin duda la montaña rusa. Cuando el carro es llevado a la parte más elevada de la montaña, su energía potencia estará en el máximo. En el descenso, el carro se acelera, aumentando su velocidad en la medida en que la energía potencial se convierte en energía cinética, la cual alcanza su máximo al llegar al fondo de la curva vertical, punto en el que inicia el ascenso y con él la transformación de energía cinética en energía potencial hasta el punto máximo donde toda la energía cinética se convierte en energía potencial15. La transformación de las energías de una en otra no se produce al 100% debido a que los procesos de conversión implican fricción, tanto sobre el material del deslizamiento, como por el rozamiento del aire, por lo que se puede establecer que la energía Potencial inicial será igual (idéntica) a la suma de la energía cinética más el calor producido por la fricción: E pi = Ek + Q La energía cinética: Ek = ½ m v

2

La energía potencial: DE p = m g ( z2 – z1 )

Con las dimensiones de tiempo, espacio y masa,

13 Esto es válido también para la energía térmica, eléctrica, magnética, etc. http://www.thecatalyst.org/physics/chapter-two.html 14 Levenspiel op. cit.

15 Infeld y Einstein op cit

17

F = m × a = kg × m / seg 2



Ek = kg × ( m / seg 2 )



Ek = kg × ( m / seg 2 )

m = kg × m 2 / seg 2 = Fuerza × distancia





E p = kg ( m / seg 2 ) ) × m = Fuerza × distancia

Calor y Trabajo: Aquí resulta conveniente aclarar que aunque el trabajo mecánico y el calor se expresan cuantitativamente en unidades de energía, estrictamente no se consideran como tal. La energía cruza la frontera de un sistema en forma de calor o de trabajo. La adición de calor o trabajo es un proceso que cambia el estado del sistema. Un sistema tiene energía, no calor ni trabajo.

El calor puede ser producido o liberado en varios procesos: En la realización de un trabajo como lo propusieron Thompson, Meyer y Joule. En las reacciones químicas a volumen constante según Hemholtz y a presión constante a partir de Gibbs. Por el paso de la corriente eléctrica por una resistencia de acuerdo con Faraday y en la propuesta de Einstein por la transformación de la masa en energía. Levenspiel propone el siguiente esquema en el que muestran las interconexiones entre las diferentes manifestaciones de la energía y sus transformaciones.16 En todos los casos, el análisis dimensional nos lleva a la expresión siguiente: = kgm / seg . Para el caso de la energía nuclear como se sabe el cambio de magnitud es enorme, dado que la masa se multiplica por el cuadrado de la velocidad de la luz. 2

2

Joule (1842) Meyer (1842)

ENERGÍA CINÉTICA

ENERGÍA INTERNA

Helmhontz (1847) Gibbs (1876)

Galileo (1688)

ENERGÍA POTENCIAL GRAVITACIONAL ELÉCTRICO MAGNÉTICO

Pero… ¿qué es la energía?

ENERGÍA QUÍMICA MASA Enstein (1905)



Antes de seguir adelante, resulta conveniente mirar más de cerca, esta clase de “objetos de pensamiento” que son los conceptos y que ayudan a la ciencia a entender y explicar la realidad.

16 Levenspiel op. cit.

18

En primer lugar existen conceptos no-definidos, como son el espacio y el tiempo, pero dado que sabemos cómo medirlos, se tiene lo que se conoce como definiciones operacionales. Por otra parte se tienen los conceptos definidos entre los que se encuentran la velocidad como el espacio que recorre un cuerpo móvil en un tiempo dado y la aceleración que se define como el cambio de la velocidad (y/o la dirección) en el tiempo.17

Como ya se vio, la fuerza es un concepto generado por la mente científica, en este caso particular por Newton, con la intención de explicar en primer instancia el movimiento. Así la expresión cuantitativa de Fuerza quedó en términos de la masa por la aceleración. F = m . a, cuya unidad básica es el Newton = kg × m / seg En cuanto a la “energía”, igual que la fuerza, es un concepto. La palabra “energía” es un término inventado en 1804 por Thomas Young para una manifestación de la materia que no es precisamente “una cosa”, ya que no posee ni olor, ni color, ni sabor, ni masa ni volumen. En otras palabras nuestros sentidos no son capaces de proporcionarnos una información sensible de la energía. Se trata de una idea abstracta difícil de entender o de darle un significado práctico coherente. 2

Posteriormente, en 1842, Meyer estableció la equivalencia y la conservación entre “movimiento y fuerza de caída” (energía cinética y energía potencial) y su conversión en calor sin referirse estrictamente a la palabra “energía” 18. Para la física, la energía es una magnitud abstracta que está ligada al estado dinámico de un sistema cerrado y que permanece invariable con el tiempo. En términos prácticos, la energía fue definida como la “capacidad de producir trabajo” es decir como la cantidad de fuerza que hay que aplicar a un objeto para moverlo una cierta distancia: E = F × d , si F = m × a , entonces E = m × a × d . En unidades: kg(m/seg2) m = kg m2/seg2. La unidad de energía en el sistema internacional es: 1 Joule = El trabajo mecánico realizado por la fuerza de 1 Newton para mover un objeto la distancia de 1 metro. 1 J = (1 Newton)(metro) = N · m Formas de la Energía

17 Levenspiel “Rambling…

18 Energía, del griego Energeia que significa fuerza efectiva o eficacia, c Müller… op-cit

19



III.- La Teoría Cinética de los Gases.



Átomos y Moléculas… El concepto de átomo se remonta a los tiempos antiguos cuando los filósofos griegos, Demócrito y Epicuro preocupados por comprender la esencia de la materia y de sus componentes, tomaron como punto de partida el hecho de que la materia es divisible . Es decir que un cuerpo cualquiera puede ser dividido una y otra vez hasta alcanzar un límite, prácticamente infinitesimal, donde ya no es posible realizar otra división. A las partículas que resultarían de la última división posible les llamaron átomos. “Átomo”= indivisible. Del griego, a privativa (sin) y toµos división. A partir de ahí concluyeron que toda la materia estaba compuesta de átomos.

20

Estos átomos podían tener formas y texturas diferentes para combinarse, enlazarse y constituir la materia elemental aire, agua, fuego y tierra. Los cuatro elementos aristotélicos de los cuales se componía todo el universo. Los átomos pasaron varios siglos olvidados, empolvándose en los rincones de la historia, para reaparecer en 1808 cuando Dalton propone un modelo, fruto de sus experiencias y de los postulados de Lavoisier, sobre la conservación y el de Proust, sobre las proporciones constantes. Postulados que fueron también un punto de partida para la ley de Dalton de las “proporciones múltiples”. 19

A partir de entonces y del empleo de los pesos atómicos ya no se puso en duda la existencia del átomo y la investigación se dirigió hacia el esclarecimiento de su naturaleza.

Thompson, en 1904, propone la existencia de partículas negativas dentro del átomo, a los que llamó electrones.

El átomo de Rutherford, 1911, estaba ya compuesto por una corteza de electrones girando en torno de un núcleo.

Hacia 1913 surge el modelo de átomo de Bohr como un diminuto sistema solar con el núcleo como centro, formado por un conjunto de protones y neutrones, y con los electrones, partículas planetoides, girando a su alrededor. El modelo funcionó adecuadamente sobre todo para explicar el enlace químico a partir de los electrones periféricos: su cesión para la formación de los enlaces iónicos y los electrones compartidos en los enlaces covalentes. Los trabajos de investigación sobre la naturaleza y la estructura atómica continuaron intensamente con las investigaciones, entre otros, de Heisemberg, Schroedinger, Sommerfeld, Dirac, Pauli, Millikan y otros hasta llegar a la propuesta del modelo cuántico ondulatorio hacia 1930, donde los electrones se muestran como una dualidad partículaonda. La molécula. 19 los

átomos de la piedra, pesados y secos; los átomos de agua, pesados y húmedos; los átomos de aire, fríos y ligeros, y los átomos de fuego, fugitivos y calientes.



21

El concepto de molécula nace en la Universidad de Turín en 1811, de los trabajos que realizó Amedeo Avogadro en torno a las propuestas de Gay Lussac sobre el comportamiento de los gases bajo los efectos de la presión y la temperatura . Avogadro formuló la hipótesis de que, el comportamiento igual, de volúmenes iguales de gases diferentes, era debido a que ambos volúmenes contenían el mismo número de partículas. Estas partículas se conocen desde entonces como moléculas. Visto de otra manera una mol ( el peso molecular expresado en gramos) de cualquier gas tendrá siempre el mismo número de partículas (6.02 x1023) lo que actualmente se conoce como el “número de Avogadro” . Y si tienen igual número de moléculas, el volumen de una mol de cualquier gas será igual (22.4 litros en condiciones normales de presión, una atmósfera y temperatura, 0o C ). Molécula s. f. Diccionario 1 Parte más pequeña que puede separarse de una sustancia pura sin que la sustancia pierda sus propiedades. Molécula gramo (mol) Masa de una molécula expresada en gramos; equivale a la masa molecular relativa de una sustancia. 2 Unidad fundamental que constituye un compuesto químico y la parte más pequeña del mismo que interviene en una reacción química.

La molécula es una entidad electricamente neutra compuesta por dos o más átomos que comparten electrones en enlaces covalentes o en enlaces iónicos. Es la parte más pequeña que mantiene todas las propiedades químicas y fisicas de la materia en cuestión. Las moléculas pueden estar consituidas por átomos diferentes o iguales. En el primer caso se forman los compuestos, H2O, CO2, H2SO4 (agua = dos átomos de hidrógeno y uno de oxígeno. Bióxido de carbono y Ácido sulfúrico). En el segundo caso se encuentran las moléculas diatómicas de algunos elementos gaseosos, como el Hidrógeno, el Oxígeno y el Nitrògeno H2, O2, N2. Representación gráfica de varias moléculas: Molécula de agua Molécula de Nitrogeno Molécula de Fenantreno







22

Macromoléculas y cristales En términos generales, cuando se habla de “moléculas” se piensa siempre en partículas extremadamente pequeñas, difícilmente visibles aun con un microscopio electrónico. No obstante, los polímeros se conforman de una especie particular de “cadenas” de moléculas llamadas monómeros que se enlazan entre sí para formar macromoléculas. Existen dos clases de polímeros: los naturales y los sintéticos. Entre los primeros se encuentran la celulosa, el almidón, las proteinas, el hule natural y muchos más. Entre los sintéticos, se pueden citar los plásticos, polietileno, poliestireno, polibutadieno, nylon, entre otros. Fragmento de una molécula de almidón, polisacárido compuesto por más de 30 unidades de glucosa

Los cristales Son estructuras que se forman a partir de moléculas que se acomodan simétricamente para formar conjuntos tridimensionales, organizados como redes elementales en un orden periódico regular que se repite indefinidamente, para conformar la estructura cristalina en una especie de molécula macroscópica. En el cristal, los átomos o las moléculas construyen la red cristalina a través de enlaces covalentes o electrovalentes. Así las redes cristalinas de los metales y del carbono son covalentes, en tanto que los cristales de cloruro de sodio se forman con enlaces electrovalentes.20 Cristales de cuarzo Halita (NaCl) Cloruro de Sodio

20 Es conveniente señalar que el vidrio no es un cristal aunque en la vida cotidiana se acostumbra llamar a los objetos

de vidrio como cristales. El vidrio es un sólido amorfo que con las características peculiares de un “líquido superfenfriado”.

23

Entre los cristales más comunes destacan los de cloruro de sodio, en el que cada átomo de cloro está rodeado de seis átomos de sodio y a su vez cada átomo de sodio está rodeado por 6 átomos de cloro en una estructura cúbica. Cristales de carbono: Grafito Diamante

Los cristales gigantes de Naica en Chihuahua



La teoría cinética de los gases: “…I hold it to be true that pure though is competent to comprehend the real, as the ancients dreamed.” A. Einstein (1934 “…all knowledge about reality begins with experience an terminates in it.” (A.E.) Sobre modelos: El movimiento browniano… La teoría cinética Las moléculas ¿esferas rígidas?

24

Como se vio con anterioridad, la ciencia, o más bien los científicos, interpretan la realidad a través de modelos que permiten comprender los fenómenos y predecir su comportamiento con una precisión relativa. El modelo es pues una creación de la mente humana que refleja la realidad y su validez está determinada por la comparación entre los resultados predichos y la medición del comportamiento del fenómeno en cuestión. Uno de los modelos más útiles para la explicación de un conjunto de fenómenos ha sido sin duda el modelo que considera a las moléculas como esferas rígidas en movimiento. Cuando el movimiento es restringido a una mera vibración, las fuerzas cohesivas son grandes, las moléculas se mantienen en su posición y la materia se presenta en estado sólido. En el caso de los líquidos las fuerzas de cohesión son suficientemente fuertes para mantener su volumen constante. Las moléculas se desplazan continuamente lo que hace que los líquidos adopten la forma del recipiente que los contiene. En los gases las fuerzas cohesivas son muy débiles y la trayectoria libre media de las moléculas es muy grande, por lo que llenan siempre el recipiente que los contiene. La Teoría cinética de los gases. La teoría cinética de los gases tiene sus inicios en el siglo XVIII con los estudios de Daniel Bernoulli y su continuación en los trabajos teóricos sobre el gas ideal a nivel molecular de Boltzman y Maxwell hacia fines del XIX. La teoría cinética parte de considerar a los gases como sustancias puras compuestas por un conjunto muy grande de moléculas iguales , diminutas esferas rígidas. que se mueven libremente en trayectorias rectas y cuyos choques elásticos permiten la conservación de la energía cinética y del momento lineal, por lo que las propiedades del gas se pueden establecer como el promedio estadístico del conjunto. A partir de la teoría cinética se pueden deducir las leyes empíricas de los gases: La ley de Boyle, La Ley de Charles, La Ley de los Gases Ideales y explicar cuantitativamente los mecanismos de la difusión, de la conducción del calor, de los cambios de temperatura, de presión y de viscosidad.21 La presión, el volumen y la temperatura de los gases ideales. La teoría cinética explica el comportamiento de los gases ideales a partír de los cambios que ocurren en la energía cinética molecular. La adición de calor provoca un incremento en la energía cinética de las moléculas, que se refleja en un aumento de la temperatura. Las moléculas adquieren una mayor velocidad que se manifiesta en un mayor número de choques contra las paredes del recipiente. Si se trata de un recipiente cerrado la presión aumenta y si se tiene un cilindro con un pistón, este se desplaza y el volumen se incrementa. Así pues, la presión de un gas depende directamente de la energía cinética molecular. Por otra parte, la ley de los gases ideales permite asegurar que la presión es proporcional a la temperatura absoluta. Estos dos enunciados permiten realizar una de las afirmaciones más importantes de la teoría cinética: La energía molecular promedio es proporcional a la temperatura. 21 Levenspiel

25

El movimiento Browniano. Robert Brown, científico inglés dedicado a la botánica preparó en 1827 una suspensión de granos de polen en agua. Al observar la suspensión en el microscopio, encontró que los granos de polen seguían un movimiento caótico permanente. Para eliminar la conjetura de si el movimiento era causado por un impulso vital recuperado por el polen en contacto con el agua, se repitió el experimento con una suspensión de polvo de mármol finamente dividido. El comportamiento de las partículas de mármol fue muy semejante al de los granos de polen. Los experimentos de Brown quedaron sin una explicación aceptable hasta 1905, año en A. Einstein publicó su artículo, “Sobre el movimiento de partículas pequeñas suspendidas en un líquido estacionario”, en el que a partir de un modelo estadístico Einstein describe matemáticamente el movimiento y lo atribuye a las colisiones de las moléculas de agua con las partículas suspendidas. “La naturaleza casual e irregular de las trayectorias de los gránulos de Brown refleja irregularidades similares en las trayectorias de las moléculas que constituyen la materia. Se entiende, por eso, que un estudio cuantitativo del movimiento browniano nos puede proporcionar un conocimiento más profundo de la teoría cinética” “El movimiento observado es, pues, el resultado de otro inobservable. El comportamiento de las partículas grandes refleja, en cierto sentido, el de las moléculas…” “Este movimiento no tendría existencia si las moléculas no poseyeran cierta energía, o en otras palabras, si no tuvieran masa y velocidad. Que el estudio del movimiento browniano pueda conducir a la determinación de la masa de las moléculas no es, por eso, tan sorprendente.”22

Con su tesis doctoral, su trabajo sobre el movimiento browniano, y su artículo sobre el efecto fotoeléctrico, la visión de Einstein fue crucial para la creciente aceptación de la existencia de átomos y moléculas. Y, sin embargo, Einstein no volvería a trabajar con nada relacionado directamente con moléculas en el resto de su carrera científica. Es evidente que tanto las moléculas como sus desplazamientos son de una magnitud tan pequeña que no pueden observarse ni aún utilizando el microscopio más potente. Sin embargo la suposición teórica, el modelo, que las contempla como diminutas esferas rígidas permite explicar cabalmente, y confirmar a partir de la teoría cinética, las leyes empíricas de los gases: Leyes de Charles, de Boyle, de Gay Lussac y la Ley General de los Gases Ideales.

IV.- LA TEMPERATURA, TERMÓMETROS. Desde tiempos inmemoriales los seres humanos han distinguido, a través del sentido del tacto, los conceptos relativos que conforman los términos “polares” de la temperatura: frío y caliente23. 22 Infeld y Eisntein op.cit

23 “ La Temperatura –en la antigüedad también temperamento- mide lo caliente y lo frío y es una palabra de origen latino: temperare – mezclar…(y) temperatur indica que un líquido está siendo mezclado con otro. Müller Ingo “A History of Thermodynamics” _c Springer-Verlag Berlin Heidelberg 2007

26

Sin embargo la determinación de que tan frío o que tan caliente está un objeto se mantuvo durante muchos siglos como algo meramente subjetivo y, por lo mismo, la “temperatura” no fue susceptible de cuantificación hasta la aparición del instrumento que la hizo posible: el termómetro. Un ejemplo muy usado para ilustrar la subjetividad, o de cómo los sentidos son engañosos, consiste en emplear tres recipientes: uno con agua fría, otro con agua caliente y uno más con agua tibia. Si se introduce una mano en el agua fría y otra en el agua caliente durante algunos segundos y luego se introducen ambas en el agua tibia una de las manos tendrá la sensación de agua caliente, en tanto que la otra registrará la misma agua como fría.24 Aunado a lo anterior, tampoco se distinguían las diferencias existentes entre “temperatura” y calor. Aun en el siglo XXI es muy común que las personas en verano se refieran a las temperaturas elevadas del verano como días en los que “hace mucho calor”. Como luego se verá, calor y temperatura son dos conceptos completamente diferentes que se encuentran estrechamente ligados. Termómetros, las escalas. La preocupación por medir la temperatura, tal vez con intereses ligados a la medicina, llevaron Galeno, en la antigüedad, a realizar experimentos con objeto de determinar que tan caliente o que tan frío se podría hallar un cuerpo y de esta manera se llevó a cabo uno de los primeros intentos para generar una escala que permitiera la evaluación antes mencionada. Con esa intención Galeno mezcló cantidades iguales hielo y agua hirviendo, como el cuerpo más frío y el cuerpo más caliente que en su tiempo se podían obtener y definió la temperatura de la mezcla como un punto neutro, con cuatro grados calientes hacia arriba y cuatro grados de frío hacia abajo de dicho punto neutro. Esta escala con sus nueve grados logró sobrevivir toda la Edad Media gracias a los médicos árabes e hizo su reaparición en Europa en el Renacimiento. Cabe señalar que los puntos de partida, para la elaboración de un instrumento que permitiera efectuar mediciones y compararlas con una escala fija, surgieron de la observación: por un lado de la observación del comportamiento de los fluidos que se dilatan al calentarse y se contraen al enfriarse. Por otra parte y junto con lo anterior, existía desde la antigüedad el conocimiento empírico de que los cuerpos, luego de un cierto tiempo, adquieren la temperatura del medio en el que se encuentran. En otras palabras se puede decir que existía el conocimiento empírico del equilibrio térmico: estado en el que dos cuerpos, inicialmente a temperaturas diferentes, luego de un cierto tiempo alcanzan la misma temperatura. Con estos dos conocimientos como punto de partida surgieron los antecesores de los termómetros actuales. Uno de los primeros instrumentos para medir la temperatura fue el Termoscopio Florentino usado por Galileo. Este consistía en un tubo de vidrio cerrado en uno de uno de sus extremos, cuyo lado abierto se sumergía en un líquido contenido en un recipiente. Previamente se colocaba algo de líquido en el tubo para desplazar el aire y dar lugar a la 2 Al respecto Sagredo comunicó a Galileo el 7 de febrero de 1615, que si se saca agua de un pozo profundo y se sumerge una mano en ella, en verano se siente fría y en invierno caliente. Müller op cit.



27

formación de una columna. Al calentarse, el aire aumenta su volumen y la columna de desplaza hacia abajo, mientras que al enfriarse el aire se contrae y la columna asciende. Con el establecimiento de marcas en el tubo se hizo posible la evaluación cuantitativa de la temperatura ambiente y el aire quedó como “medio termométrico”. No obstante la escala de nueve grados no resolvía cabalmente el problema de la medición de la temperatura ni el de su comparación entre dos cuerpos, para lo cual se requería contar con un instrumento más preciso que permitiera realizar tales operaciones. Esta necesidad motivó a otros investigadores para llevar a cabo nuevos experimentos con la intención de establecer escalas de temperatura con un sentido más práctico o, si se quiere, las actividades humanas dedicadas a la medicina y a la ciencia requirieron de información más precisa y de los instrumentos adecuados para obtenerla. En 1664 Robert Hook diseñó un aparato similar al termoscopio florentino en el que empleó como líquido termométrico alcohol teñido de rojo. Hook seleccionó como punto fijo el punto de congelación del agua y definió su escala a partir del cambio de volumen del líquido con la temperatura. Asignó el valor de un grado al cambio equivalente a 1/500 del volumen total del líquido. Hacia 1702 Roemer astrónomo danés estableció para su termómetro dos puntos fijos : la temperatura de ebullición del agua y la del hielo. Para 1724 hace su aparición en escena Gabriel Farenheit, quien fue el primero en construir un termómetro usando al mercurio como líquido termométrico, por estimar que las propiedades de este metal lo hacían muy conveniente para ser utilizado en las mediciones. Farenheit también estableció dos puntos fijos para su termómetro: La temperatura de ebullición del agua y la temperatura de una mezcla de hielo y agua saturada con cloruro de amonio (NH4Cl) a la cual asignó el cero. Luego propuso a la temperatura de congelación del agua pura como 30 y la temperatura del cuerpo humano como 100. Posteriormente reacomodó las escala con el agua en ebullición a 212 y el punto de congelación a 32, para tener 180 grados25 entre uno y otro, en tanto que la temperatura del cuerpo humano se fijó en 98.6oF Pocos años después, en 1742, Anders Celsius pensó que era mejor tener solamente dos puntos de referencia en lugar de los tres de Farenheit y escogió la temperatura de ebullición del agua como 0o y la de congelación como 100o ( a una atmósfera de presión, a nivel del mar).

25 Algunos señalan que lo hizo a semejanza del semicírculo, que tiene 180 grados.

28

De la división en cien intervalos entre los dos puntos, se siguió el que los grados de esta escala De la división en cien intervalos entre los dos puntos, se siguió el que los grados de esta escala de temperatura se hayan conocido como “centígrados”, los que ahora se denominan grados “Celsius

. La temperatura “Absoluta” William Thompson “Lord Kelvin” propuso en 1848 una escala con intervalos iguales a los grados Celsius que fue denominada como absoluta porque parte de un punto fijo que se conoce como el cero absoluto y que es igual a -273.16 oC ¿pero porque cero absoluto? Habrá que realizar algunas consideraciones con respecto a la materia en tanto que compuesta por átomos y moléculas. Ya para 1848 se conocían las leyes de los gases ideales, Charles, Boyle Mariotte, Gay Lussac, etc. a partir de las cuales se establece que, a presión constante, un descenso de la temperatura en un grado ocasiona una disminución de su volumen en 1/273, de tal suerte que si se extrapola, al descender la temperatura hasta -273oC, el volumen gaseoso se convertiría en cero, ya no existiría como gas. El punto de partida para estas consideraciones fue la Teoría Cinética de los gases, la cual establece que los gases están formados por una conjunto de moléculas, que se comportan como diminutas esferitas rígidas que se mueven libremente, gracias a que poseen una cierta cantidad de energía cinética (relacionada directamente con la temperatura). Cuando un gas se encuentra confinado en un recipiente la presión es el resultado del número de choques que dan las moléculas contra las paredes del recipiente. Si la temperatura aumenta las moléculas se mueven más rápidamente, el número de choques se incrementa y la presión se eleva. Por el contrario, si la temperatura decrece la presión en el interior del recipiente disminuye hasta que se alcanza el punto de licuefacción en el que el gas se transforma en líquido, estado en el cual la energía cinética se reduce, así como el movimiento de las moléculas. De continuar la disminución de la temperatura se alcanzará el punto de solidificación y el líquido se congelará. Se cristalizará y el movimiento molecular se reducirá a una mera vibración hasta alcanzar el cero absoluto: -273.16oC punto en el cual cesa toda vibración. Por lo que 0oC= 273.16 K (nótese que K, Kelvin ya no lleva el símbolo o de grado). Si la cuestión se enfoca desde la ecuación de la Ley de los Gases Ideales, PV= nRT, el producto PV, presión por volumen, es una función lineal de la temperatura T. Por lo que cuando la temperatura sea igual a cero, el producto PV sería igual a cero. De ahí se estableció que ningún sistema macroscópico puede tener una temperatura inferior a 0 K ya que en ese punto la energía interna del sistema llega a un mínimo en el que cesa todo movimiento. 29

En la práctica no ha sido posible alcanzar el cero absoluto y las temperaturas más bajas medidas son en el entorno de los 3K (termómetro de Helio), aunque se ha mencionado que expertos del MIT han conseguido una temperatura de 5x10-10 es decir de ½ nanokelvin

Termómetro de gas Este termómetro registra la temperatura a través del cambio en la presión medida por el barómetro de la derecha. PV = nRT De líquidos: Los termómetros que utilizan como medio termométrico algún líquido, requieren que este tenga un coeficiente de expansión térmica directamente proporcional a la temperatura. Los más usados son el mercurio o el alcohol, contenidos en tubos capilares de vidrio, sellados en sus extremos. Los capilares tienen además un bulbo para almacenar el líquido en un extremo y en el otro un cámara de expansión, para prever la posibilidad de que se rebase la temperatura superior y evitar que el expansión rompa el tubo. Estos termómetros se calibran a partir del punto triple del agua para 0 oC o 273.16K y con agua hirviendo a 760 mm Hg (una atmósfera a nivel del mar) El termómetro de resistencia de platino es un ejemplo de un instrumento metálico estándar y se emplea para temperaturas que van desde -259.35 oC (punto triple del hidrógeno) hasta 961.78 oC (punto de solidificación de la plata). Termopares: Los termopares son instrumentos construidos al soldar por uno de sus extremos, alambres de dos metales diferentes (conductores). Se sabe desde 1821, por los trabajos experimentales del físico Thomas Johan Seebeck (estonnio –alemán), que al soldar los extremos de dos metales diferentes se produce una fuerza electromotriz. la cual se expresa como una diferencia de potencial entre los extremos no soldados. El potencial eléctrico que se genera es una función de la temperatura (fenómeno termoeléctrico) y puede ser medido con un 30

voltímetro. Existen varios tipos de termopares, construidos con diversos pares metálicos para varios intervalos de temperatura. Los de tipo K (aleaciones cromel-alumel) funcionan entre 300 y 1250oC. Níquel- Cromo

300°C

12.2 mV

Níquel- Aluminio



Los termopares también se pueden calibrar con el punto triple del agua y construyendo una gráfica para establecer la relación temperatura-voltaje. En la actualidad existen dispositivos electrónicos que convierten la lectura del voltaje en grados de cualquier escala.

Las Temperaturas Ultrabajas: Generalmente cuando se describen las propiedades de los cuerpos se suele especificar “en condiciones normales” y como tales se aceptan 230C y una atmósfera de presión, Por encima de estas las condiciones serán “altas” en tanto que por debajo de las normales las condiciones serán “bajas”, La tabla que sigue da una idea del registro de temperaturas: 15x106 K T en el centro del Sol 1273 K Lava en erupción volcánica 58oC 331K La T más alta sobre la tierra: Libia 1922 37oC 310K Temperatura del cuerpo humano 0oC 273K Congelación del agua -89oC 184K La T más baja en la tierra: 1983, Vostok, Antártida -135oC 138K Tmás alta para superconductividad en un cuprato -195oC 78K T de licuefacción del aire -234oC 39K T más alta para que un metal sea superconductor 31

-269oC 4.2K Licuefacción del Helio y Hg superconductor -273oC 0K El movimiento se detiene, sólo quedan movimientos cuánticos Como se puede ver el intervalo de temperaturas medidas es muy amplio, desde los 15 millones de grados centígrados en el centro del sol, hasta muy cerca del cero absoluto.

El acercamiento al cero absoluto: 0K; -273.16 oC

Como consecuencia de los trabajos de Boyle, Mariotte, Charles, Gay Lussac que condujeron a la Ley General del Estado Gaseoso los científicos se dedicaron a buscar las condiciones para la licuefacción de los gases. Como se verá esta búsqueda condujo las investigaciones hasta las cercanías del cero absoluto 0 k cuando se logró la licuefacción del Helio y al descubrimiento de los superfluidos y los superconductores. Como es bien sabido los cambios de estado (de fase) se producen como una función de la presión y de la temperatura: Al elevar su temperatura (calentarse) los sólidos se funden, pasan de la fase sólida a la fase líquida, los líquidos se convierten en gases (vapores) y los gases se expanden (aumenta la energía cinética, sin cambio de fase). Por el contrario, al reducir la temperatura de los materiales (enfriar), los gases (vapores) se condensan (licuan), los líquidos se solidifican y en los sólidos disminuye el movimiento de las moléculas (en el cero absoluto el movimiento es nulo es decir su energía cinética es cero) (tiende a cero ?). Cuando se trata del aumento de la presión esto lleva a los gases y vapores a la condensación (licuefacción), en tanto que a presiones reducidas, los líquidos se evaporan y algunos sólidos se subliman. El seguimiento de este camino para la licuefacción produjo buenos resultados hasta mediados del siglo XIX cuando se presentaron algunas anomalías.

La licuefacción de los gases

Hacia fines del siglo XVIII, un médico holandés, Martinus Van Marum publicó el resultado de sus trabajos sobre la licuefacción del amoníaco mediante el procedimiento de aumentar la presión sobre el gas NH3. Este acontecimiento marcó el surgimiento de la Criogenia, (vocablo derivado del griego “kryos” –frío y “genos”-generación) una tecnología que se enfoca hacia la obtención de bajas temperaturas y sus aplicaciones en procesos diversos. Esta tecnología se sustenta en la evaporación de los líquidos, proceso que requiere calor, (calor latente de evaporación) el cual es extraído del entorno cercano y hace que la temperatura del sistema descienda hasta el punto de ebullición, que en el caso de los gases se encuentra por debajo de 0 0C y es el principio de la refrigeración. Los experimentos de van Marum despertaron el interés de otros investigadores quienes intentaron la licuefacción de otros gases mediante el incremento de presión. Hacia 1823 Faraday en Inglaterra consiguió obtener por este procedimiento bióxido de carbono, ácido sulfhídrico, ácido bromhídrico y cloro en fase líquida. Sin embargo hasta el tercer tercio del XIX la aplicación de presiones muy elevadas, del orden de las 3000 atmósferas, habían sido insuficientes para licuar gases como el

32

Oxígeno, el Nitrógeno y el Hidrógeno, por lo que se les consideró como “gases permanentes”. En1861 Andrews un científico irlandés, inició el análisis de los experimentos sobre los efectos de la presión y la temperatura en la condensación de algunos vapores y sobre la licuefacción del CO2. Las conclusiones de Andrews en 1875 vendrían a echar luz sobre el problema, al demostrar que existe una temperatura a la que llamó “temperatura crítica”, específica para cada gas, por encima de la cual la licuefacción no es posible independientemente de la presión aplicada.26 A la presión necesaria para licuar un gas en su temperatura crítica se le conoce como presión crítica. A partir de ese momento los intentos de licuefacción fueron llevados a cabo a través de pasos sucesivos de compresión y enfriamiento. En 1877 Cailletet logró que el Oxígeno dejara de ser un “gas permanente” al obtener O2 líquido. En la actualidad tanto el O2 como el N2 líquidos se obtienen de la destilación de aire líquido.27 Posteriormente, en 1908 en la Universidad de Leyden, Holanda. Kamerlingh Onnes logró superar el punto de ebullición del He, que es de 4.22K -268.930C, para obtener He líquido a una T de 1.82K. Los experimentos realizados para alcanzar las temperaturas más bajas posibles, en particular la obtención en sus fases líquidas, primero del Nitrógeno y luego del Helio condujeron al descubrimiento de comportamientos extraños, y hasta entonces impredecibles, de los materiales sometidos a las temperaturas ultrabajas: entonces aparecieron los superconductores y los superfluidos. En los primeros la resistencia al paso de la corriente eléctrica se anula completamente, en tanto que en los superfluidos, la viscosidad, es decir la resistencia a fluir, se vuelve nula. Así se encontró que en los metales enfriados con Helio líquido, al eliminar completamente la resistencia eléctrica, se convertían en superconductores. Con una resistencia igual a cero una corriente eléctrica, en un circuito superconductor, se puede mantener por un tiempo indefinido sin disminuir su potencial. Este Nuevo escalón en el avance del conocimiento científico arrancó en el laboratorio de Onnes, al conseguir la licuefacción del Helio. En el tubo que lo contenía se pudo observar que el líquido no mostraba menisco.28Esta observación fue el inicio de nuevos descubrimiento sobre el comportamiento del Helio líquido cuando este es enfriado por debajo de 2.17K. En la cercanía del cero absoluto, cesa el movimiento molecular y practicamente todos los materiales se congelan, mientras que el Helio líquido exibe propiedades extraordinarias, que han abierto

26 Andrews estableció también la diferencia entre gas y vapor: un fluido es vapor cuando su temperatura se halla debajo de la T crítica y es gas cuando su temperatura está por encima del Tc. Además propuso la isoterma de Andrews (también llamada curva límite). En un diagrama de estado termodinámico, es la curva que pasa por el punto crítico y separa las diversas fases. 27 El N2 líquido se emplea en gran medida como refrigerante, en procesos criogénicos y la licuefacción de los otros gases “ex-permanentes”. 28 Onnes recibió el Premio Nobel en 1913

33

camino para el desarrollo de nuevos conocimientos,sobre “estados de la materia” aún desconocidos, explicables solamente en términos cuánticos..29,30 LOS SUPERFLUIDOS: En condiciones normales, a la presión de una atmósfera, los líquidos al ser enfriados se solidifican cuando se llega a su temperatura de fusión, algo que no sucede en el caso del Helio líquido. Cuando este es enfriado por debajo de los 2.17K, presenta una transición a otra fase, pero no al sólido, sino a una nueva fase líquida que se conoce como Helio II cuya viscosidad, es decir su resistencia al flujo, desaparece completamente, lo que le permite fluir con libertad, ascender por las paredes del recipiente que lo contiene o pasar librementea través de superficies poco porosas31

En la ilustración se muestra un ejemplo de “vasos comunicantes” para el Helio II: el recipiente pequeño, inicialmente vacío, se coloca dentro de otro que contiene el líquido. El He II asciende por las paredes hasta que el nivel del líquido se iguala en ambos. Toda superficie expuesta se cubre con una capa del líquido, por lo que, de existir alguna abertura, el líquido escaparía. LEVITACIÓN MAGNÉTICA Otro de los fenómenos observados como consecuencia del enfriamiento a temperaturas cercanas a 0K fue lo que se conoce como “levitación magnética”. La levitación es un fenómeno físico de equilibrio, entre la atracción y la repulsión características de los imanes, en el que un cuerpo sometido a un campo de fuerzas flota por encima o por debajo de dicho campo de manera estable, de tal manera que si se presenta alguna perturbación el objeto que levita retorna a su posición de equilibrio. Algunos de los metales, buenos conductores eléctricos en condiciones normales y algunas cerámicas semiconductoras, al ser superenfriados no solamente muestran una resistencia nula, sino que al mismo tiempo se convierten en materiales diamagnéticos, es decir materiales que no pueden ser atravesados por los campos magnéticos, de tal

29 Aburto A. La licuefacción de los gases…CIENCIAS 82 abril-junio 2006 pp 52-61

30 La hidrodinámica cuántica. Fue propuesta en 1937 por Pyotr Leonidovich Kapitsa, John F. Allen y Don Misener. 31 García Colín Scherer L. y Rodríguez Zepeda R. “Líquidos exóticos” LA CIENCIA PARA TODOS D. R. © 1995, FCE ,Mex.

http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen2/ciencia3/104/htm/sec_9.htm



34

manera que al ser colocados sobre un imán presentan un fenómeno inesperado: el metal superenfriado–superconductor flota (levita) sobre el campo magnético.



Imagen de un cubo de oro “levitando” sobre un imán anular

El fenómeno de la levitación magnética tiene una explicación muy compleja en términos cuánticos, basada en lo que se conoce como condensados de Bose-Einstein. En términos simplistas se puede decir que la repulsión entre el imán y el superconductor es provocada por la acción del efecto Meissner. En tanto que la atracción se debe a vórtices electromagnéticos que se fijan en los microporos de la estructura del superconductor. Como se puede apreciar, las temperaturas ultrabajas con su corolario de superfluidos y superconductores ofrecen grandes posibilidades de desarrollo tecnológico y de innovación en distintos campos. “”La posibilidad de evitar el contacto mecánico entre determinados elementos de un mecanismo puede ser vital. Por ejemplo, en el mundo del transporte esto ha abierto las puertas a las muy altas velocidades (el tren Maglev del aeropuerto de Shangai alcanza los 430 km/h en su recorrido), y ya en nuestra vida cotidiana utilizamos los discos duros de los ordenadores, cuya cabeza lectora “levita” sobre la información almacenada encima de un soporte que gira a 10000 rpm. En los dos casos citados la levitación se produce aprovechando la fuerza magnética.”” http://www.aragoninvestiga.org/Levitacion-magnetica-y-superconductividad/

V.- Calor y Termodinámica. La termodinámica es la disciplina que se encarga del estudio de las transformaciones de la energía y de una manera más precisa de la transformación del calor en trabajo mecánico y viceversa.32 Actualmente se conoce que la interpretación cinética de la equivalencia entre el calor y la energía dinámica se basa en la reducción de todos los fenómenos térmicos al movimiento desordenado de los átomos y las moléculas. Desde este punto de vista el estudio del calor se puede considerar como una rama especial de la mecánica: la mecánica de los conjuntos muy grandes de partículas (átomos o moléculas) de tal suerte que la descripción detallada del estado y del movimiento pierden importancia y 32Fermi. E. THERMODYNAMICS, Prentice Hall, New York 1937.

35

solamente se consideran las propiedades promedio del conjunto. Esta disciplina, desarrollada por Maxwell, Boltzman y Gibss se conoce como mecánica estadística y ha permitido el entendimiento satisfactorio de las leyes fundamentales de la termodinámica. Empero el enfoque de la termodinámica clásica es diferente: en ella las leyes fundamentales y sus consecuencias se suponen como postulados basados en la evidencia experimental sin tomar en cuenta el mecanismo cinético de los fenómenos. “... Termodinámica...la ciencia que trata acerca de la energía, de la materia y de las leyes que rigen las interacciones de las dos primeras”33(p29) “La termodinámica clásica... se basa en el punto de vista macroscópico...(que)... no requiere de hipótesis con respecto a la estructura detallada de la materia. En consecuencia las leyes de la termodinámica no sufren ningún cambio conforme se descubren nuevos aspectos de la naturaleza de la materia.” p33 Cómo miden la temperatura los termómetros… La ley cero de la termodinámica. Ya más arriba se señaló que los termómetros, en tanto que instrumentos para medir la temperatura, se desarrollaron a partir del conocimiento empírico y la observación de que la temperatura de un cuerpo, luego de estar un tiempo en reposo, alcanza la temperatura del ambiente que lo rodea. Esta observación será formalizada posteriormente como consecuencia de la propuesta lógica que establece que “dos cosas iguales a una tercera son iguales entre sí”, dando lugar a la aparición de la Ley Cero del Termodinámica, la cual postula: Si dos sistemas separados están en equilibrio térmico con un tercero, entonces ellos también estarán en equilibrio térmico entre sí. Como se puede apreciar, cuando se señala que el “equilibrio se alcanza” se infiere que previamente existía un desequilibrio, en nuestro caso una diferencia de temperaturas. Para que las temperaturas se igualen es necesario que se produzca un movimiento, un flujo de calor, que va de la temperatura más alta hacia la más baja hasta que ambas sean iguales, momento en que el equilibrio se alcanza y el flujo cesa. Así pues, lo que hace que un cuerpo se caliente es la adición de calor que provoca un aumento en la energía Interna, lo cual se traduce en una elevación de la temperatura.34 Por el contrario la sustracción de calor hace que un cuerpo se enfríe, que su energía interna se reduzca y que su temperatura descienda. Esta propiedad de “fluir”, que posee el calor, hizo que se le considerara como un fluido material, el “calórico”, ya que su comportamiento se mostraba análogo al de otros fluidos. Así como el agua, en un sistema de vasos comunicantes, fluye de la mayor altura hacia la parte baja hasta que se alcanza el mismo nivel, así también el calórico fluía siempre de la temperatura más elevada hacia la más baja hasta igualarse. 33Todas las citas en TIMES están tomadas de HUANG FF, Ingeniería Termodinámica” p CECSA 34 Smith, Van Ness & Abbot p 22

36

Cantidad de agua Nivel superior Nivel inferior

Cantidad de calor Temperatura más elevada Temperatura más baja

El experimento de Joule Este concepto del “calórico” se mantuvo hasta mediados del siglo XIX, cuando a partir de las observaciones de Rutherford, sobre la perforación cañones, éste concluyó que el calor no era una sustancia material, ya que se había producido por la fricción. Posteriormente Joule (Lord Kelvin) estableció que en realidad el calor era un forma de energía y a partir de una serie de experimentos estableció el equivalente mecánico

del calor.35 “La cantidad de calor que es capaz de elevar la temperatura de una libra de agua en un grado Farenheit es igual a la fuerza mecánica que puede elevar 838 libras una altura vertical de un pie”36 1 caloría = 4.18 Joule.

1J=1N × m = (kg ×

m kg × m 2 ) × m = s2 s2

1 joule = 1kgm 2s-2 La primera ley de la termodinámica. Para encontrar el equivalente mecánico del calor, Joule construyó un aparato en el que la energía potencial se convierte en energía cinética y esta, por la fricción, se convierte en calor. De los experimentos realizados concluyó además que la conversión de la energía de una clase en otra no altera la cantidad total de la misma. Esta conclusión será formalizada como la primera ley de la termodinámica, que a semejanza de la ley de la conservación de la materia (Lavoisier), establece que “la energía no se crea ni se destruye, sólo se transforma”. La primera ley de la termodinámica, también conocida como ley de la conservación de la energía enuncia que la energía es indestructible. Siempre que desaparece una clase de energía aparece otra (Julius von Mayer). Más específicamente, la primera ley de la Termodinámica establece que al variar la energía interna en un sistema cerrado, se produce calor y un trabajo. “La energía no se pierde, sino que se transforma”. Los mecanismos de transferencia de calor.

35 Ver Infeld-Einstein “La física aventura del pensamiento” Ed. Lozada

36 “The amount of heat which is capable of raising [the temperature of] one pound of water by 1 degree on the

Fahrenheit scale, is equal and may be converted into a mechanical force which can lift 838 pounds to a vertical height of 1 foot”. Muller Ingo “A History of Thermodinamics “p29



37

El calor es transferido desde una fuente caliente a un cuerpo o sistema de menor temperatura por medio de cualquiera de tres mecanismos a saber: Conducción, Convección y Radiación. La conducción es un mecanismo que se establece a partir el contacto entre la fuente de calor y el objeto a calentar. La velocidad o la facilidad del calentamiento depende fundamentalmente de la “conductividad térmica”. La mayor o menor conductividad permite clasificar a las sustancias como “conductoras” o como “aislantes” 37 La convección es un mecanismo de transporte que se presenta en el calentamiento de fluidos y consiste básicamente en el movimiento de las partículas de fluido que más cercanas a la fuente elevan su temperatura. La dilatación consecuente hace que la densidad de las partículas se reduzca y se muevan (floten) hacia la zona más fría, donde las moléculas más frías, más densas, descienden. La continuidad de este movimiento constituye las celdas convectivas. También en el caso del fuego, la flama y los gases de combustión transfieren su calor por convección a las manos colocadas encima o al fondo de la olla y al extremo caliente del atizador, de donde el calor fluye por conducción a través del material hacia la mano enguantada o hacia el líquido en contacto con el fondo, donde se calientan las partículas que formarán las celdas convectivas. La radiación es un mecanismo de transporte de calor que se produce a distancia sin que exista un contacto directo entre la fuente y el objeto. El calor es transferido por medio de las ondas electromagnéticas, particularmente por las que se encuentran en el intervalo de longitud de onda del infrarrojo. El calentamiento de la tierra por efecto de la luz solar es el ejemplo más común que se puede citar. LA SEGUNDA LEY TERMODINÁMICA.

DE

LA

En el balance de energía se incluyen trabajo y calor como términos aditivos, lo cual implica que una cantidad dada de trabajo, un Joule por ejemplo es igual a otro Joule de calor. Sin embargo, existe una diferencia de calidad entre ambos. En tanto que el trabajo se cambia fácilmente por las otras formas de la energía, con eficiencia cercana al 100%, la transformación del calor es más difícil y de baja eficiencia, por lo que a este último se le considera menos valioso que al primero. Aunado a lo anterior se ha observado que el calor solamente fluye de un cuerpo caliente hacia otro frío o bien del extremo caliente de una barra hacia el extremo frío de la misma, pero nunca en el sentido inverso, lo cual impone una restricción a la transferencia de calor. ENUNCIADOS DE LA SEGUNDA LEY. 37 Los aislantes son empleados para evitar pérdidas de calor.

38

1.- Ningún aparato puede operar en forma tal que su único efecto sea la conversión completa del calor absorbido por el sistema en trabajo. 2.- Ningún proceso puede consistir únicamente en la transferencia de calor desde un nivel bajo de temperatura a otro superior. 1a.-Es imposible, mediante un proceso cíclico, convertir completamente el calor absorbido por el sistema en trabajo. La segunda ley limita la fracción de calor que puede, en un proceso cíclico, convertirse en trabajo. Enunciado de Kelvin-Planck: “Es imposible construir una máquina térmica que funcionando cíclicamente convierta en trabajo toda la energía que recibe en forma de calor de una fuente térmica” Es equivalente a la imposibilidad de construir el móvil perpetuo de segunda especie LA MÁQUINA TÉRMICA Máquina térmica es un mecanismo o aparato que, en un proceso cíclico, produce trabajo a partir del calor absorbido. El fluido de trabajo en la operación de una máquina térmica absorbe calor | Qc| de un depósito caliente (fuente) mediante el cual produce una cantidad de trabajo W y desprende calor |QF| hacia un depósito frío (sumidero) para recuperar su estado inicial. Por la primera ley: W = Q = Qc - QF

En donde la eficiencia térmica se define como:

h=

Trabajo neto entregado Calor absorbido

Por lo tanto:

h=

Q - QF W = c Qc Qc

O bien:

h = 1-

QF Qc

Con los valores absolutos las ecuaciones se independizan de los signos. Dado que en la práctica siempre se rechaza algo de calor al sumidero… Sólo se puede obtener 100% de eficiencia, h = 1.0, cuando |QF| = 0. O construyendo una máquina de movimiento perpetuo como “La cascada” de Escher:

39

El máximo de la eficiencia se alcanza en la operación reversible de la máquina térmica tal como se plantea en la máquina de Carnot. Esta opera en un ciclo de cuatro pasos: 1.- Mediante un proceso adiabático un sistema en equilibrio con un sumidero a TF eleva su temperatura hasta la temperatura de la fuente TC. 2.-Mientras se mantiene en contacto con la fuente a TC se realiza un proceso isotérmico reversible que absorbe el calor |QC|. 3.- De retorno a (1) se da un proceso adiabático que lleva al sistema a la temperatura TF. 4.-Se lleva a cabo un proceso isotérmico reversible cediendo el calor |QC| al sumidero. "El teorema de Carnot establece que ninguna máquina puede tener una eficiencia térmica superior a la máquina de Carnot cuando ambas operan entre los mismos depósitos térmicos." Si se considera una máquina de carnot que produce un trabajo |W|, mediante la absorción de un calor |QC| y la liberación de otro |QC| - |W|. Si ahora se imagina otra máquina con eficiencia mayor, operando entre los mismos depósitos térmicos mediante la absorción de |Q'C| para producir el mismo trabajo |W| con el rechazo de calor |QC| - |W| W ' c

Q

³

W Qc

y por lo tanto Qc ³ Qc'

Si ahora la máquina, dado que es reversible, opera en la dirección opuesta como refrigerador, el calor extraído del sumidero será: |QC| - |W| - (|Q'C| - |W| ) = |Qc| - |Q'C| (calor neto entregado a la fuente) La transferencia de TF a TC, del lado frío al lado caliente, viola la segunda ley de la termodinámica, luego no puede haber una máquina con eficiencia mayor que la de Carnot.

CICLO DE CARNOT DE UN GAS IDEAL.

40

Todas las máquinas de carnot que operan entre depósitos térmicos idénticos. Tiene la misma eficiencia térmica, la cual depende solamente de los niveles de temperatura TC y TF y no de la sustancia con que trabaje la máquina.

O mejor ilustrar con una máquina de vapor como la de Watt o Newcomen…

VI.- Equilibrio.

El equilibrio es un concepto de la mayor importancia para la comprensión de la gran mayoría de las actividades y temas que constituyen la base del curriculum de los ingenieros químicos. Como se vio al revisar el tema de la temperatura y se verá al tratar

41

los temas de “operaciones unitarias”, “fenómenos de transporte”, “cinética” y otros, la existencia de un “gradiente” actúa como fuerza motriz para que el flujo se produzca. El “equilibrio” es el punto en el que la fuerza motriz o gradiente se anula, ya sea porque cesa el flujo, en razón de que se tiene una temperatura uniforme para el caso de transporte de calor o una concentración homogénea en todo el sistema para la transferencia de masa, o no existen diferencias de presión entre los distintos puntos de un sistema.. El Equilibrio Termodinámico Se dice que un sistema se encuentra en equilibrio cuando sus propiedades permanecen relativamente constantes. Cuando un sistema se encuentra en Equilibrio Químico, en Equilibrio Térmico, en Equilibrio Mecánico y no existen flujos de materia entre puntos distintos o fases del sistema se dice que el sistema se encuentra en Equilibrio Termodinámico. Si alguna o varias de las condiciones anteriores no se cumplen por la existencia, al interior del sistema, de diferencias de concentración, de temperatura, o de velocidad, se producirán gradientes que forzarán el movimiento del sistema hacia el equilibrio en un proceso de carácter irreversible denominado generalmente de transporte. Ejemplos de este tipo de procesos son: La difusión, la conductividad térmica, el flujo de materia (viscosidad), y la conductividad eléctrica, dependiendo de cual sea la condición de equilibrio que no se cumpla: Ausencia de Equilibrio químico ---------------> DIFUSIÓN Ausencia de Equilibrio térmico ---------------> CONDUCCION TÉRMICA Ausencia de Equilibrio mecánico --> FLUJO DE MATERIA O DE FLUIDOS (viscosidad) Los sistemas en equilibrio: El estado de equilibrio de un sistema termodinámico es determinado por los valores de sus propiedades intensivas (que no dependen de la magnitud de la cantidad de materia) como la presión y la temperatura. Dos sistemas se dice que están en equilibrio térmico cuando el valor de sus temperaturas es el mismo. Dos sistemas se dice que están en equilibrio mecánico cuando el valor de sus presiones es el mismo. Dos sistemas se dice que están en equilibrio de fases cuando el valor de sus potenciales químicos es el mismo en cada fase en que se encuentre presente la especie. En general, la evolución seguida por un sistema que no está en equilibrio puede ser de dos tipos: • Que exista un transporte de materia y/o energía entre partes del sistema o con el entorno [ cinética física] • Que exista reacción entre las especies que componen el sistema [cinética química]

42

En términos generales, para los procesos irreversibles, el estado de equilibrio marca el límite, máximo o mínimo para el valor de la variable que los caracteriza: Temperatura, Concentración de Componentes, Desplazamiento, Presión límite. La Termodinámica es la rama de la ciencia que estudia el equilibrio y como resultado de este estudio ha desarrollado ecuaciones que permiten calcular el valor de las variables del sistema en las condiciones de equilibrio termodinámico. En el caso del equilibrio químico, este se alcanza cuando la tasa de reacción de los reactivos para convertirse en producto se iguala con la de reacción de los productos para convertirse en reactivos. Equilibrio Químico

En la reacción aA + bB cC + dD el equilibrio se alcanza cuando la tasa directa (conversión de reactivos en productos) se iguala con la tasa inversa (transformación de productos en reactivos) La constante de equilibrio K está dada por el cociente del producto de las concentraciones de los productos elevadas cada una a su coeficiente estequiométrico divido por el producto de las concentraciones de los reactivos elevadas éstas a su correspondiente coeficiente estequiométrico.

Cuando K>>1 es mucho mayor que 1 la conversión, en el equilibrio, de los reactivos tiende a ser mayor. Por el contrario una K 0 la reacción no será espontánea. Resulta importante conocer los valores de ∆G para modificar las condiciones de operación que puedan favorecer a la reacción. Como se puede ver en ∆G = ∆H – T∆S, ∆G adoptará un valor negativo, menor que cero, si se produce un incremento adecuado de la temperatura. Por ejemplo, el papel y el oxígeno del aire no reaccionan a temperatura ambiente, pero la reacción se vuelve espontánea a 451*F. 54 53 Para simplificar las propiedades extensivas se refieren para una masa unitaria, o para un mol. 54 Ver Bradbury R. “Farenheit 451”

69





En la figura siguiente se indican las dos características distintivas del estado de equilibrio para T y P dadas: (1) La energía total de Gibbs está en un mínimo; (2) su diferencial es cero.55



La Energía Química. Energía química, combustión, explosivos, electroquímica. En las reacciones químicas se produce o se absorbe calor según la reacción sea exotérmica o endotérmica, flujos que van a producir cambios en la energía interna del sistema. La energía química se encuentra como uno de los soportes o como el principal soporte de la vida. Con la respiración se produce una reacción de oxidación (combustión) entre el oxígeno del aire y los carbohidratos (glucosa) para obtener la energía necesaria para la vida: C6H12O6 + 12 O2 ---> 6CO2 + 6H2O+ E

molécula de glucosa La combustión es una reacción altamente exotérmica. 55 Smith y Van Ness 15,2

70

La explosión en principio es también una combustión instantánea acompañada de un incremento muy grande de moléculas gaseosas a alta temperatura y por lo tanto de un gran incremento de volumen, lo que constituye la onda expansiva. La energía electroquímica: Las reacciones de oxidación-reducción (redox) pueden ser utilizadas para producir un flujo de electrones, es decir una corriente eléctrica como sucede en los acumuladores, las baterías, etc. Celdas: Las celdas electroquímicas se conocen también como celdas voltaicas o celdas galvánicas en las que se lleva a cabo una reacción de oxidación-reducción entre dos reactivos contenidos en recipientes separados y conectados por un puente salino. En cada uno de los recipientes se introduce un electrodo: el ánodo y el cátodo conectados entre si por conductores. El flujo de electrones se produce desde el ánodo, una placa de Zinc que se oxida en la celda anódica que contiene una solución de ZnSO4. Los electrones viajan al cátodo, una lamina de cobre en un solución de CUSO4 a través de un voltímetro que mide el potencial eléctrico.56

La energía química en las baterías57 se convierte en energía eléctrica y ésta, a su vez, se puede transformar en energía química en otros procesos electroquímicos como en la producción de Aluminio.58 56 http://corinto.pucp.edu.pe/quimicageneral/contenido/42-celdas-galvanicas-o-celdas-voltaicas 57 Una ”bateria” o acumulador es un conjunto de celdas conectadas en serie. 58 Uno de los primeros experimentos en la producción de energía eléctrica fue el que se conoce como la “botella de

Leyden”

71

La energía eléctrica y la energía magnética_ Estas dos formas de energía se presentan casi siempre asociadas ya que la rotación de un imán (campo magnético) envuelto por un conductor, bobina, produce en ésta una corriente eléctrica, como sucede en un dínamo o un generador. Este fenómeno es al mismo tiempo una transformación de la energía cinética rotatoria del imán a energía eléctrica que fluye por la bobina. A su turno, el paso de una corriente eléctrica por una bobina genera un campo magnético, que cuando envuelve un eje de hierro lo hace girar, como sucede en los motores eléctricos que convierten la energía eléctrica en energía cinética.







El aprovechamiento de la energía El fuego. La humanidad desde sus orígenes ha estado ligada a la utilización de la energía. En los primeros tiempos se utilizó la energía obtenida por la combustión, el fuego, una reacción química exotérmica, de la materia orgánica (biomasa) con el oxígeno del aire. En principio la energía fue empleada para calentarse contra el frío, para la cocción de los alimentos y para la iluminación. La relación humanidad-energía ha sido de tal naturaleza que parte del proceso evolutivo se puede atribuir a esta vinculación. Por ejemplo la cocción de los alimentos facilita la digestión, lo que disminuye el consumo de energía vital y deja una mayor proporción para las otras actividades. Posteriormente está forma de energía, obtenida del fuego, sería empleada para la producción de cerámica y ladrillos (piedra artificial), el beneficio y labrado de los metales para forjar herramientas y realizar otras actividades tendientes a facilitar el trabajo humano. El empleo del fuego iniciado desde la prehistoria, se mantuvo a lo largo de siglos y siglos como la única fuente de energía. Al paso de los tiempos, la acumulación de experiencia,

72

de conocimientos, condujo a la modificación y la facilitación de los procesos de trabajo, mediante los cuales la humanidad produce y reproduce su vida diaria. Así se llegó al aprovechamiento de la energía cinética del viento (eólica) y de las corrientes de agua (energía hidráulica), a la que se sumó, también la energía potencial de las caídas de agua (cascadas) sobre todo en los molinos. Estas tres fuentes continuaron vigentes prácticamente hasta el siglo XVII, ya muy avanzada la revolución industrial59 etapa en la que el uso del fuego, como medio para la producción de vapor, pasó a ser la fuente más importante de energía, al mismo tiempo que la combustión de biomasa (leña) fue desplazada en Europa por la combustión de carbón mineral. (combustible fósil) Los combustibles. En el transcurso de los siglos la combustión de biomasa para utilizar su energía ha sido sustituida parcialmente por la combustión de combustibles fósiles. La revolución industrial y el uso del vapor como fuerza motriz se dio en Europa a partir de la combustión de carbón mineral. La aparición del automóvil trajo consigo los motores de combustión interna y el empleo de los productos obtenidos por la refinación del petróleo como los combustibles idóneos para tal fin. La certidumbre del futuro agotamiento de los yacimientos de combustibles fósiles, gas y petróleo, junto con la cuestión del calentamiento global, ha propiciado los trabajos de investigación y la producción de los llamados “biocombustibles” para su sustitución, así como el desarrollo de las llamadas pilas de combustible que son alimentadas con Hidrógeno y cuya combustión solamente produce agua. El motor de combustión interna: Hacia el final del siglo XIX hizo su aparición el automóvil, símbolo de nuestro tiempo, impulsado por un motor de combustión interna alimentado con productos de la refinación del petróleo: gasolina, diesel, kerosina, etc. En el motor de 4 tiempos, un ciclo se inicia cuando a través de la válvula de admisión, se alimenta en los cilindros una mezcla de aire y combustible vaporizado que es comprimida por un pistón. Al término de la compresión la bujía lanza una chispa que produce la ignición (más bien explosión paulatina)60 de la mezcla que desplaza el pistón a su posición inicial. El pistón repite su carrera al tiempo que se abre la válvula de expulsión para permitir el escape de los gases. Se cierra la válvula de escape y se abre la de admisión mientras el pistón retrocede hasta el punto inicial para comenzar un nuevo ciclo.

59 De ahí que a las fábricas textiles instaladas a la orilla de las corrientes de agua se les denomine como “mills” molinos. 60 La suavidad de la explosión está vinculada al “índice de octano” y a los “antidetonantes”

73

La planta termoeléctrica En una planta termo eléctrica se produce energía eléctrica a partir de combustibles. El combustible reacciona con el oxígeno, se quema y produce calor. El calor se emplea para producir vapor de alta presión que se utiliza para mover una turbina. Se produce un trabajo PV (trasformación de energía potencial en energía cinética rotacional

La turbina se conecta a un generador que produce la energía eléctrica (la energía cinética rotacional se convierte en luz en una lámpara o en movimiento: licuadora, auto etc.) La Planta Hidroeléctrica En el caso de la planta hidroeléctrica la fuerza motriz es la energía potencial del agua que se convierte en energía cinética al descender por un tubo para luego hacer girar la turbina que mueve al generador y producir la corriente eléctrica.

74

Energía Nuclear. Hacia el final del siglo XIX, a los trabajos de Marie Curie que culminaron con el descubrimiento del Radio, se sumó toda una corriente de investigación que se tradujo en el descubrimiento de nuevos elementos radioactivos, es decir, elementos que “radiaban” que emitían energía los cuales se convirtieron en la materia prima para la conversión de la masa en energía nuclear. A partir del postulado de Einstein de 1905 sobre la teoría de la relatividad, se descubrió la identidad de la materia, al establecer que la masa al ser acelerada a la velocidad de la luz, se convertiría en energía. Esto, que fue resumido en la expresión E= mc2, provocó que los físicos de la primera mitad del siglo XX se dieran a la tarea de encontrar la forma de acelerar la masa la velocidad de la luz para convertirla en energía.61 Hacia 1939 un equipo de físicos dirigidos por Openheimer, entre los que se encontraba Enrico Fermi descubrieron que al hacer incidir protones acelerados sobre una masa de Uranio U 235 el núcleo atómico se fisionaba para producir elementos de menor peso atómico y una enorme cantidad de energía. La suma de la masa de los productos de la reacción nuclear resultó menor que la masa de inicial de Uranio: el faltante fue la masa convertida en energía y se comprobó la identidad de la materia. La Masa=Energía y ambas constituyen la materia que no se crea ni se destruye, solamente se transforma.62 Estos trabajos enmarcados en el proyecto “Manhatan” culminarían, ya muy avanzada la segunda guerra mundial, con las bombas atómicas que fueron lanzadas el 5 de agosto de 1945, sobre la población civil de las ciudades de Hiroshima y Nagasaki en Japón.

61 La ecuación de Einstein es semejante a las propuestas para las energías en la mecánica Newtoniana cuya v2 se convierte en c2. 62 Para tener una idea de la magnitud: 10 ton de Carbón mineral de la más alta calidad equivalen a la energía contenida en 1kg de

Urnio natural, con un contenido de U235 del orden de 0.7%

75

236 = 92+141+E = 233+E



La fisión de 1 gramo de uranio libera una energía equivalente a 3.6 x1027 eV; = 5.8x108 J/g 63

Las “fuentes de energía alternativas o renovables”. En términos estrictos, las llamadas energías alternativas o renovables, son realmente formas alternativas para el aprovechamiento de la energía si se trata de ser consistente con la primera ley de la termodinámica y el principio de conservación: La energía no se crea ni se destruye, sólo se transforma. En estas formas alternativas destacan la energía solar, fuente de luz y de calor, la energía eólica y la energía hidráulica de las corrientes, las presas, las mareas y las olas. Las energías eólica e hidráulica son transformaciones de la energía cinética en energía eléctrica o directamente en energía mecánica, cuya ubicación geográfica se encuentra muy determinada por las corrientes del viento y del agua, en tanto que la energía solar se puede convertir directamente en electricidad o ser aprovechada como calor en una más extensa superficie del globo terrestre .

Energía eólica



63 http://es.wikipedia.org/wiki/Energ%C3%ADa_nuclear

76

La energía, tal y como la hemos venido contemplando, es una propiedad de la materia, tomada esta última como una categoría que engloba todo lo existente. O si se quiere se puede ver la dualidad materia-energía como las dos caras o las dos manifestaciones de una entidad unitaria. Así pues, la humanidad se ha desarrollado en un universo material que está constituido totalmente por energía: en su aspecto tangible como materia (energía condensada o cristalizada) y energía intangible. Si la energía no se crea ni se destruye, solo se transforma, entonces no se puede hablar, en términos estrictos de “producción o generación de energía” como a menudo se dice. Lo que en la práctica se lleva a cabo es la captación de la energía existente, para su aprovechamiento a través de sus diversas manifestaciones: Luz, calor, electricidad, etc, etc. Luz y calor. el espectro electromagnético.

El sol, nuestra estrella madre, es la fuente de energía más importante para ser utilizada por la humanidad. Su carácter dual en tanto que radiación electromagnética permite usar su luz, para inducir el fenómeno fotoeléctrico y generar una corriente eléctrica o emplearla, sobre todo en el infrarrojo, como fuente de calor.64 Energía: Luz y calor –Luz y color. El uso eficiente de la energía. La Fotosíntesis La magia que envuelve a la energía y sus manifestaciones no deja de producir sorpresa El hecho de mirar a diario las plantas verdes, el proceso catalítico espontáneo que constituye la fotosíntesis se aparece como algo cotidiano y nos hace pasar por alto el fenómeno prodigioso de la transformación, por obra de la energía solar, del agua y del bióxido de carbono (en presencia de clorofila como catalizador) en carbohidratos, azúcares: en principio en glucosa que luego se polimeriza para formar almidones es decir una reserva energética para cierto tipo de animales, o bien las hexosas se convierten en celulosa para producir madera o hacer papel entre otras cosas. 6H2O + 6CO2 + energía solar (clorofila) -à C6H12O6 + 602 O dicho de otro modo, los alimentos vegetales son energía, luz solar condensada. Que sirve de fuente energética para la vida animal. Por lo que se puede concluir que la vida y los seres humanos no somos otra cosa que rayos de sol cristalizados. Ver nota 1 64 Ya desde 1905 se realizaron en el Cairo trabajos de investigación con una caldera solar.

77

A través de los estomas de las hojas, las plantas realizan su intercambio gaseoso con el ambiente, respiración y transpiración: O2, CO2 y vapor de agua Durante el día el bióxido de carbono procedente del aire penetra en las hojas donde se combina con el agua que ha subido del suelo por ósmosis y capilaridad para realizar fotosíntesis. con la luz solar y en presencia de la clorofila como catalizador. Se libera el O2 H2O + luz (clorofila)à 2H+ + 2e- +1/2O2 Para la respiración celular ingresa O2 y egresa CO2



La palabra fotosíntesis se formó a partir de dos palabras griegas: φῶς-φωτός [fos-fotós], ‘luz’, y σύνθεσις [sýnthesis], ’síntesis’) para llamar a la conversión de materia inorgánica en materia orgánica.





Nota .- La clorofila se encuentra en la superficie de las hojas cubierta por una película transparente que permite el paso de la luz solar. Las moléculas de clorofila se agrupan para formar los cloroplastos.

Entonces, de manera muy resumida, la clorofila sirve para la fotosíntesis en las plantas, que a partir de la luz, más el agua y minerales que absorben de la tierra, generan glucosa para alimentarse, y por otro lado absorben dióxido de carbono y liberan oxígeno a la atmósfera. Ahora bien, una vía importante para el desarrollo científico-tecnológico ha sido la imitación de la naturaleza y la fotosíntesis-función clorofiliana nos ofrece un camino prometedor… ¿por qué no seguirlo?65 Luz y calor Así pues la luz es una forma de energía ¿energía lumínica? Que viaja como una onda a 300, 000 km/seg pero la luz es solamente una radiación, dentro de cierto ancho de banda en el espectro de la radiación electromagnética. 65La fotosíntesis artificial como proyecto de desarrollo científico-tecnoógico se inspira en la fotosíntesis natural, en la búsqueda de formas más eficientes



para la utilización de la energía solar y su almacenamiento..



78

En particular la luz visible se encuentra estrechamente asociada con el calor ya que en uno de los extremos de la banda de longitud de onda, del espectro visible, se encuentra la radiación infrarroja. El calentamiento por la exposición a la luz solar es algo que todo mundo ha constatado. Así se puede afirmar que la luz “calienta”. Pero también se puede comprobar empíricamente que el calentamiento de los cuerpos a temperaturas elevadas provoca la emisión de luz, una onda luminosa que es acompañada por la radiación de calor. El filamento de las lámparas incandescentes, al actuar como una resistencia al paso de la corriente eléctrica, se calienta y cuando alcanza la temperatura del rojo blanco emite una luz brillante. El fenómeno fotoeléctrico Desde fines del siglo XIX se observó lo que se conoce como el “efecto fotoeléctrico”: Cuando la luz incide sobre un metal se desprenden electrones de su superficie, los que adecuadamente conducidos se transforman en energía eléctrica. Einstein en 1905 propuso una explicación teórica en la que tos “fotones” aparecen como partículas cuánticas de luz, que al incidir sobre el metal desplazan a los electrones periféricos generando “un vacío”. El bombardeo continuo producirá la corriente. La aplicación de estos principios ha generado una tecnología para el aprovechamiento de la energía solar a través de su conversión en energía eléctrica por medio de celdas fotoeléctricas conectadas en serie para constituir lo que comercialmente se conoce como “paneles solares”66 Las celdas fotovoltaicas están compuestas generalmente por algún semiconductor en forma de placa de unos 100 cm2 y un espesor del orden de ¼ de mm. En la actualidad se prefiere el silicio monocristalino en razón de su mayor eficiencia comparado con otros semiconductores.

Energía térmica Otra de las aplicaciones de la energía solar se centra en el aprovechamiento del calor dado que la luz solar, siempre está acompañada de la radiación infrarroja. Hoy los calentadores solares para el agua son de uso cada vez más común en los hogares, Cuando la energía calorífica se concentra por medio de lentes o espejos parabólicos, se puede producir vapor de alta presión para mover turbinas y generadores y convertir la energía solar en energía eléctrica, Salta a la vista que la eficiencia tiene que ser muy baja dado que el camino es tortuoso: Primero la energía solar se capta por medio de espejos 66 Su empleo ya es común y va desde calculadoras de bolsillo hasta la propulsión de aeronaves.

79

parabólicos que la concentran en un recipiente de sales fundidas, Las sales fundidas a una temperatura superior a los 200*C se lleva a un intercambiador donde cede calor a una corriente de agua que se convierte en vapor de alta presión (energía potencial) para mover la turbina (energía cinética) que hace girar al generador para producir la energía eléctrica.67 Otra de las aplicaciones prácticas son la desalación-destilación del agua de mar para obtener agua potable y sales,68 la construcción de estufas y hornos solares así como su empleo directo para la operación de motores Stirling.

Plataforma solar de Almería España.



Los heliostatos reflejan la luz solar y la concentran en un recipiente que contiene las sales y se encuentra en la torre. LAS PILAS DE COMBUSTIBLE de H2 Las pilas o celdas de combustible son otra de las formas para la obtención de energía limpia. Son dispositivos electroquímicos que, a diferencia de las pilas o baterías, pueden ser alimentadas de manera continua con el combustible, H2 y el aire para producir una corriente eléctrica y agua.

67 Una planta de este tipo para 10 mega watts se encuentra en operación en Sevilla 68 La Plataforma Solar de Almería en España es un centro especializado en el aprovechamiento de la energía solar.

80

Estas celdas están constituidas por un electrolito, un ánodo y un cátodo, separados estos por una membrana que permite el paso de los protones H+. En el electrolito se lleva a cabo la conversión del Hidrógeno molecular en Hidrogeniones, al ceder sus electrones que constituyen la corriente eléctrica en el ánodo. Los electrones luego de cumplir su función como portadores de energía llegan al cátodo donde reaccionan con el oxígeno del aire alimentado y los protones para convertirse en agua. Uno de los problemas que todavía tienen estas celdas es el aprovisionamiento del H2. Tradicionalmente el H2 se obtiene de la reacción del “gas de agua” o “gas de síntesis entre el agua y el carbón para producir H2 y CO2 a temperaturas elevadas. El C puede ser sustituido por un hidrocarburo, metano p.ej. lo que proporciona un mayor rendimiento de H2. Un inconveniente de este proceso es la producción de CO2, gas que es no de los principales contribuyentes al “efecto invernadero” y al calentamiento global. Actualmente se investiga la producción de H2 en un proceso catalítico, mediante ciclos termoquímicos que emplea Ferritas de cobalto, CoFe2O4 soportadas en alúmina Al2O3 y energía solar para la disociación de la molécula de agua.69 El agua se puede disociar utilizando energía solar y ferritas de cobalto soportadas en alúmina como catalizador en un ciclo termoquímico de dos etapas70,71 2CoFe2O4/ Al2O3 + Energía solar à 2CoAl2O4 + 4FeAl2O4 + O2 CoAl2O4 + 2FeAl2O4 +H2O à CoFe2O4 + 3Al2O3 + H2

(1) (2)

X.- La Ingeniería de las Reacciones Químicas.

Como introducción al conocimiento de la ingeniería de las reacciones químicas y de los reactores en las cuales dichas reacciones se llevan cabo, en éste capítulo se hará un tratamiento meramente descriptivo. Los temas de ingeniería de reactores y cinética química, que serán abordados con mayor profundidad, son la materia del siguiente apartado. Si bien el reactor o la reacción química son considerados como el corazón del proceso, generalmente esta etapa no constituye la mayor carga de trabajo ni el mayor consumo de energía. Las operaciones unitarias dedicadas al acondicionamiento de las materias primas, a la purificación del producto y el tratamiento y recirculación o recuperación de los efluentes, son los mayores consumidores de recursos y energía. De ahí que la selección de la mejor, entre las rutas de reacción alternativas y por lo tanto la opción en el diseño del reactor, al determinar el tipo, el número y la secuencia del resto de las operaciones, sea un factor clave con una gran influencia en el éxito o el 69

Carolina Herradón y Raul Molina, Grupo de Ingeniería Química y Ambiental Universidad Rey Juan Carlos: Producción de hidrógeno mediante ciclos termoquímicos: CoFe2O4/Al2O3, publicado por Javier Dufour el 21 de marzo de 2012 70 Schefee, J.R., Li,J., Weimer,A.W.:”A spinel ferrite/hercynte water splitting redox cycle”. International Journal of Hidrogen Energy 2010: 35:3333 Share on google share.

71 SolterH

Las tecnologías de concentración solar permiten alcanzar con costes razonables flujos por encima de los 5 MW/m2 y temperaturas superiores a los 2000 K. Gallardo, [email protected] ; A.Vidal, PSA, [email protected]

81

fracaso de un proyecto.72 Para empezar se hace necesario responder dos preguntas. ¿Qué cambios se espera que ocurran en el sistema de reacción? Y ¿qué tan rápido se producen estos cambios? La respuesta a la primera pregunta surge del análisis termodinámico del sistema de reacción, que permite conocer si una reacción es o no espontánea, si es endotérmica o exotérmica y los efectos de la temperatura y la presión sobre el sistema. La segunda pregunta requiere del análisis del sistema reaccionante, para ubicar las reacciones intermedias, consecutivas o paralelas que constituyen la red, cuya suma aparece como el resultado global de la reacción. En la práctica estas reacciones secundarias no se muestran en la estequiometría de la reacción global, dado que muchas veces los productos intermedios tienen una existencia transitoria, alcanzan una cierta concentración y luego se convierten para dar lugar al producto final. La identificación de los pasos y productos intermedios, la secuencia en que se producen y su tasa de cambio son problemas medulares de la cinética ya que la tasa del paso más lento controla al sistema en su conjunto. 73 Ahora bien, para seleccionar un reactor que cumpla con las expectativas del diseñador, o para predecir cual será su comportamiento en la operación, no basta con los análisis de la termodinámica y la cinética, también hay que conocer el patrón de contacto entre las especies reaccionantes: cómo fluyen las especies químicas en el reactor, como se establece el contacto entre ellas y cual es la influencia que tiene en esto su estado de agregación: polvos, gránulos, gotas, nieblas etc. Además de lo anterior, se necesita establecer la influencia de los fenómenos de transporte sobre el sistema reaccionante y los respectivos balances de masa –molares- y de energía para la determinación de las condiciones de operación más adecuadas. Clasificación de las reacciones. La división de las reacciones de acuerdo con el número de fases que intervienen en ellas permite separarlas en sistemas homogéneos y sistemas heterogéneos. En los homogéneos se presenta una sola fase, en tanto que en los heterogéneos coexisten dos o más fases. Las fronteras de esta división no siempre se pueden establecer claramente, como sucede en las reacciones enzimáticas o en la flama de la combustión de un gas donde la composición y la temperatura están lejos de ser homogéneas. Las reacciones, homogéneas o heterogéneas a su vez pueden ser catalíticas y no catalíticas. En las primeras interviene además de los reactivos otra especie química, el catalizador, que acelera o frena el proceso de reacción. Y todas pueden ser divididas entre exotérmicas si generan calor o endotérmicas, si requieren la adición de calor para realizarse. Los reactores: Los reactores pueden ser de tanque agitado, tubulares (de flujo pistón), de lecho 72 Levenspiel O. “Chemical Raction Engineering” Third Edtion, John Wiley & Sons. 1999

73 Davis ME&Davis RJ “Fundamentals of Chemical Reaction Engineering” The McGraw-Hill 2003

82

empacado o de lecho fluidizado, y operar de manera continua, en estado estacionario o en estado transitorio o bien operar en forma intermitente (por lotes).



Reactor continuo de tanque agitado (rcta) En el reactor continuo de tanque agitado ideal, las concentraciones de los reactivos y del producto son las mismas a la salida y en todo el volumen del reactor. En el reactor semi-batch, uno de los reactivos se agrega paulatinamente hasta completar la reacción, o bien se remueve uno o mas productos del reactor conforme avanza el tiempo

83

En el reactor de catalítico de lecho fluidizado, el catalizador en polvo es suspendido como nube, al ser arrastrado por un flujo de gas.







Reactor tubular de flujo tapón (pistón) En este tipo de ractores el fluido se mueve teóricamente en un sólo sentido, sin dispersión axial pero perfectamente mezclado en la direccion radial.

84

Reactor catalítico de lecho empacado



Reactores de lecho fluidizado.

Reactores de tanque agitado en cascada.



85

La célula como un reactor

Para estudiar sus reacciones metabólicas, un organismo unicelular puede ser considerado como un reactor. Si bien la ingeniería de las reacciones químicas (IRQ) surgió a partir la necesidad de definir el como llevar a cabo una reacción a escala industrial y por lo tanto seleccionar el tipo de reactor y las condiciones de operación, la práctica y el desarrollo de herramientas teóricas condujeron a la elaboración de sus principios básicos, que permiten la selección de rutas del sistema de reacción para una operación más segura y eficiente: evitar la producción de subproductos no deseables y de efluentes nocivos para los seres humanos y el medio ambiente, como una vía para asegurar el éxito , ya que la producción de desechos y efluentes nocivos exigirían de procesos onerosos de separación, purificación, limpieza y disposición. Los principios de la IRQ la han convertido en una disciplina de la IQ, que se ha desarrollado y conquistado una presencia propia, en un ámbito que va más allá de la industria química y del diseño de reactores, para incursionar en las más diversas áreas del conocimiento y la tecnología: Desde la Ingeniería de Bio-reacciones, Nanotecnología, Micro componentes electrónicos, el estudio de la farmacocinética –destino y metabolismo- de medicamentos y venenos en el cuerpo humano, ingeniería de tejidos y cinética enzimática, entre otros temas-74 74 Fogler H. S., Elements of Chemical Reaction Engineering. Fourth Edition, Prentice Hall 2006 86

Difusión de oxígeno en sangre en el circuito pulmonar. El oxígeno es transportado por la sangre, impulsada por el corazón, hacia los órganos y los tejidos. La sangre retorna al corazón para ser bombeada al circuito pulmonar donde será re-oxigenada.





87

La ruta del alcohol en el organismo Estómago A V l S = 2.4 l c o h o l

Gastro intestinal V = 2.4 l

Hígado

G

t = 2.67 min G

V = 2.4 l L t = 2.4 min L

Central V = 15.3 l C t = 0.9 min C

Músculo y grasa V = 22.0 l M

t = 27 min M

Las flechas señalan las interacciones de “perfusión” entre compartimientos. VG, VL, VC, y VM son volúmenes de agua tisular para los compartimientos: tracto gastro-intestinal, hígado, central y graso-muscular respectivamente. VS es el volumen del contenido del estomago.75 En el cuadro que sigue se muestran las disciplinas que se requieren y las actividades que hay que realizar para un buen desempeño en la aplicación de los conocimientos en Ingeniería de Reacciones Químicas. Cabe destacar que esta disciplina requiere de una sólida formación en matemáticas, dado que prácticamente todos los fenómenos y sistemas que intervienen en el diseño del reactor, así como la construcción de modelos, se expresan a través sistemas de ecuaciones de gran complejidad (diferenciales parciales, parabólicas, etc.) cuya solución requiere del empleo de métodos numéricos, o el empleo de simuladores que facilitan la tarea.76

75 University of Michigan ChE 344 p107

76 Washington University in St. Louis



88







89

“CONCEPTOS DE INGENIERÍA Y CINÉTICA QUÍMICA APLICADA”

POR

ENRICO MARTÍNEZ SÁENZ

90

XI.- Metodología de Investigación para el Desarrollo de Procesos 1.- introducción: El proceso de desarrollo del conocimiento a través de la historia, es el resultado del descubrimiento de las leyes fundamentales que rigen en el comportamiento de la naturaleza. Estas leyes una vez conocidas se utilizan para transformar la realidad y modificar el medio ambiente en beneficio de la colectividad; igualmente, este proceso conduce a nuevos conocimientos y a un perfeccionamiento del entendimiento del manejo de dichas leyes fundamentales. Dentro de este contexto, podemos observar que la investigación, de cualquier tipo, siempre es el resultado de la necesidad de satisfacer carencias comunes a un grupo de individuos o sociedad, esto es de necesidades de producir alimentos, abrigo, casa, medios de comunicación, etc. Así pues, en nuestro caso particular como ingenieros o científicos aplicados podemos pensar en una secuencia lógica para nuestra actividad de investigación: Necesidad

Idea

Producto

Proceso

Esto es, en ultima instancia, llegaremos siempre al problema de desarrollar, estructurar e implementar un proceso de producción. 2.- Revisión Bibliográfica: Este aspecto corresponde a un análisis exhaustivo de la historia, de lo que se ha producido hasta la fecha sobre el proceso que nos interesa, esta revisión debe conducirnos en primera instancia a conclusiones de gran importancia en la planeación de nuestra investigación, como son las siguientes: -

Clasificación de los procesos utilizados hasta la fecha, para fabricar el producto de nuestro interés, así como de sus aspectos relevantes y las innovaciones que se han introducido a través del tiempo.

-

Identificación de las variables y parámetros relevantes para el proceso de tal manera que sea posible definir cuales de ellas se controlarán y dentro de que rangos de variación; en otras palabras, debemos poder estructurar un diseño de experimentos.

-

Clasificar aquellas propiedades físicas para las cuales existan valores tabulados o correlaciones confiables, así como aquellas para las cuales se habrá de recurrir a la experimentación para determinarlas.

-

Definir los métodos analíticos y de medición que deberán utilizarse para el estudio de la reacción, las condiciones de trabajo y la calidad de los reactivos que se usarán.

91

3.- Estudio Cinético de la Reacción: Nuestro método de investigación nos trae a uno de los aspectos de mayor importancia para el desarrollo, diseño o adaptación de un proceso; el estudio de la reacción. Del conocimiento que nosotros logremos del compartimiento de la reacción, dependerá en gran parte la confianza que podamos tener en nuestro proceso. La tasa de una reacción química es función de la concentración de reactivos y productos, así como de la temperatura: r = r (CA, CB, …, Ci, T)

(1)

Orden de la reacción: esto corresponde a la funcionalidad de la tasa de reacción, r, con respecto a las concentraciones: r = kCAmCBn - k’CRpCSq

(2)

Donde la suma (m + n) – (p + q) es el orden de reacción, mientras que los exponentes m, n, p y q son los ordenes individuales con respecto a cada componente del sistema. k y k’ son coeficientes de proporcionalidad para la reacción hacia la derecha y hacia la izquierda respectivamente según la reacción: k A+B Û R+S (3) k’ k y k’ son funciones de la temperatura como veremos a continuación. Energía de Activación: Los coeficientes cinéticos k y k’ son funciones de la temperatura de acuerdo con la ecuación de Arrhenius. k = k0exp(-Ea/RT) Donde: k0 = Factor pre - exponencial Ea = energía de activación R = Constante universal de los Gases Así pues en esta etapa de la investigación, nuestro trabajo consiste en determinar la forma de la ecuación 2 para nuestra reacción en particular, y específicamente, encontrar los valores de m, n, p y q Para completar el estudio cinético, debemos determinar Ea y Ea’ para las reacciones hacia la derecha y hacia la izquierda, si nuestra reacción global es reversible.

92

Este trabajo en general, debe de hacerse experimentalmente, en este aspecto, recomendamos al lector referirse a la literatura común sobre la materia para obtener una visión más amplia de dichas técnicas (1, 2). 1.Papel del Reactor en los Procesos Químicos En general podemos afirmar que el reactor es el corazón de todo proceso químico puesto que en el se lleva a cabo la transformación de reactivos comparativamente baratos en productos de alto valor. El diseño y la operación de esos reactores para llevar a cabo reacciones químicas requiere análisis tanto de procesos físicos como químicos. Frecuentemente, los principios que rigen la transferencia de masa y energía son tan importantes como aquellos que rigen la cinética química; esta combinación de operaciones físicas y químicas es un aspecto que distingue a la ingeniería química, por lo cual el diseño y operación de reactores químicos en una actividad exclusiva del ingeniero químico. Cuando se desarrolla o modifica un proceso químico, el reactor ocupa un primer plano alrededor del cual se colocara una serie de equipos para acondicionar la materia prima y purificar o separar los productos por medio de tratamientos adicionales. En esta sección nos dedicaremos casi exclusivamente a la reacción química y el recipiente en el cual esta se lleva a cabo; sin embargo no perdemos de vista el panorama general del proceso, sobre todo al momento de optimizar un diseño, puesto que en ocasiones la conversión optima en una reacción puede no serlo para el proceso si esta hace mas difícil la separación y purificación del producto. Para diseñar un reactor deben considerarse, entre otros, los siguientes factores. El tipo y tamaño necesarios, dispositivos para el intercambio de calor con los alrededores y las condiciones de operación como temperatura, presión, composición y flujo. Para precisarlos, es necesario recurrir a la cinética química, por medio de la cual se determina la velocidad de transformación de una especie química en otra a partir de mediciones experimentales en el laboratorio. La cinética química no se ocupa de los procesos físicos, sino solamente de la velocidad de transformación de átomos y moléculas de una forma estructural a otra diferente, esta velocidad no puede predecirse fácilmente con exactitud, contrastando con los procesos físicos como la transferencia de masa y calor que para muchos tipos de reactores pueden estimarse a partir de los arreglos geométricos y de flujo. De aquí que sea conveniente el diseño de “tipos” de reactores en lugar de atacar cada sistema químico como un caso especial y aislado. Debido a la naturaleza especifica de los procesos químicos, esta generalización no es tan afortunada como el caso del diseño de cambiadores de calor por ejemplo. Sin, embargo es posible llegar a ciertas conclusiones sobre reactores debido a que existen semejanzas en la cinética de las reacciones químicas de una clase determinada, como homogéneas en fases liquida o catalíticas heterogéneas gas-sólido. De acuerdo con lo anterior, podemos afirmar que la posibilidad de un nuevo proceso se demuestra primero en el laboratorio en un reactor pequeño que permite obtener los datos cinéticos necesarios para el diseño. En muchos casos, el proceso industrial involucra la producción de grandes cantidades de material y es necesario efectuar una transición sumamente drástica, pues no solamente debe tomarse en cuenta el paso de gramos a miles o millones de kilos por día, sino de un proceso intermitente a un continuo. La importancia de 93

este paso ha conducido al establecimiento de procesos continuos a escala de mesa (bench scale), en los cuales puedan evaluarse las ventajas y desventajas de la mencionada transición. Cabe mencionar también que a pesar de la tendencia a eliminar la planta piloto a través del uso de la simulación, sigue siendo necesario hacer experiencias a escala planta piloto para evaluar las condiciones de reacción y las variables que intervienen en la operación adecuada de un reactor. Importancia del Rendimiento y la Selectividad en la Ingeniería de Reactores Químicos. Con frecuencias, el trabajo académico desarrollado en el área de ingeniería de reactores químicos se concentra en el tema simple y sin relevancia industrial de conversión o actividad, o sea en los factores que afectan la conversión en términos de moles convertidos por unidad de tiempo y por unidad de volumen de reactor. Este concepto de actividad es útil cuando se trabaja con sistemas “simples” como síntesis de amoniaco u oxidación de SO₂, en los cuales la termodinámica garantiza la existencia de un solo producto, pero la gran mayoría de los sistemas de reacciones químicas, la termo dinámica indica la posibilidad de obtener una variedad de productos que muchas veces tienen nulo o limitado valor comercial, como CO₂. H₂O y coque. Cuando el ingeniero de reactores químicos se encuentra con una red de reacción capaz de generar varios productos, deberá enfocarse su atención no solamente hacia la conversión sino también, al rendimiento o la selectividad. Deberá preocuparse por la conversión del reactivo en un producto específico deseado. La conversión por si sola indica producción total, mientras que el rendimiento o selectividad sugieren una especie de preferencia dirigida hacía un producto determinado. En general, el rendimiento se define como la relación de la tasa de generación de un producto deseado con respecto a la tasa de consumo del reactivo clave. Selectividad a su vez es la tasa de generación del producto deseado dividida por la tasa de producción del no deseado. Ejemplo

B

Rend.=

A

cuando B es el producto deseado C Sel. =

94

Cinética y Termodinámica A partir de los principios básicos de la termodinámica y con algunos datos termodinámicos, es posible calcular la máxima conversión a la que puede llegar una determinada reacción química, ó sea la conversión que se alcanzaría a las condiciones de equilibrio termodinámico, en las cuales ya no existe tendencia alguna para cambios con respecto al tiempo. En este punto la tasa de reacción deberá ser cero, ó sea que una grafica de la tasa de reacción contra tiempo siempre se acercaría a cero conforme el tiempo tiende a infinito. Esta situación esta representada con la curva A de la figura 1 donde la tasa se acerca a cero asintóticamente. Además, hay casos en los que el equilibrio se puede alcanzar mas rápido, de tal manera que la tasa es casi cero en tiempo finito (curva B, Figura 1).

Igualmente, la conversión en el equilibrio seria el punto final en una curva de conversión contra tiempo (Figura 2). De nuevo tenemos los casos A y B anteriores, los cuales pueden corresponder, ambos, a la misma reacción pero en B, la rapidez de aproximación al equilibrio se ha aumentado, a través del uso de un catalizador por ejemplo. El tiempo disponible para llevar a cabo una reacción comercialmente está limitado si el proceso deberá ser factible económicamente. O sea que el rango practico en las curvas de las figuras 1 y 2 corresponde a los valores cortos de tiempo. Sin embargo, la conversión en el equilibrio es importante como un máximo determinado por el equilibrio termodinámico.

95

Para calcular la conversión en el equilibrio, es necesario conocer las energías libres de formación de reactivos y productos y en consecuencia calcular el cambio en energía libre para la (s) reacción (es). Esto todavía no es posible para todas las reacciones a pesar de que la cantidad de datos termodinámicos existentes es considerable. En el caso de reacciones en fase gas, los datos disponibles son bastante confiables y a continuación ilustrarmos la forma de utilizarlos. La tasa de intercambio de energía es muy importante para determinar el perfil o distribución de temperaturas en un reactor, también, los calores de reacción son importantes para el calculo del equilibrio. Así pues, en la siguiente sección repasaremos los datos relacionados con el calor de reacción y el equilibrio químico. Termodinámica de las Reacciones Químicas -

Calor de Reacción.- Esta definido como la energía absorbida por el sistema cuando los productos, después de haber reaccionado, se llevan de nuevo a la temperatura que originalmente tenían los reactivos. La presión también deberá ser especificada para fijar totalmente los estados termodinámicos para los productos y los reactivos: si se selecciona la misma presión para ambos, el calor de reacción es igual al cambio de entalpía ( HR). La información básica necesaria para calcular calores de reacción son los calores de formación o los calores de combustión de cada reactivo y producto. Esta información tabulada en la literatura (Perry, Hanbook of Chemistry and Physics, etc.). Cuando no existen datos experimentales, hay procedimientos establecidos para predecir los calores de formación.

El calor de reacción es función de la temperatura y depende de la diferencia de capacidades caloríficas molares entre productos y reactivos:

To = Temperatura base a la que se conoce

96

Cp =

(NiCpi) Prod. -

(NiCpi) react. = diferencia en capacidades caloríficas.

1.R.C. Reid and T. K. Sherwood “The Properties of Gases and Liquids”, 2nd. Ed. McGraw – Hill, 1966. Equilibrio Químico Cuando una reacción ocurre en el equilibrio, la presión y la temperatura del sistema permanecen constantes y el cambio de energía libre es cero. Estas restricciones pueden utilizarse para desarrollar la siguiente relación.

= Cambio de energía libre Standard = Diferencia entre las energías libres de productos y reactivos, cuando cada uno se encuentra en un estado Standard preseleccionado. Este estado Standard se escoge de tal manera que la evaluación de la energía libre sea lo mas sencilla posible. Para una reacción general como la siguiente: aA + bB

cR + sS

(3)

La constante de equilibrio K se define como sigue:

K = CRcCSd/CAaCBb

(4)

Donde los símbolos Ci representan las concentraciones de los productos y los reactivos y los exponentes c, d, a y b son los coeficientes estequiométricos de la ecuación de reacción química (3). Si la reacción se lleva a cabo en fase gas y este se comporta como gas ideal, las concentraciones pueden sustituirse por presiones parciales para finalmente escribir la Constante de Equilibrio K como KP, o sea la Constante de Equilibrio en función de presiones parciales: KP = pRcpSd/pAapBb Donde pi = PTyi

(5) (6)

yi = Fracción mol del componente i

97

Con las ecuaciones (5) y (6) podemos evaluar la relación de composiciones en el equilibrio en términos de la constante de equilibrio y a partir de ello determinar la conversión en equilibrio. Esto se haría de acuerdo con el siguiente procedimiento: 1. 2. 3. 4.

Evaluar G° Determinar la constante de equilibrio K, ec. (2) Obtener las presiones parciales y las fracciones mol en equilibrio a partir de (5) y (6) Calcular la conversión a partir de las fracciones mol para cada componente

Generalmente, es necesario determinar el efecto de la temperatura sobre K para obtener la constante de equilibrio en las condiciones de nuestra reacción. La ecuación de Van´t Hoff nos proporciona la relación requerida.

(7)

Donde

es el calor Standard de reacción

La ecuación (7) tiene implicaciones importantes para el diseño de reactores y procesos: a) Reacción Exotérmica K disminuye con aumento en la temperatura Por lo tanto, es necesario eliminar calor para obtener conversiones de equilibrio altas. b) Reacción endotérmica K disminuye con disminución en la temperatura Por lo tanto, es necesario adicionar calor para obtener conversiones altas en el equilibrio. Los puntos a) y b) anteriores no son mas que una expresión del famoso principio de “Le Chatelier”.

98

XI.- INGENIERIA DE REACTORES QUIMICOS “EL COMPORTAMIENTO DE LOS REACTORES” 1. Reactores de tanque agitado y de flujo pistón isotérmicos La conversión o avance de una reacción depende de dos factores: - La magnitud del coeficiente cinético, k - La concentración INGENIERIA DE REACTORES QUIMICOS I.- Introducción.- en general los reactores son recipientes en los que se llevan a cabo reacciones químicas de cualquier tipo; catalíticas no catalíticas, químicas y bioquímicas. La figura numero 1 representa esquemáticamente un reactor al cual se alimenta uno o mas reactivos para obtener uno o mas productos operando a determinadas condiciones de temperatura y presión, con adición de energía dependiendo si la reacción es endotérmica o exotérmica. Dentro del reactor existirá un determinado grado de mezcla entre reactivos y productos y la reacción se estará llevando a cabo en alguna fase, sea gas, liquido o solido, bien podrá existir una combinación de dos o más fases.

Figura 1 Los reactores son la parte medular de toda planta de proceso; ósea de refinación, petroquímica, farmacéutica, de producción de alimentos, en general plantas químicas. Por esta razón, los reactores son la parte fundamental de cualquier tecnología. Clasificación: los reactores pueden clasificarse por su modo de operación o bien por sus características dentro del reactor y el estado físico de la mezcla de reactivos productos y catalizadores. Por el método de operación, existen reactores por lotes (RPL), los cuales se caracterizan por operar con cargas discretas de reactivos o lotes. En este caso, los reactivos se alimentan al recipiente se ajustan las condiciones para que la reacción se lleve acabo, finalmente se enfría y se descarga la mezcla de productos y reactivos que no reaccionaron para preparar el reactor nuevamente para otro lote. Por otro lado, existen los reactores continuos, obteniéndose un flujo continuo de mezcla de productos y reactivos no consumidos. Particularizando en los reactores continuos, existen dos clases ampliamente utilizadas: a) Reactor continuo de tanque Agitado (RCTA) b) Reactor Tabular de Flujo (RTF)

99

FIGURA 2 En cuanto al estado físico de la mezcla reactivos-productos-catalizador(es), cualquiera de los tipos de reactores mencionados arriba, puede contener una fase, en cuyo caso se denominan homogéneos, o bien dos o más faces, en cuyo caso son heterogéneos. Los reactores heterogéneos son los más frecuentemente encontrados en la mayoría de las plantas de proceso. Como ejemplos podemos mencionar los siguientes: -

Gas- Liquido: Producción de HNO3 por absorción de oxido nítrico en agua. Producción de H2SO4 por absorción de SO3 en agua.

a) b) -

Gas -Solido: Catalíticos à Síntesis de amoniaco, oxidación de SO2 a SO3, síntesis de metanol. No-catalíticas à producción de acero, producción de cal y cemento. Liquido – liquido à Reacciones de polimerización en emulsión. Liquido – Solido à procesamiento de minerales, algunas fermentaciones. Gas – liquido – solido à fermentaciones, síntesis de hidrocarburos.

Si analizamos mas detalladamente la configuración de los reactores mas frecuentemente utilizados, encontraremos que existen tanques agitados con y sin alimentación de gas y con sólidos suspendidos (reactores en suspensión) tubos vacíos o empacados con un solido con flujo de gas (Lechos fijos), o con un flujo de gas y liquido (lechos escurridos). Columnas con solido empacado, pero inerte, con flujo de liquido y/o de gas. Tubos o columnas tubulares con flujo de gas y solido (lechos fluidizados). Objetivo: el objetivo primordial en un reactor es el de obtener una conversión y rendimiento óptimos del reactivo principal y al producto deseado. En el caso más general, nos encontraremos con varias reacciones que se llevan a cabo simultáneamente, por ejemplo: Donde B podría ser el producto deseado y A el reactivo “limitante”. La conversión se define como: o sea la suma de los moles de A convertidos a los productos, dividida por la concentración inicial en un RPL o por la concentración de A en la alimentación en un reactor de flujo continuo (A0). El rendimiento se define como: o sea, es la conversión de A al producto deseado. 100

Para obtener una conversión y un rendimiento óptimos, debemos ser capaces de seleccionar el tipo y configuración de reactor mas adecuados para las características de sistema particular, así como definir las condiciones de operación que permitan lograr el optimo, en términos de flujos, temperatura, presión y concentración inicial o de alimentación. En este sentido, debemos ser capaces de describir adecuadamente la operación de los reactores y de diseñarlos, para lo cual es necesario recurrir a la formulación de modelos que cumplan con los requisitos de describir adecuadamente su funcionamiento. II.- Modelos de Reactores De acuerdo con lo que vimos en los párrafos anteriores, el establecimiento de un modelo de reactor químico no parece tarea fácil. En principio nos gustaría contar con un modelo en términos de una o varias ecuaciones matemáticas fáciles de resolver y manipular en términos de las variables involucrados, o sean concentración (C), presión (P), temperatura (T), tiempo de reacción (t), flujos de alimentación (Q), energía adicionada o removida (+/- q) y alguna otra variable o parámetro relevante como puede ser la cantidad de catalizador. En primera instancia, podríamos establecer un modelo totalmente empírico, basado única y exclusivamente en enormes cantidades de datos experimentales de laboratorio o planta piloto, correlacionados por medio de ecuaciones obtenidas por análisis dimensional, como en la época inicial de la Ingeniería Química. Sin embargo, este modelo tendría la desventaja de ser aplicable, únicamente, al tipo de reactor en el se obtienen los datos y solo para la reacción particular estudiada y para las condiciones de operación especiales estudiadas. En este caso, las posibilidades de extrapolación o “escalamiento” a dimensiones y condiciones industriales son mínimas o mas bien nulas… Afortunadamente, en la época actual, el conocimiento de los fenómenos físicos y químicos que se presentan en un reactor ha alcanzado un desarrollo sustancial, lo cual nos permite establecer ecuaciones basadas en dichos fenómenos, o sea que es posible hacer una representación fenomenológica de la operación de un reactor. Esta representación se realiza a través del establecimiento de las ecuaciones de balance de masa y de balance de energía para el reactor. Ahora bien, desafortunadamente el conocimiento de algunos de los fenómenos que se presentan en los reactores no es lo suficientemente solido ni profundo como para extrapolar o escalar con base en las ecuaciones, únicamente. De tal manera que es necesario combinar ambos enfoques arriba mencionados para construir modelos útiles. Así pues, los modelos que actualmente se utilizan son semi-empíricos o semi-fenomenològicos. En general se establecen las ecuaciones de balance de masa y energía para el reactor en cuestión, se identifican los parámetros de reacción que deben determinarse experimental mente (cinética), y los coeficientes de transferencia, que algunas veces se pueden calcular a partir de correlaciones conocidas, y otras se deben determinar experimentalmente. Con esto se conforma un modelo preliminar, el cual deberá probarse contra los sucesos reales en un reactor piloto y ajustarse varias veces hasta obtener un modelo que describa lo más cercanamente posible la realidad de funcionamiento del reactor. La figura 3 muestra esquemáticamente el procedimiento para establecer un modelo adecuado para análisis y diseño de reactores.

101

Modelo Simple

Sensibilidad De Parámetros*

Análisis Y Diseño del Reactor (es)

Diseño Preliminar

Planta Piloto

Modelo Final Modelo mas Adecuado

*Entendemos por sensibilidad de parámetros, al resultado de efectuar varias simulaciones del comportamiento del reactor con un modelo determinado, variando los valores de ciertos parámetros clave del funcionamiento del reactor, con el propósito de observar la sensibilidad de dicho funcionamiento con respecto a la variación de los parámetros, para definir así cual o cuales parámetros deberán evaluarse con mayor precisión. La línea punteada indica la ruta que se sigue una o más veces después de comparar las predicciones del modelo con los resultados de planta piloto. Estructura de los métodos: Analizaremos primero el caso más general de un reactor agitado y de un reactor tubular de flujo donde puede haber 3 fases: solido, líquido y gas. Co

FIGURA 4

C(r,z) Sólido en suspensi ón

Gas

P(r,z) C

Co

P T C

r

T(r,z)

Z C

Reactor Continuo de tanque agitado

Reactor Tubular Empacado de Flujo Continuo

En ambos casos la concentración y la temperatura también pueden ser función del tiempo durante el arranque del proceso o cuando hay cambio en alguna(s) de las condiciones de operación (Régimen Transitorio). Los modelos que describen el funcionamiento de estos reactores deben tomar en cuenta los siguientes aspectos:

102

a) b) c) d)

Flujo de cada una de las fases Mezclado de los reactivos Transporte de masa y de calor entre las fases y a través de las paredes del reactor Comportamiento de la reacción, o sea los aspectos puramente cinéticos y catalíticos.

Los incisos (a), (b); y (c) anteriores se refieren únicamente al comportamiento del reactor. Como podrá intuirse a partir de los esquemas en la figura 4, el Reactor Continuo de Tanque Agitado (RCTA), debido al mezclado interno presentara gran uniformidad de concentración y temperatura; de hecho, idealmente se define a un RCTA bajo condiciones de mezclado perfecto, como el reactor en el que la composición y la temperatura, en cada una de las fases, son uniformes dentro del reactor o sea que no varían con la posición dentro del reactor y que la concentración y temperatura en cualquier punto dentro del reactor son exactamente iguales a la concentración y temperatura del efluente del reactor. Por el contrario, dado el patrón de flujo que se presenta en un reactor tubular y que no existe agitación externa, es de esperarse que no haya mezclado en un reactor de este tipo. En el caso ideal se tiene que el fluido pasa a través del tubo sin mezclarse en la dirección del flujo (z), pero si en la dirección perpendicular a este (radial, r). Este comportamiento idealizado se conoce como “Reactor de Flujo Pistón” (RFP). En general los reactores no se comportan idealmente, lo cual hace necesario el estudio de los aspectos (a), (b) y (c), en cada caso particular. La siguiente sección de estas notas se ocupara en detalle del comportamiento de los reactores ideales y de la manera como se puede tomar en cuenta el efecto de los puntos (a) y (b). Posterior mente atacaremos el punto (c), dado que sus características difieren cualitativamente de los otros dos. III. MODELOS DE REACTORES IDEALES Como dijimos antes, para establecer el modelo de un reactor debemos empezar por escribir las ecuaciones de balance de masa y de energía correspondiente al tipo de reactor. De acuerdo con lo que sabemos de balances, podemos escribir un balance de masa por cada reacción independiente que se lleve a cabo en el reactor y un balance global de energía. Así pues, si tenemos N reacciones independientes, habrá (N + 1) ecuaciones que describen el funcionamiento del reactor. En el caso de un RCTA con una sola reacción, las ecuaciones correspondientes son: (1)

Es el balance de masa

Donde: Co = Concentración del reactivo limitante en la alimentación al reactor, gmol/cm³ C= concentración del reactivo limitante en el reactor, gmol/cm³ V

Θ= tiempo de residencia promedio = , seg Q V = volumen del reactor, cm³ Q=Gasto volumétrico de alimentación y salida del reactor, cm³/seg. 103

(2) Es el balance de energía Donde: = densidad de la mezcla reaccionante, gmol/cm³ Cp = capacidad calorífica de la mezcla reaccionante, cal/gmol°K To =Temperatura de la alimentación, °K T = Temperatura de la mezcla reaccionante, °K ΔH = calor de reacción, cal/gmol U = coeficiente de transferencia de calor a través de la pared (global), cal/(seg cm² °K) A T = área de transferencia de calor por unidad de volumen de reactor, cm¯¹ Te = Temperatura del medio de enfriamiento. Para el RFP tenemos lo siguiente:

Co Q Z L (3) es el balance de masa (4) es el balance de energía donde: Z

q = tiempo de residencia en el RF =

V Q

=v

, seg

v = velocidad superficial de flujo cm/seg L = longitud del reactor tubular, cm Z = coordenada axial, cm Para el reactor por lotes (RPL) tenemos: (5)

104

Es el balance de masa para cuando el volumen del reactor v puede ser variable. Si el volumen es constante, entonces: (5a) (6) Es el balance de energía, donde: N = numero de moles del reactivo limitante t = tiempo de reacción, seg Si observamos las ecuaciones 3, 4, 5a, y 6, notaremos la similaridad entre ellas, la única diferencia es que la variable independiente en el caso del RFP es el tiempo de residencia en el reactor Tubular , , mientras que en el RPL, la variable independiente es t, el tiempo de reacción o tiempo de lote. De hecho, para un reactor por lotes cuyo t sea igual al q de un reactor de flujo pistón, su comportamiento es idéntico y se obtiene la misma conversión y rendimiento. También observamos que estas últimas ecuaciones son diferenciales a diferencia de las dos primeras que son algebraicas. Por esta razón, los modelos para el RFP y el RPL se llaman de parámetro distribuido puesto que las variables dependientes C y T varían a lo largo del tiempo o la distancia, mientras que el modelo del RCTA se llama de parámetro concentrado puesto que C y T no varían en función de la localización en el reactor dando lugar a ecuaciones algebraicas de diferencia.

105

Segunda parte:

Presente y futuro la Ingeniería química

frente a la contaminación, el agotamiento de los recursos y la sostenibilidad.

106

XIII.- La Contaminación Ambiental y los Límites del Crecimiento (Desarrollo)

Si bien la Ingeniería Química surge hacia el final del siglo XIX su desarrollo y su madurez se darán en el transcurso del siglo XX77. El surgimiento del automóvil impulsado por el motor de combustión interna fue seguido muy pronto por el desarrollo de la aviación. Ambos requirieron de combustibles adecuados que fueron obtenidos como productos de la refinación del petróleo. (Los subproductos de ésta darían lugar, a través de la Petroquímica, a una miríada de materias primas y productos elaborados.) En los inicios del siglo, la producción de cereales requería de fertilizantes nitrogenados para satisfacer la demanda. Los abonos orgánicos resultaban insuficientes y el empleo del nitrato de sodio de las minas chilenas era un recurso finito y alejado de los centros de consumo. Haber y Bosch, en un hecho crucial, de aprender haciendo, lograron en 1909 desarrollar un proceso para convertir el nitrógeno del aire, en amoníaco primero y en nitrato de amonio después. La solución al problema de los fertilizantes, abrió al mismo tiempo un ruta para la producción masiva de explosivos y propulsores. La primera Guerra mundial catalizó el desarrollo de la IQ: A la gran demanda de explosivos y combustibles se sumó la producción de gases de combate y los primeros intentos de producir hule sintético. Luego vendrían los polímeros y la química macromolecular con la que la producción del Nylon78, marca otro momento de aprendizaje en la práctica, crucial para la IQ. La Guerra Mundial II Como consecuencia del conflicto se dio un auge en el desarrollo de procesos, entre los que destaca la difusión gaseosa a partir del hexafluoruro de uranio para la concentración del Uranio 235, necesario para la Bomba Atómica. En las guerras, las infecciones y las enfermedades contagiosas, como el tifo, solían matar más que las balas y para su combate se desarrollaron procesos para la producción industrial de penicilina y para la obtención masiva de DDT. Ya en la posguerra, hacia la mitad del siglo, a la producción de los antibióticos y de los plaguicidas se sumó la de los detergentes. El auge en el consumo de estos últimos fue propiciado por la publicidad en las telenovelas. Las condiciones de higiene se mejoraron notablemente y junto con los antibióticos para atacar las infecciones y los plaguicidas para controlar los insectos vectores, influyeron en el crecimiento de la población mundial dando lugar a lo que se llamó la “explosión demográfica”79. La producción se incrementó aceleradamente para satisfacer un consumo también creciente, a un ritmo tal, que por una parte hizo pensar en el agotamiento de los recursos y por otra mostró los graves efectos de la contaminación. 77 AréchigaV. J. U “La IQ y la RTC (Revolución científico tecnológica) CONIQ, 78 Para ser usado como sustituto de la seda en la fabricación de paracaídas. 79 La población mundial creció de 2,600 millones en 1950 a 6.500 en 2010

107

Población y Producción Preocupados por la reducción de los recursos naturales, un grupo de 30 personas de 10 países se reunieron en una especie de colegio informal: el Club de Roma. Estos encargaron al MIT (Massachusetts Institute of Technology) un estudio sobre el tema, cuyos resultados fueron publicados en 1972 por Donella Meadows y colaboradores en el libro: “The Limits Of Growth”.80 Basados en una hipótesis de crecimiento exponencial de la población y por lo tanto del consumo, propusieron el establecimiento de políticas de reducción del crecimiento, tanto de la población como de la producción material, del tal manera que la especie humana alcanzara una situación de equilibrio con su entorno, una suerte de estado estacionario. Veinte años después, en 1992, se llevó a cabo en Río de Janeiro la reunión cumbre por la tierra, en la que científicos, técnicos y jefes de estado llegaron a un acuerdo acerca de la situación crítica del planeta y de las medidas que habría que tomar. Las acciones acordadas se plasmaron en lo que se conoce como la “Agenda 21“ Para 1992, el equipo del MIT publicó un nuevo trabajo para señalar que “los límites se habían rebasado” y en 2004 presentaron otro texto: Limits to growth: the 30 years up date en el que destacan la urgencia de tomar medidas para frenar el deterioro que la producción, particularmente la contaminación ambiental, ocasionan al medio ambiente81. “La conjunción de técnicas inadecuadas, con el rápido aumento demográfico y una creciente cultura del consumo esta produciendo unas tensiones insostenibles”82 De este segundo aspecto surgió muy pronto la preocupación por el futuro y el planeta que se heredaría a las generaciones venideras. Si bien la salida más inmediata era la reducción del consumo y por lo tanto de la producción, para disminuir la contaminación y dar tiempo a que las reservas de recursos renovables se recuperaran, se optó por una estrategia que se conoce como “el desarrollo sustentable” con la intención de alcanzar el estado estacionario. 80 Donella H. Meadows, Dennis L. Meadows, Jørgen Randers and William W. Behrens III, “The Limits of Growth”, a Potomac Associates Book, 1972.

81 cfr. Federico Mayor Zaragoza “Los Límites del Crecimiento” TEMAS PARA EL DEBATE Nº 181. DICIEMBRE 2009 pp 10-16

82 Fernando Gutiérrez Martín “Medio Ambiente y Tecnología Sustentable” (Producción limpia, ecología industrial y desarrollo sostenible) Universidad Politécnica de Madrid

108

La Contaminación Ambiental La contaminación Ambiental es uno de los daños catastróficos que la producción y el consumo irrestrictos han ocasionado y ocasionan al medio ambiente: en el agua, en la atmósfera y en el suelo, a los que se añaden la contaminación visual y la contaminación auditiva. La industria Química









Dado que es materia del quehacer cotidiano de la Ingeniería Química resulta conveniente revisar, en primer lugar, el papel que la industria de procesos ha desempeñado a lo largo del siglo XX, en cuanto a la contaminación ambiental y la prevención de esta como una disciplina dentro del ejercicio profesional. La contaminación atmosférica reviste varios aspectos, entre los que destacan entre otros: el efecto invernadero (cambio climático), la producción de Ozono a nivel del suelo, la desaparición de la capa de Ozono en la estratósfera y la lluvia ácida. El cambio climático. Existen evidencias de un cambio climático, asociado al calentamiento global que se ha registrado a partir de los inicios del siglo XX. Este calentamiento, en parte, es atribuido a lo que se conoce como el “efecto invernadero”.83 La tierra recibe permanentemente un flujo de energía proveniente del sol. Una parte de esta energía es absorbida por la superficie terrestre y otra parte se refleja y sale hacia el espacio 83 Naomi Oreskes SCIENCE,3 DECEMBER 2004 VOL 306 www.sciencemag.org 1686

109

El efecto invernadero es producido por la acumulación de ciertos gases en la estratósfera donde, el CO2, el N2O y el Metano principalmente, forman una capa que impide que los rayos solares, reflejados por la superficie terrestre, salgan al espacio. La capa gaseosa los refleja de nuevo hacia la tierra, con el consiguiente aumento de temperatura a nivel del suelo, que se traduce en el calentamiento global. Este fenómeno ocasiona que los hielos polares y los glaciares de montaña se derritan, que aumente el nivel del mar y que se produzcan cambios desfavorables en el clima de la tierra.





Estos gases se originan en dos fuentes: la natural y la antropogénica. En el caso de CO2 la fuente natural más común es la respiración de los seres vivos, en tanto que la combustión, principalmente de combustibles fósiles, es la fuente antropogénica más importante, a tal grado que se le considera la principal causa del calentamiento global.84 En 1998 la ONU convocó a una convención sobre el cambio climático, de la que surgió el llamado “Protocolo de Kioto” en el que se fijó como meta, para el período 2008-2012, reducir en los países adheridos, un 8 por ciento respecto a los niveles de 1990, las emisiones de gases de efecto invernadero, generadores del cambio climático, especialmente dióxido de carbono (CO2). Con este objetivo se puso en marcha, a partir de 2005, el “mercado de la contaminación” a través de tres mecanismos: - Comercio Internacional de Emisiones: los países industrializados pueden vender y comprar sus créditos de emisión entre ellos. - Implementación Conjunta: los países industrializados pueden comprar reducciones de emisiones derivadas de proyectos en otros países industrializados. - Mecanismo de Desarrollo Limpio: los países industrializados pueden comprar reducciones de emisiones derivadas de proyectos de los países en desarrollo. Otro de los acuerdos fue la Mitigación, con la pretensión de reducir las emisiones de gases de efecto invernadero como una contribución para reducir o retrasar los efectos del calentamiento global.85 84 Actualmente se encuentran en circulación por el mundo más de 1000 millones de autos (un billón USA) y la

producción de 2013 superó el millón de unidades. 85 http://www.greenfacts.org/ Copyright © Green Facts Level 2, p. 15/42

110

La gráfica siguiente muestra distribución regional per cápita de la emisión de gases de efecto invernadero y el impacto de la producción en dos grupos de países.86

Como puede verse en la gráfica el conjunto1, con una producción equivalente de 16.1 ton CO2 per cápita agrupa al 19.7% de la población del mundo, en tanto que para el restante 80.3 la producción equivalente de CO2 fue de 4.2 t/cápita.

Contaminación atmosférica y urbe. La contaminación atmosférica se ha convertido en un problema de salud pública sobre todo en las grandes ciudades y sus áreas conurbadas, donde ciertos contaminantes como los compuestos orgánicos volátiles, COV, el monóxido de carbono, CO, los óxidos de Azufre, SOx, los óxidos de nitrógeno, NOx, el Ozono O3 y las partículas suspendidas, provocan enfermedades respiratorias y en circunstancias extremas llegan a provocar la muerte. (Londres 1952: del 4 al 9 de diciembre la ciudad se cubrió de una niebla densa, el “smog”. El desastre ambiental causó la muerte de miles de personas y la enfermedad de muchos más)87



Source: IPCC Climate Change 2007: "Mitigation, Summary for Policymakers" (2007) [see http://www.ipcc.ch/publications_and_data/ publications_ipcc_fourth_assessment_report_wg3_report_mitigation_of_climate_change.htm], p5 86

87 http://tejiendoelmundo.files.wordpress.com/2010/06/london-smog-



111

Las fuentes de contaminación se ubican principalmente en la combustión incompleta y en la oxidación de compuestos orgánicos azufrados y nitrogenados procedentes de vehículos, procesos productivos y consumo doméstico. La capa de Ozono y la contaminación En la estratósfera, a través de los siglos, se formó una capa de Ozono que se convirtió en un escudo que impide que gran parte de la radiación UV entre los 240 y 320 nm, altamente nociva para la vida, llegue a la superficie de la tierra. Paradójicamente, en tanto que a nivel del suelo, en la tropósfera el O3 resulta dañino para la salud, su ubicación en la estratósfera resulta benéfica. Hacia 1970 se observó en la Antártida que la capa estratosférica de Ozono, que se adelgaza hacia el ecuador y se engrosa hacia los polos, mostraba un hoyo creciente que para 1985 provocó la alarma. Como consecuencia se llegó en 1987 a la firma del Protocolo de Montreal, para reducir primero y eliminar después, (1995) la producción de Halocarburos, compuestos que, de acuerdo con el ciclo de Chapman88, resultaron los responsables de la disminución del O3 . Estos compuestos eran utilizados ampliamente como gases refrigerantes y propulsores en aerosoles.89





88

Conjunto cíclico de reacciones en la formación de ozono. Cfr www.atm.ch.cam.ac.uk/tour/part1.html Según el estudio de Q.-B.Lu, del Department of Physics and Astronomy, University of Waterloo, Waterloo, ON, N2L3G1, Canada: “Este estudio informa sobre información confiable durante el período de 1980-2007 cubriendo dos ciclos completos de 11 años de rayos cósmicos (RC), mostrando claramente la correlación entre los RC y la disminución del ozono, especialmente la pérdida de ozono polar (agujero) en la Antártida.”1 http://es.wikipedia.org/wiki/CFC OJO ver: https://uwaterloo.ca/search?q=Ozone+hole&spell=1&client=default_frontend&proxystylesheet=d 89



112



La contaminación del agua. “Por contaminación del agua se entiende cualquier modificación de su calidad tal que la hace inutilizable para los fines previstos y/o produce daños a los seres vivos que la consumen o viven en ella.”





Existen varias clases de contaminantes del agua: Los contaminantes que producen enfermedades: virus, bacterias, protozoarios, parásitos y otros. Los contaminantes que requieren oxígeno para su degradación, pueden abatir la concentración de O2 disuelto hasta un punto en que se dificulte la vida subacuática (peces, crustáceos, algas). Los contaminantes solubles, como ácidos, bases, sales y metales pesados que a ciertas concentraciones pueden causar la muerte de los seres vivos. 113

Los compuestos orgánicos como el petróleo y sus derivados, los plásticos y los plaguicidas.



Las principales fuentes de la contaminación del agua proceden de la actividad humana y se pueden ubicar en: el drenaje y las aguas usadas, los residuos industriales, la explotación del subsuelo: gas, petróleo, minería, en la condición de los mares y océanos como basureros, las fugas de almacenamientos subterráneos, los desechos radioactivos, el calentamiento global y en la contaminación ambiental (lluvia ácida)90





Las modificaciones inadvertidas del medio ambiente. O las consecuencias imprevistas del desarrollo.

La contaminación del agua es y ha sido otro de los grandes problemas de la humanidad. Ya desde la segunda mitad del siglo pasado, el auge en el uso de los detergentes sintéticos que sustituyeron al jabón, mostró sus efectos negativos en dos aspectos. La materia prima activa de estos productos era el dodecil-bencén-sulfonato de sodio de cadena ramificada, compuesto con propiedades bacteriostáticas y por lo tanto no biodegradable. Propiedad provocó su acumulación en las corrientes y lagos ocasionando severos daños a los organismos acuáticos. 90 Water pollution FAQ Frequently Asked Questions http://www.lenntech.com/water-pollution-faq.htm 114

El otro efecto negativo de los detergentes provino del empleo de compuestos de fósforo como aditivos para mejorar la acción detergente. Estos compuestos sobrefertilizaron las aguas, favorecieron el crecimiento desmesurado de las algas y otras plantas subacuáticas, a tal punto que agotaban el oxígeno disuelto en el agua, ocasionando la muerte de peces y otros organismos. Con la reformulación de los detergentes: dodecil-bencen-sulfonato de sodio con cadena lineal (biodegradable) y aditivos orgánicos, se redujeron notablemente los problemas mencionados. El Mal de Minamata. Otro de los grandes desastres por la contaminación del agua se produjo en la Bahía de Minamata, en Japón, cuyos pobladores fueron aquejados por una enfermedad extraña que además producía malformaciones congénitas. Después de varios estudios se descubrió que la “enfermedad” era el resultado del envenenamiento con mercurio. En la bahía desemboca un río y aguas arriba se ubicaba una empresa productora de fungicidas mercuriales. Una fracción de sus residuos era depositada en el río, bajo la suposición de que la densidad del mercurio lo llevaría hasta el fondo donde seguramente reaccionaría para fijarse. Sin embargo, los microorganismos procesaron el mercurio y fueron devorados por organismos mayores que alimentaron crustáceos, que los peces se comieron, hasta llegar a los seres humanos. A lo largo de la cadena alimenticia el mercurio se fue acumulando hasta envenenar a los habitantes de la bahía91.



91 Japan’s Experience in Public Health and Medical Systems , chap. 6, pp 156 y ss

115

La contaminación del suelo. La contaminación de los suelos es el resultado de la presencia de sustancias químicas u otro tipo de agentes provenientes de la actividad humana (xenobióticos, antropogénicos) que modifican la calidad natural de los suelos. Es ocasionada principalmente por residuos sólidos, solubles o no y por residuos o derrames de líquidos.



Las principales fuentes de la contaminación se dan por la aplicación exagerada de plaguicidas y fertilizantes, por los desechos animales de granjas y establos, por el manejo inadecuado de los desechos urbanos, sean estos sólidos (basura) o líquidos (drenajes) y fugas industriales. Cuando la contaminación se produce por líquidos o sólidos solubles ésta puede alcanzar los mantos acuíferos o las corrientes de agua, diseminando los contaminantes con la consiguiente complicación del problema. En el caso de los residuos sólidos, los grandes centros urbanos se han convertido en los mayores productores de basura. El agua embotellada, cuyo consumo se ha puesto de moda, se ha constituido en problema ambiental por la enorme cantidad de envases que son desechados cotidianamente y esto se hace extensivo a otros líquidos de consumo humano: refrescos, cerveza, leche. Todos son distribuidos a los consumidores en envases no retornables, sean estos de plástico, de aluminio o de cartulina impermeabilizada. Solo se emplean una vez y de inmediato se califican como “basura” y pasan a formar parte de la contaminación. La contaminación de suelo se incrementa por los derrames accidentales de líquidos o por falta de precaución en el desalojo de efluentes en procesos industriales, porque los líquidos derramados luego son “lavados” (percolados o lixiviados) y arrastrados por las lluvias, ampliando el área contaminada hasta los acuíferos. Esto complica el problema, pues la mayoría de las veces, como en el caso de Minamata, el daño y la extensión de la contaminación se advierten una vez que sus efectos nocivos sobre la población humana se han hecho visibles.

116

La contaminación del agua en West Virginia EUA. Un caso reciente de contaminación del suelo, por la fuga de un compuesto químico en un “Parque Industrial” que luego se tradujo, por filtración, en la contaminación de una corriente de agua. El día 9 de enero de 2014 cerca de Charleston, West Virginia, se produjo la fuga de un tanque de almacenamiento de 38,000 l de MHCM, que cayeron al suelo y fluyeron hasta el Río Elk, donde contaminaron la planta potabilizadora y el centro de distribución local que se encuentra rio abajo. Se advirtió a los cerca de 300,000 residentes se abstuvieran de usarla, salvo para el excusado.92







4-Metil ciclohexil metanol (MCHM)

Los derrames petroleros: “la Marea Negra”

En el caso de los derrames petroleros, cuyas consecuencias han sido desastrosas para la flora y la fauna, marinas y costeras, por la contaminación el agua, de las playas y

[2]

92 In 2008, an explosion and fire occurred at a Bayer Crop Science facility in Institute, killing two employees.

In 2010,toxic

gas was released at the DuPont facility in Belle. 2014 Elk River chemical spill.

http://www.washingtonpost.com/blogs/wonkblog/wp/2014/01/21/five-big-questions-about-the-massive-chemicalspill-in-west-virginia/

117

humedales ribereños se pueden mencionar dos: el naufragio del buque tanque Exxon Valdez y más recientemente la explosión de la plataforma de perforación submarina de la British Petroleum en el golfo de México. El desastre del Exxon Valdez. El buque encalló en Alaska el 24 de marzo de 1989 y derramó 41 millones de litros de petróleo crudo en la Sonda del príncipe William. Las consecuencias sobre el ambiente, marino y terrestre y la fauna y la flora aún se estudian. 93







El derrame de petróleo crudo en el Golfo de México: La Plataforma Horizon de BP Un artículo de la UNEP (United Nations for Environment Program) señala: “El 20 de Abril de 2010 un fuego masivo envolvió la plataforma “Deepwater Horizon” de perforación en aguas profundas, la cual explotó matando a 11 trabajadores de la plataforma e hiriendo a otros 7. Los medios han llamado a este evento el mayor, mundialmente, derrame accidental de petróleo mar adentro”. (Chediak 2010, New York Times 2010). A mediados de agosto cerca de 1086 km de la línea costera del golfo han sido afectados y aproximadamente 136 000 km2 de las aguas federales del Golfo de México (EUA) seguían cerradas a la pesca.94

93 Una parte de lo vertido fue recuperada, pero el petróleo del Exxon sigue ensuciando Alaska. Se le considera una de las peores catástrofes ecológicas.” www.elmundo.es/elmundo/2010/01/19/ciencia/1263917436.html 94 UNEP Global Environmental Alert Service (GEAS), August 2010, website: www.unep.org/geas

118



Nearshore Surface Oil Forecast Deepwater Horizon MC252 based on the National Weather Service (NWS) spot forecast from 30 June PM. https://na.unep.net/geas/getUNEPPageWithArticleIDScript.php?article_id=65



La Ingeniería Química contra la contaminación. Una de las tareas urgentes, que la IQ ha de emprender, es la lucha contra la contaminación en una estrategia científico tecnológica, que sin pérdida de tiempo. ataque en primer lugar los centros neurálgicos de la contaminación ambiental. a través del diseño de productos-procesos amigables, no lesivos para el medio ambiente. Otro aspecto a considerar es proceder a una evaluación de los nuevos proyectos, procesos y productos, bajo la óptica del Principio Precautorio. Además de los dos temas anteriores habrá que sumar los principios de la “Producción más Limpia”, tanto para el caso de las nuevas plantas como para las plantas en operación. Este último punto es de cierta manera la forma menos eficiente de enfrentar la contaminación, pues en lo hechos representa una actitud que se ha dado en llamar: “la solución al final del tubo” y que se puede ilustrar con el tratamiento de los efluentes de un proceso, lo que significa que los contaminantes ya fueron producidos. Frente a esto se encuentra la búsqueda de la “solución al inicio del tubo” lo que plantea el rediseño de los procesos para evitar la producción de contaminantes. Es mejor no producir desechos que invertir esfuerzos en su tratamiento y un diseño ambientalmente amigable habrá de tomar en cuenta los principios de la Química y la Ingeniería Química Verdes.



119

XIV.- El principio Precautorio El Principio precautorio, como tal fue enunciado en la Declaración de Río en 1992 (a la que se hará referencia más adelante), y se puede considerar como ”la obligación de suspender o cancelar actividades que puedan significar una amenaza al medio ambiente pese a que no existan pruebas científicas suficientes que vinculen tales actividades con el deterioro de aquél”. “Con el fin de proteger el medio ambiente, los Estados deben aplicar ampliamente el criterio de precaución conforme a sus capacidades. Cuando haya peligro de daño grave o irreversible, la falta de certeza científica absoluta no deberá utilizarse como razón para postergar la adopción de medidas eficaces en función de los costos para impedir la degradación del medio ambiente”. Declaración de Río sobre Medio Ambiente y Desarrollo, principio 1595. Dicho principio también se encuentra enunciado en el inciso 3 del artículo 3 del Convenio Marco de Naciones Unidas sobre Cambio Climático y fue incorporado en el artículo 130 R-2 en el Tratado de Maastricht de la Unión Europea. Posteriormente fue reformulado en una reunión de “The Science and Environmental Health Network” realizada en la Fundación Johnson de Wingspread: "Cuando una actividad representa una amenaza para la salud humana o para el medioambiente, deben tomarse medidas precautorias aún cuando algunas relaciones de causa y efecto no hayan sido totalmente determinadas de manera científica." Declaración de Wingspread sobre el principio precautorio, enero de 199896. Las bases del principio precautorio: 1- la amenaza de daño, 2- la incertidumbre científica, y 3- la acción precautoria. Aplicación del principio precautorio: El primer paso en la aplicación del PP parte de la presunción de que un producto, proceso u otra acción humana constituye o puede constituir una amenaza potencial a la salud humana o al medio ambiente y consiste en la caracterización de la posible amenaza: 95 El PP se retomó en el inciso 3 del artículo 3 del Convenio Marco de Naciones Unidas sobre Cambio Climático e

incorporado en el artículo 130 R-2 del Tratado de Maastricht de la Unión Europea.



96

Wingspread, Racine, Wisconsin The 32 conference participants included treaty negotiators, activists, scholars and scientists from the United States, Canada and Europe. The Science and Environmental Health Network conference was called to define and discuss implementing the precautionary principle, which has been used as the basis for a growing number of international agreements. Rambién: EL PRINCIPIO PRECAUTORIO EN ACCION Red de Ciencia y Salud Ambiental (Science and Environmental Health Network, SEHN) por Joel Tickner, Carolyn Raffensperger and Nancy Myers. Junio 1999.

120

¿Cuales podrían ser los daños y su vinculación causa-efecto con la “amenaza potencial”? ¿Cual podría ser la escala de la posible afectación? Local, regional, nacional, global Cuales serían los alcances de su impacto: a) sobre la salud humana, b) sobre los ecosistemas, c) sobre ambos. ¿Como sería su impacto en la contaminación de las aguas, el suelo y el aire? Un segundo paso consiste en realizar una investigación exhaustiva de lo que se sabe y de lo que sería necesario conocer acerca de la amenaza potencial. El tercer paso se ubica en la exploración de las posibles alternativas al producto, proceso o acción humana, que puedan ofrecer mayor certidumbre o seguridad. En cuarto lugar evaluar las alternativas y a partir de los conocimientos recabados redefinir el problema y determinar el curso a seguir. El quinto paso será supervisar y analizar los impactos más evidentes en lo inmediato y estar pendiente de los posibles efectos en un plazo mayor. La incertidumbre. La incertidumbre sobre lo posibles impactos y sus alcances proviene fundamentalmente de la ignorancia, por un conocimiento científico escaso, insuficiente o nulo sobre el problema en cuestión. En una situación así se podría optar por llevar a cabo un análisis de riesgo y en función de este desechar el proyecto o establecer las medidas adecuadas que permitan la gestión del riesgo dentro de ciertos márgenes de seguridad. Evaluación del riesgo: Por “riesgo” se entiende la probabilidad de que una sustancia o una situación bajo condiciones específicas pueda producir daño. El riesgo es la combinación de dos factores: la probabilidad de que un evento adverso pueda ocurrir y las consecuencias del evento adverso en cuestión97 Para evaluar la probabilidad de efectos adversos por un evento dado, y poder tomar las decisiones pertinentes, se lleva a cabo un método analítico sistemático que se conoce como Análisis o Evaluación del riesgo. El método parte de la recolección de datos ambientales, o estos son generados por algún modelo, sobre la probabilidad de daños ambientales o a la salud humana que el evento en cuestión pueda producir. Estos datos son incorporados a otros modelos que simulan la actividad humana y las consecuencias de la exposición, lo que permite extraer conclusiones en relación con la importancia y la magnitud del daño probable y sus consecuencias. El Análisis de Riesgo resulta muy útil para la toma de decisiones con efectos ambientales. Generalmente se incorpora a las consecuencias económicas, sociales, tecnológicas y políticas de una acción potencial o en funciones. Un ejemplo podría ser la producción de un nuevo compuesto químico y la evaluación del riesgo, a partir de la estructura y propiedades moleculares, del mismo y de sus precursores en el proceso productivo, en su uso, sus residuos y su destino final, sobre el medio ambiente y sobre la salud humana. 97 The Presidential/Congressional Commission on Risk Assessment & Risk Management, Vol. 1, 1997 121

Precaución o evaluación del riesgo… El principio precautorio ha sido muy debatido, porque se le mira como un obstáculo para la innovación y el desarrollo de nuevas tecnologías. Evidentemente, propone una nueva manera de mirar el desarrollo de procesos, en la que la seguridad se convierte en el aspecto fundamental del diseño. Este debate no es un proceso terminado, por lo que resulta de primera importancia ponderar las diferencias en la evaluación de un proyecto, a partir del Principio Precautorio o asentado en el análisis de riesgo. El análisis de riesgo busca evaluar la magnitud tolerable del posible daño y es el resultado de un análisis minucioso de los peligros y daños probables, que un proceso o tecnología pueden ocasionar, tarea que puede tomar mucho tiempo. El análisis de riesgo evalúa las amenazas conocidas, cuantificables y, aunque muchas veces deja de lado las incertidumbres, puede ser una buena herramienta para seleccionar entre alternativas Por su parte, el principio precautorio busca establecer, en primer lugar la “necesidad” de la actividad a realizar (o que se realiza) y de sus alternativas posibles, a través del establecimiento de objetivos y rutas, para evaluar cuanto daño puede ser evitado. Propone un “reductor de velocidad” en las innovaciones tecnológicas para prevenir el daño y se enfoca principalmente a la incertidumbre y al daño potencial a un plazo mayor.98 Principio Precautorio, en función del conocimiento analizado y no en función de temores no fundamentados. El principio precautorio se aplicará sobre las siguientes bases: Cuando en un proyecto cualquiera se estima que su realización pudiera implicar una amenaza para el medio ambiente… A partir de un análisis de riesgos se determinarán las medidas adecuadas para el control y aun cuando exista una insuficiencia de los conocimientos científicos en relación con los efectos se aplicará la acción precautoria.

XV.- La Producción más Limpia

La Producción más limpia fue una de las primeras medidas tendientes a paliar los efectos de la contaminación que ya la agenda 21 surgida de la Cumbre de Río de 1992 había puesto en evidencia. La producción más limpia es en cierta medida la aplicación de la prevención y el control de la contaminación ambiental aplicada a la industria. En ambos casos se pone el énfasis en la reducción o eliminación de los contaminantes, desechos y emisiones en sus fuentes, más que en el control o su tratamiento “al final del tubo” una vez que han sido generados. Sin embargo, “La producción más limpia no debe considerarse como un estado absoluto 98 Smith, INT J OCCUP ENVIRON HEALTH, VOL 6/NO 3, OCT/DEC 2000 Introduction • 265 www.sehn.org/members.html

122

sino más bien como un proceso que evoluciona continuamente con la introducción de tecnologías mejoradas e ideas innovadoras”99. El Consejo Mundial de Negocios para el Desarrollo Sustentable, define Producción más Limpia de la manera siguiente “La Producción más Limpia es la aplicación continua de una estrategia ambiental preventiva e integral a los procesos, productos y servicios para incrementar la ecoeficiencia y reducir el riesgo para los seres humanos y el medio ambiente” Así pues, se trata de una estrategia para la transformación permanente e integral de los procesos, los productos y los servicios de tal manera que se minimice o se evite la producción de desechos, se incremente la eficiencia, tanto en la producción como en el consumo de energía, a través de la modificación o la sustitución de las materias primas, el rediseño de operaciones y procesos con criterios ambientales. La producción más limpia lleva a una mejor relación de la producción con el ambiente y a la reducción de costos. Acciones para una producción más limpia: Un buen mantenimiento: Implica tomar medidas tanto en la gestión como en la operación para prevenir fugas, derrames y una revisión rigurosa de las instrucciones de operación. La limpieza en las áreas de trabajo favorece la seguridad. Sustitución de la alimentación: por materiales menos tóxicos, o los no renovables por materiales renovables y en el caso de otros seleccionar los que ofrezcan mayor tiempo de vida útil Prevenir la producción de desechos: siempre es preferible no producir o minimizar desechos que procesarlos, como una solución al final del tubo. Mejor control de los procesos: Modificar los procedimientos de operación. Adecuar las instrucciones de manejo de los equipos y llevar una bitácora para registrar la historia de los procesos y a partir de la experiencia optimizar los proceso y minimizar desechos y emisiones. Cambio tecnológico: Realizar cambios en la tecnología, en la secuencia del proceso, en la ruta de síntesis. Rediseñar el equipo, con criterios ambientales, para mejorar la eficiencia de las operaciones y procesos. Recircular y reutilizar los materiales en el mismo proceso o en la misma planta. Modificar el producto para minimizar los impactos ambientales durante su producción, su uso y su desecho. Mejorar el uso eficiente de la energía y preferir fuentes renovables para disminuir el impacto ambiental. Referencias: http://www.un.org/esa/sustdev/sdissues/technology/cleanerproduction.pdf

INTRODUCTION TO CLEANER PRODUCTION (CP) CONCEPTS AND PRACTICE Prepared by the Institute of Environmental Engineering (APINI) Kaunas University of Technology, Lithuania. Sponsored by UNEP, Division of Technology, Industry, and Economics

http://www.centric.at/services/cleaner-production/cleaner-production-activities-andtechniques 99Centric Austria International

123

CENTRIC INTERNATIONAL

AUSTRIA

Técnica de reducción en las Descripción entradas (mp, alimentación) Mejoras en la eficiencia del Un método de “hacer más proceso con menos” mediante el diseño de nuevos sistemas o rediseño de los existentes. El medio más efectivo para conservar materiales y recursos. Sustitución de material Remplazar compuestos químicos peligrosos por alternativas menos tóxicas de igual comportamiento Control de inventarios Reducir las pérdidas debidas a la caducidad de producto por exceso de almacenaje.

Ejemplos Operaciones de pintura con pistolas de aire de gran volumen y baja presión (HVLP). Sistemas de distribución centralizada de fluidos. Restrictores de flujo de agua. Luminarias ahorradoras de energía.

Usar pinturas de base acuosa en lugar de la basadas en solventes. Remplazar el desengrasado con solventes por sistemas acuosos de limpieza Restricción del acceso a las áreas de suministro y mantenimiento preciso del registro de inventarios para prevenir excesos. Mantenimiento preventivo Incluye cualquier actividad Inspección rutinaria de equipo y que pueda prevenir mal contenedores de almacenaje. Resolver funcionamiento del equipo y inmediatamente los problemas. Seguir fugas al ambiente. procedimientos de operación establecidos Mejoramiento de la limpieza Mantener limpias las áreas de Mantener libres los pasillos, limpiar trabajo conserva los inmediatamente los derrames y los materiales y recursos, absorbentes. Mantener en buen orden los previene las pérdidas de estantes de almacén producto, los derrames y las fugas. Recirculación intra-proceso La recirculación intra- Enjuague a contracorriente en procesos proceso es considerada como de galvanizado. Recirculación del agua. una reducción de la Sistemas de enfriamiento de varios alimentación si los materiales pasos. no son removidos del proceso. (pej: no se generan desechos) o si los materiales reingresan en el proceso.







124

XVI.- Análisis o evaluación del Ciclo de Vida: Una de las formas en las que se puede apreciar la intensidad del impacto ambiental que produce un bien, producto o mercancía, por el solo hecho de existir, consiste en la Análisis de su Ciclo de vida. (ACV)

Tomado de internet. A través del ACV100, Ánalisis del Ciclo de Vida, se lleva a cabo la evaluación del impacto ambiental del producto, mercancía o servicio y de los recursos utilizados a lo largo de toda la vida del producto: desde la extracción de las materias primas, su proceso de producción, su vida útil, hasta que, ya como residuo, como desecho, sea reintegrado a la naturaleza bien por la acción del tiempo y los agentes naturales, o acelerando esta reintegración mediante un tratamiento adecuado. La evaluación del ciclo de vida es un procedimiento bien establecido e internacionalmente aceptado que se lleva a cabo a través de cuatro etapas claramente definidas.101 Definición de Objetivo y alcance, Inventario para el Análisis del ciclo de vida, Evaluación del impacto e Interpretación de los resultados. En la fase de Análisis del inventario del estudio del Ciclo de Vida se realiza una lista completa de las “Entradas” (recursos) y las “Salidas” (emisiones) usadas o producidas por el producto en cuestión. Se toman en cuenta los insumos y la energía necesaria para cada una de las etapas: desde la obtención de las materias primas, los trabajos de su

100 En inglés LCA Life Cycle Assesment

101 Finnveden Göran, Lfe Cycle Assesment, The Enciclopedie of Earth



125

producción, su distribución y transporte, su consumo hasta la energía e insumos que implique el tratamiento de residuos y desechos. En la fase Evaluación del impacto, el objetivo es entender y valorar la magnitud y el significado de los impactos ambientales potenciales del sistema en estudio. En la fase de interpretación, los resultados de las fases previas son evaluados con objeto de extraer conclusiones y recomendaciones.





En la actualidad las actividades relacionadas con la realización del Análisis del ciclo de vida se encuentran normalizadas y aunque estas normas no tienen carácter obligatorio su seguimiento permite establecer comparaciones entre evaluaciones realizadas en distintos tiempos y lugares y con esto aumentar la certidumbre o corregir posibles errores. Las normas ISO aplicables al Análisis del Ciclo de vida son las siguientes: Norma ISO 14040: presenta los principios generales y requerimientos metodológicos del ACV de productos y servicios. Norma ISO 14041: guía para determinar los objetivos y alcances de un estudio de ACV y para realizar el análisis de inventario. Norma ISO 14042: guía para llevar a cabo la fase de evaluación de impacto ambiental de un estudio de ACV. Norma ISO 14043: guía para la interpretación de los resultados de un estudio de ACV. Norma ISO 14048: entrega información acerca del formato de los datos que sirven de base para la evaluación del ciclo de vida. Norma ISO 14049: posee ejemplos que ilustran la aplicación de la guía ISO 14041. Las fronteras del objetivo a evaluar.

126

Como en todo tipo de análisis de sistemas, la cuestión de las fronteras del sistema es esencial para asegurar resultados precisos y confiables y llevar a buen término la fase de interpretación y recomendaciones. Hay tres tipos de fronteras del sistema importantes para ser considerados en el ACV, que incluyen: fronteras entre el ambiente y el sistema técnico, como puede ser el caso de las industrias extractivas, en las que el producto se obtiene “dentro” del propio medio ambiente. Fronteras entre procesos significativos para la evaluación del impacto y procesos no significativos para el estudio y finalmente las fronteras entre el sistema técnico en estudio y otros sistemas técnicos. La determinación correcta de las fronteras permitirá establecer con claridad lo que entra y lo que sale del sistema a través de ellas para la realización confiable del balance. Uno de los aspectos metodológicos más discutidos para el establecimiento de las fronteras y la evaluación del ciclo de vida se centra en la selección correcta del producto o proceso a evaluar. Por ejemplo: en una planta para la incineración de basura (acción no recomendable), además del tratamiento de los desechos, se obtienen dos productos: energía y bióxido de carbono (CO2). Si el Análisis del Ciclo de Vida se realiza para uno de los tres, todas las entradas, salidas, emisiones y efectos sobre el medio ambiente deben ser atribuidos al producto o proceso correcto. “El objetivo del ACV es comparar el escenario total de los daños, ambientales y sociales adjudicables a productos y servicios, de tal manera que sea posible escoger el menos dañino.” 102 Por lo tanto, “el término “ciclo de vida” implica la noción de una evaluación holística103 imparcial, que requiere del seguimiento de los efectos que sobre el medio ambiente se producen en cada una de las etapas vinculadas a un producto en cuestión, desde la obtención de las materias primas, la manufactura, la distribución, el uso y el manejo de los residuos, lo que incluye todas las etapas de transporte necesarias o causadas por la existencia del producto. La suma de todos estas etapas o fases es lo que constituye el Ciclo de Vida del producto. Desde el punto de vista de Gutiérrez Martín104, los análisis del ciclo de vida (ACV) se han constituido en una herramienta fundamental para comprender los impactos sobre el medio ambiente de sistemas industriales extendidos y proponer mejoras. 102 Finnveden op.cit.

103 Análisis que implica la interrelación de las partes entre si y su explicación por la totalidad,

104 Fernando Gutiérrez Martín, “Medio Ambiente y Tecnología Sustentable” Producción limpia, ecología industrial y

desarrollo sostenible. UPM



127

En el ACV, la primera fase de estudio, el inventario, se realiza por medio de “ecobalances” que se sustentan en la ecuación general de balance: Entradas - Salidas = Acumulación Del resultado del inventario , se obtendrán el tipo y la magnitud de los consumos y los productos, para cada uno de los cuales se harán las evaluaciones de impacto ambiental. En el diagrama siguiente se muestra gráficamente lo que entra y lo que sale del sistema a lo largo de las etapas por las que discurre el ciclo de vida del producto-sistema.

diagrama tomado de internet



Un aspecto importante a tomar en cuenta en lo que respecta a los impactos ambientales atribuidos a cada etapa del producto es el nivel en que estos se producen, ya que la evaluación cuantitativa depende en gran medida de la amplitud del impacto.

En el cuadro anterior se muestra un examen cualitativo de los impactos, en una matriz donde aparecen los alcances del impacto – urbano, regional, global- y el ámbito de incidencia de dichos impactos.-aire, agua y suelo. Fuente: Gutiérrez Marín op.cit.

128

Ciclo de vida, Evaluación de Impacto105 (EICV) La evaluación cualitativa y cuantitativa del impacto ambiental es la fase más compleja de las cuatro que componen al ACV, ya que el punto de partida es la selección de los espacios ambientales que pueden ser afectados por el producto o proceso objeto del análisis. En esta fase los resultados del inventario son procesados e interpretados en términos de sus impactos ambientales y preferencias sociales. Con este objetivo se define una serie de categorías de impacto y modelos para relacionar la intervención ambiental con indicadores adecuados seleccionados para cada categoría. Entre las categorías destacan la toxicidad para los humanos y los ecosistemas, el calentamiento global, la acidificación de los océanos, la eutroficación de las aguas, destrucción del medio por las extracciones, etc. En el paso siguiente, la caracterización, se realizan los cálculos, que pueden o no ser normalizados. Finalmente los resultados por categoría son agrupados y “ponderados” para incluir las preferencias sociales en cada categoría106. La ponderación es un paso optativo en el cual se asignan valores numéricos, según su importancia, a los indicadores de cada categoría de impacto. El impacto ambiental se considera generalmente a partir de la incidencia que los efectos que un producto o proceso puedan tener en el cambio climático, la lluvia ácida, la toxicidad en humanos y otros sistemas de la biosfera así como los daños que ocasionen los recursos naturales . La magnitud del impacto cuantitativo de un producto o proceso será el resultado de la suma de las contribuciones de los impactos particulares: la contaminación por emisiones –aire, agua, suelo- la destrucción del medio por las extracciones, toxicidad de producto y residuos etc. expresados en una misma unidad. El seguimiento de las normas ISO y empleo de las mismas unidades al evaluar los impactos ambientales, hace posible la comparación de productos y procesos, de tal manera que sobre esa base se puede seleccionar, entre productos y procesos semejantes, los que resulten menos dañinos para el medio ambiente. El empleo de los “ecopuntos” para la evaluación cuantitativa es un método aceptable. Estos se estiman para cada una de las emisiones y para cada tipo de impacto de acuerdo con la ecuación: Ecopuntos = CS x FC x FN x FE

105 Norma ISO 14042: guía para llevar a cabo la fase de evaluación de impacto ambiental de un estudio de ACV

106 Jeroen B. Guinée (final editor) et al “Handbook on Life Cycle Assessment” Operational Guide to the ISO Standards KLUWER ACADEMIC PUBLISHERS NEW YORK, BOSTON, DORDRECHT, LONDON, MOSCOW ©2004



129

Donde: CS es la cantidad de sustancia emitida FC es un factor de caracterización FN es un factor de normalización FE es un factor de evaluación (ponderación) La evaluación del impacto ambiental, en tanto que fase del ACV, se puede llevar a cabo con mayor facilidad por medio de programas ad-hoc (software), tanto oficiales como comerciales, de los que son un ejemplo los siguientes: TEAM, Ecobilan, Francia su base de datos incluye más de 500 módulos de diferentes sectores GABI, Universidad de Stuttgart, Alemania, además de los programas clásicos para ACV, realiza un análisis económico. 107



Fuente:FUNIBER http://www.academia.edu/6812982/Gestion_Ambiental

El futuro del ACV. 107 Hannele Lehtinen et al, “A Review of LCA Methods and Tools and their Suitability for SMEs” 2011; Europe INNOVA http://www.biochem-project.eu/download/toolbox/sustainability/01/120321%20BIOCHEM%20LCA_review.pdf

130

Para la década de del 2010 al 2020, Guinee et al. proponen la transformación del marco de referencia, del Análisis del ciclo de vida (ACV), a un Análisis de Sustentabilidad del ciclo de vida (ASCV).108, 109 Se plantea la ampliación del alcance de la evaluación, con la intención de enfocar no solamente los aspectos del impacto ambiental en general, sino integrar además las tres dimensiones de la sustentabilidad: Población, Planeta y Prosperidad (people, planet, prosperity). También se propone la extensión del campo de acción del análisis del ciclo de vida para ampliar las evaluaciones del impacto, predominantemente dirigidas a las consecuencias a nivel de producto, para llevarlas a la evaluación de cuestiones a nivel del sector e ir incluso hasta los niveles amplios de la economía. Además de lo anterior, la propuesta sugiere profundizar el análisis para examinar no solamente las relaciones tecnológicas, sino también otras interacciones, entre las que se señalan las físicas –límites de los recursos asequibles y la tierra- y las relaciones económicas y sociales (comportamiento de los usuarios). Una tarea que queda pendiente es la creación de modelos adecuados para la realización de los ASCV, entre otras cuestiones por que como se ha visto, en la década pasada, los trabajos académicos sobre la producción agrícola, el cambio climático, los impactos del uso del terreno y otras cuestiones, resulta muy difícil establecer una separación clara entre la conducta y la tecnología y entre la tecnosfera y la ecosfera, lo que ha dificultado el establecimiento de fronteras claras y con ello la generación de modelos adecuados. Si bien las dificultades para llevar a cabo los Análisis de Sustentabilidad de Ciclo de Vida (ASCV), son todavía muy grandes, la realización de este tipo de evaluaciones con integración de los indicadores de desempeño, de las tres dimensiones de la Sustentabilidad o por lo menos con dos de ellos, parecen ofrecer una mejor perspectiva.

108 En inglés LCSA “Life Cycle Sustainability Assesment”

109 Jeroen B. Guinee et al. Life Cycle Assessment: Past, Present, and Future, Environ. Sci. Technol. 2011, 45, 90–96

131

Análisis de sustentabilidad de ciclo de vida ASCV Objetivo y definición del alcance Modelamiento Nivel Medioambiental Economía Amplia Nivel meso (sector) Orientado producto



a Proceso-LCA/ EIO-LCA /LCAhíbrido

Económico

Social

Multiregión, IOA modelos de equilibrio general IOA Modelos de equilibrio parcial LCC SLCA

Interpretación (EIO Environmental Input-Output Analisys, LCC lifecicle costing, SLCA Social LCA.) Fuente: Guinee et al, op. it.

En el esquema se propone a un avance hacia arriba, para ampliación del alcance y de izquierda a derecha para profundizar en los impactos sobre las relaciones económicas y sociales.



132

XVII.- Huella ecológica, cuestiones básicas. Los datos ocultos bajo el palabrerío revelan que el veinte por ciento de la humanidad comete el 80 por ciento de las agresiones contra el planeta. Eduardo Galeano ¿Qué tan rápido consumimos recursos y generamos basura comparado con lo que tarda la naturaleza en “digerir” nuestra basura y generar nuevos recursos? La naturaleza provee las necesidades de la humanidad, pero cómo saber que tanto estamos usando y cuanto se tiene para ser usado? El concepto de “huella ecológica” surgió de los trabajos llevados a cabo por William Rees y Mathis Wackernagel como una primera medida mundial de la demanda humana sobre la naturaleza. Se trata de un sistema de contabilidad que evalúa desde el lado de la demanda (huella ecológica) que tantas hectáreas de tierra y de agua utiliza la población humana para proveerse de todo lo que toma de la naturaleza, particularmente de la biosfera. Esto incluye las áreas para la producción de los recursos que la humanidad consume, más el espacio necesario, las construcciones, las vías de comunicación y los ecosistemas para absorber las emisiones de desecho, como el bióxido de carbono. Estos cálculos se realizan anualmente ya que tanto la productividad como la eficiencia tecnológica se modifican año con año. El sistema contable también evalúa los suministros de la naturaleza y estima el área biológicamente productiva (biósfera) que es asequible para proveer esos servicios (biocapacidad). Este sistema de contabilidad permite comparar la demanda humana contra la capacidad de suministro de la naturaleza (biocapacidad). La capacidad de carga es un concepto que permite evaluar la biocapacidad de una región para proveer a sus habitantes y disponer de sus residuos. Se expresa en hectáreas/habitante/año. Como se sabe, la capacidad de carga del planeta es limitada. En 2001 tenía 11,000x106 Ha útiles para la producción ecológica compuestas por 1500x106 Ha de cultivo, 3,500 x106 Ha para pastoreo, 3.900x106 Ha de bosque y 200x106 Ha de suelo urbanizado. El total incluye 2300 x 106 hectáreas de agua utilizables. La sostenibilidad de una región o un país se mide por un balance, comparando la huella ecológica de la región o país con su capacidad de carga: Sí huella ecológica < capacidad de carga el balance es positivo y la región es autosuficiente. Sí huella ecológica > capacidad de carga el balance es negativo. Hay un déficit, que la región subsana tomando recursos de otras regiones o agotando los recursos de las generaciones futuras. LA HUELLA MUDIAL La huella ecológica mundial para 2008 fue del orden de 2.7 Ha por habitante del planeta, en tanto que la humanidad usaba un equivalente mayor a 1.5 planetas para proveerse de 133

los recursos que utiliza y absorber nuestros desechos. Esto significa que la Tierra, para 2008, requirió más de un año y medio para regenerar lo que se usó en ese año.110 La ONU, en un escenario moderado, sugiere que de seguir la tendencia del consumo, para 2030 se requerirá la superficie de dos planetas y por supuesto sólo hay uno. La transformación de los recursos en basura es más rápida que la reconversión de la basura en recursos, lo cual nos coloca en una sobreexplotación de los recursos de los que dependen la biodiversidad y la vida humana.

El resultado ha sido el colapso de las pesquerías, la reducción de la cubierta forestal, la disminución de los sistemas de agua dulce y el crecimiento de las emisiones de CO2, lo que genera problemas como el cambio climático. Estos son algunos de los efectos más notables de la sobreexplotación de la naturaleza. Esta sobreexplotación tiene un impacto desproporcionado sobre los más pobres, quienes no pueden comprar una solución a su problema para obtener los recursos de cualquier otro lado. ¿La Tierra provee todo lo que necesitamos para vivir y evolucionar. Entonces… que hacer para vivir dentro de los límites de nuestro planeta? Tanto los individuos como las instituciones a lo largo y ancho del mundo deben reconocer los límites ecológicos y usarlos como como soporte de nuestras acciones y decisiones y utilizar el ingenio humano para encontrar nuevas formas de vida dentro de las capacidades de la Tierra. Esto significa inversión en tecnología e infraestructura tal que nos sea posible operar en un mundo con recursos restringidos. El uso de herramientas como la huella ecológica para administrar nuestros activos ecológicos es esencial para la sobrevivencia y el éxito de la humanidad. Si sabemos cuanta naturaleza 110 WWF Informe Planeta Vivo 2012 página 22

134

poseemos, que tanta usamos y quienes usan que, es el primer paso de un camino que nos permitirá racionalizar nuestro “progreso”, en tanto que trabajamos hacia el objetivo vivir en un planeta, uno, sustentable.111

Tendencias de la Huella Ecológica y la biocapacidad por persona entre 1961 y 2008 El descenso de la biodiversidad por persona se debe principalmente al aumento de la población. Cada vez hay más personas que tienen que compartir los recursos de la Tierra. El aumento de la productividad de la Tierra no es suficiente para compensar las demandas de esta población creciente. 112 LA HUELLA ECOLÓGICA DE LOS PAISES113 Argentina

111

http://www.footprintnetwork.org/en/index.php/gfn/page/footprint_basics_overview/

112 WWF

Informe Planeta Vivo 2012 página 40

113 http://www.footprintnetwork.org/en/index.php/GFN/



135

Francia

La gráfica registra la capacidad de suministro, biocapacidad y la demanda, huella ecológica por persona en Francia desde 1961. La biocapacidad varía cada año con la gestión del ecosistema, las prácticas agrícolas ( fertilización, irrigación, etc.), degradación del ecosistema, el clima y el tamaño de la población. La Huella varía con el consumo y la efciencia productiva.

México

United States of America

136

Bolivia

Red de la Huella Global, 2011. Como se puede ver por las gráficas, la diferencia entre la producción de la tierra y el consumo de la humanidad incrementa año con año el saldo negativo y vuelve urgente el desarrollo científico-tecnológico para encontrar respuestas viables para la preservación y el bienestar de toda la humanidad. Otra cuestión que salta a la vista es la enorme disparidad en el consumo- Por ejemplo los EUA requieren entre 7 y 9 Ha globales /persona/año, mientras que el consumo de Bolivia se satisface con menos de 3 Ha globales/habitante/año, lo que muestra claramente la necesidad de racionalizar el consumo.

137

138

XVIII.- El desarrollo sustentable. Como consecuencia de la publicación, en el último cuarto del siglo pasado, de los límites del crecimiento y luego del Informe Brundlandt, se produjo una verdadera cascada de literatura sobre el desarrollo sustentable, la sostenibilidad, sustentabilidad y sus diversas interpretaciones, con la intención de precisar las propuestas que surgieron de dicho informe.114 En el informe de la Comisión Brundlandt se definió el “desarrollo sustentable” como: “la capacidad para generar un desarrollo que satisfaga las necesidades del presente sin comprometer la capacidad de las generaciones futuras para satisfacer sus propias necesidades” Posteriormente se reconocería que los seres humanos no son ajenos a la naturaleza, sino que constituyen una parte de ella integrados en la biósfera por lo que el concepto de desarrollo sustentable debe implicar límites – no límites absolutos sino limitaciones impuestas por el estado actual de la tecnología y la organización social sobre los recursos naturales y por la capacidad de la biosfera para absorber los efectos de las actividades humanas” Así el medio ambiente quedó definido como el espacio donde nosotros vivimos y desarrollo como lo que hacemos todos para mejorar dentro de nuestro habitat. Cabe destacar que en términos generales la gran mayoría de las propuestas pone más el acento en el “desarrollo” que en lo “sustentable”. Nuestro destino común: Una transición hacia la sustentabilidad… La búsqueda de una mayor precisión en los conceptos Según Kates y colaboradores en ¿What is Sustainable Development…? este concepto se ha consagrado en el encabezado de la revista Environmental y en 8,720,000 páginas de la red (la web), de tal suerte que pareciera que la respuesta a la pregunta podría ser facilmente respondida. No obstante, la definición más usada es la del informe Brundlandt, la cual es considerada “creativamemte ambigua”, porque ha dado lugar a inumerables precisiones. Entre otras cabe mencionar la interpretación de The Board on Sustainable Development de la National Academy of Sciences, de EUA. Cuando esta institución examinó ”que es lo sustentable” identificó tres categorías principales: naturaleza, sistemas de soporte de la vida y la comunidad, así como categorías intermedias para cada una como: tierra, medio ambiente y culturas. En cuanto a lo que se debería desarrollar propuso tres temas: sociedad.

población, economía y

114 World Commission on Environment and Development (WCED). Our common future. Oxford: Oxford University Press, 1987 p.43.Citado en: Report of the Scientific and Technological Community to the World Summit on Sustainable Development (WSSD) No. 1, 20 pp. 2002 Prepared by the International Council for Science (ICSU)and the World Fe d e ration of Engineering Org an i zations (WFEO) as organizing partners of the Scientific and Technological Community in collaboration with the International AcademyPanel (IAP), the International Social Science Council (ISSC),and the Third World Academy of Science (TWAS).

139

En principio la literatura se enfocó principalmente al desarrollo económico y luego se desplazó hacia el desarrollo humano con énfasis en valores y objetivos: incremento de la expectativa de vida, educación, equidad y oportunidades.115 Por su parte la Reunión Cumbre para el Desarrollo Sustentable de Rio en 1992, propuso toda una estrategia, condensada en la agenda 21. Posteriormente otra Reunión Cumbre para el Desarrollo Sustentable en de 2002 propuso, en la Declaración de Johannesburgo, “una responsabilidad colectiva parar avanzar y fortalecer los pilares interdependientes y mutuamente reforzados del desarrollo sostenible –desarrollo económico, desarrollo social y protección ambiental _ a nivel local, nacional, regional y global.” Aunadas lo anterior, se han propuesto variantes del desarrollo social, cada una de las cuales busca compensar por los elementos que faltan en el estrecho enfoque del desarrollo económico: desarrollo humano, bienestar humano y un enfoque en los temas: justicia social, equidad y disminución de la pobreza. Así el desarrollo sustentable ha evolucionado en una serie de principios medulares y valores guías, basados en la definición de la Comisión Brundlandt: satisfacer las necesidades, ahora y en el futuro, para el desarrollo humano, económico y social, dentro de los límites de los sistemas que soportan la vida en el planeta. Es importante señalar que estos principios básicos no han sido ni fijos ni inmutables, sino el producto evolutivo de un diálogo global, ahora ya con varias décadas, acerca de lo que sustentabilidad debería significar. Desde el punto de vista temporal, el desarrollo sustentable se ha definido por las metas a alcanzar en términos de tiempo: Para la Declaración del Milenio de la ONU116 los objetivos son a corto plazo (2015) mientras que para la Transición a la Sostenibilidad, del Board para el Desarrollo Sustentable,, el lapso es de dos generaciones (2050), en tanto que, los objetivos de la Gran Transición, del Grupo Escenario Global, son para el largo plazo, más allá de 2050. Por su parte la “Huella ecológica” señala que una huella ecológica mayor que “una tierra” es insostenible en el largo plazo. Para el Board, hacia el 2050, con una población global del orden de los 10,500 millones de habitantes, “la transición sustentable mínima deberá ser aquella que provea de energía, materiales e información para la alimentación, salud, habitación, educación, y empleo para la gente de ese momento y qué, al mismo tiempo, logre la reducción del hambre y la pobreza junto con la preservación de los sistemas básicos que soportan la vida en el planeta” 115 Board on Sustainable Development of the U.S. National Academy of Sciences, en Robert W. Kates, Thomas M. Parris, and Anthony A. Leiserowitz Environment: Science and Policy for Sustainable Development, Volume 47, Number 3, pages 8–21. ©, 2005. For more information about Environment, see http://www.heldref.org/env.php 116 To mark the millennium, heads of state gathered in New York at the United Nations in September 2000. http://environment.yale.edu/climate-communication/files/WhatIsSustainableDevelop.pdfThe World Watch Institute State of de world 2013,



140

Valores que soportan la declaración del milenio La declaración del milenio, realizada por la ONU y los jefes de estado reunidos en NY en septiembre del 2000, propone una serie de objetivos por la paz, el desarrollo, el medio ambiente, los derechos humanos. Los vulnerables, los hambrientos y los pobres. que se funda en un conjunto de valores: “Consideramos que ciertos valores fundamentales son esenciales para las relaciones internacionales en el Siglo XXI. Ellos incluyen: Libertad: Las mujeres y los hombres tienen el derecho de vivir sus vidas y criar sus hijos con dignidad, libres del hambre y del miedo a la violencia, la opresión y la injusticia. Así como de un gobierno democrático y participativo basado en la voluntad del pueblo y que asegure esos derechos. Igualdad.- A ningún individuo o nación se le debe negar la oportunidad de beneficiarse con el desarrollo. Se debe asegurar la igualdad de derechos y oportunidades de mujeres y hombres. Solidaridad.- Los desafíos globales deben ser gestionados de tal forma que las cargas y los costos sean distribuidos de acuerdo a los principios básicos de equidad y justicia. Aquellos que sufren o que son los menos beneficiados deben recibir ayuda de los que obtienen el mayor beneficio. Tolerancia.- Los seres humanos, uno al otro, se deben respetarse en toda su diversidad de creencias, cultura y lenguaje. Las diferencias intra e inter sociedades no deben ser nunca temidas o reprimidas sino cultivadas como un activo humanístico preciado. Deberá promoverse activamente entre todas las civilizaciones una cultura de paz y diálogo. Respeto a la naturaleza.-La prudencia debe manifestarse en el manejo de todas las especies vivientes y los recursos naturales, de acuerdo con los preceptos del desarrollo sustentable. Solo por este camino, la inmensurable riqueza que la naturaleza nos ha proporcionado, puede ser preservada y transferida a nuestros descendientes. Los actuales patrones de producción y consumo, insostenibles, deben ser cambiados por el interés de nuestro futuro bienestar y el de nuestros descendientes. Responsabilidad compartida.- La responsabilidad de la gestión del desarrollo económico y social global, así como las amenazas a la paz y la seguridad internacionales, debe ser compartida entre las naciones del mundo y debe ser ejercida multilateralmente. Las Naciones Unidas, como la organización más universal y la más representativa en el mundo, debe jugar el papel central.”117 La Carta de la Tierra.118 La Carta de la Tierra es el resultado de múltiples conversaciones interculturales mantenidas a lo largo de una década, plasmadas en una declaración de principios fundamentales, para la construcción de una sociedad global justa, sostenible y pacífica en el sigloXXI. En ella se señala que los valores de la carta de la tierra derivan de la ciencia, la ley internacional, las enseñanzas de los pueblos indígenas, la sabiduría de las grandes religiones y tradiciones filosóficas del mundo y en las declaraciones e informes de siete conferencias cumbre de la 117

Kates R. Et al op cit Environment” Volume 47 Number3 p21

118 La Carta de la Tierra SEMARNAT,2007. http://www.semarnat.gob.mx/educacionambiental/Pages/inicio.aspx

141

ONU tenidas durante los años 90 del siglo pasado. En la Carta de la Tierra se han identificado y expresado cuatro principios de primer orden : I.-La comunidad de la vida, Su respeto y su cuidado II.-La integridad ecológica III.-La justicia social y económica IV.-La democracia, no-violencia y paz. El aspecto medular, en el caso de la justicia económica y social, es desarrollado por los principios de economía equitativa, erradicación de la pobreza, la equidad de género y los derechos de los pueblos indígenas. Cada uno de estos cuatro es explicado por tres o cuatro acciones específicas o intenciones en 16 principios de segundo orden y estos en 61 de tercer orden.119 Como puede verse, la mayor parte de las precisiones, extensiones o aclaraciones del enunciado de la Comisión Brundlandt se pueden resumir en el reconocimiento de que el tránsito a la “sostenibilidad” implica cambios en el contenido y la forma del consumo actual, en la justicia social, la eliminación de la pobreza y el reconocimiento de que el género humano constituye una parte integral de la naturaleza, de la biósfera terrestre. Río+20 En 2012 los gobernantes de los distintos países se reunieron de nuevo en Río de Janeiro en La Conferencia de las Naciones Unidas sobre el Desarrollo Sostenible, o Cumbre de la Tierra Río+20. Esta conferencia se centró en dos temas: 1) economía verde en el contexto del desarrollo sostenible y la erradicación de la pobreza y 2) el marco institucional para el desarrollo sostenible. En esta ocasión se plantearon varios Objetivos para el Desarrollo Sustentable apoyados en los Objetivos de Desarrollo del milenio, en la línea de Políticas de Economía Verde, Objetivos que fueron detallados ampliamente en el documento “El futuro que queremos”120, como ejemplo se citan los puntos 4, 30, 39 donde a la letra se dice: 4. Reconocemos que la erradicación de la pobreza, la modificación de las modalidades insostenibles y la promoción de modalidades de consumo y producción sostenibles, y la protección y ordenación de la base de recursos naturales del desarrollo económico y social son objetivos generales y requisitos indispensables del desarrollo sostenible. Reafirmamos también que es necesario lograr el desarrollo sostenible promoviendo un crecimiento sostenido, inclusivo y equitativo, creando mayores oportunidades para todos, reduciendo las desigualdades, mejorando los niveles de vida básicos, fomentando el desarrollo social equitativo y la inclusión, y promoviendo la ordenación integrada y sostenible de los recursos naturales y los ecosistemas, que contribuye, entre otras cosas, al desarrollo económico, social y humano y facilita al mismo tiempo la conservación, la regeneración, el restablecimiento y la resiliencia (sic) de los ecosistemas frente a los problemas nuevos y en ciernes. 121 119 La carta de la Tierra Principles

of Environmental Conservation and Sustainable Development: Summary and Survey

120 ONU Presidente de la Asamblea, 65º. Periodo de sesiones http://www.un.org/es/ga/president/65/issues/sustdev.shtml

121 ONU El Futuro que QueremosPublicado nuevamente por razones técnicas el 30 de enero de 2013. A/RES/66/288

142

30. Reconocemos que la subsistencia, el bienestar económico, social y físico, y el patrimonio cultural de muchas personas, especialmente los pobres, dependen directamente de los ecosistemas. Por esa razón, es esencial generar empleos e ingresos decentes que reduzcan las disparidades entre los niveles de vida para atender mejor las necesidades de las personas y promover medios y prácticas de subsistencia sostenibles, así como el uso sostenible de los recursos naturales y los ecosistemas 39. Reconocemos que el planeta Tierra y sus ecosistemas son nuestro hogar y que “Madre Tierra” es una expresión común en muchos países y regiones, y observamos que algunos países reconocen los derechos de la naturaleza en el contexto de la promoción del desarrollo sostenible. Estamos convencidos de que, para lograr un justo equilibrio entre las necesidades económicas, sociales y ambientales de las generaciones presentes y futuras, es necesario promover la armonía con la naturaleza. En el apartado III el punto 57 explica: III. Una economía verde en el contexto del desarrollo sostenible y la erradicación de la pobreza 57. Afirmamos que las políticas de economía verde en el contexto del desarrollo sostenible y la erradicación de la pobreza deben guiarse por todos los Principios de Río, el Programa 21 y el Plan de Aplicación de las Decisiones de Johannesburgo, ajustarse a ellos y contribuir al logro de los objetivos de desarrollo convenidos internacionalmente pertinentes, incluidos los Objetivos de Desarrollo del Milenio. Y en 57.2 se reitera: 2. La erradicación de la pobreza es el mayor problema que afronta el mundo en la actualidad y una condición indispensable del desarrollo sostenible. A este respecto, estamos empeñados en liberar con urgencia a la humanidad de la pobreza y el hambre122. IV. Marco institucional para el desarrollo sostenible B.- Fortalecimiento de las tres dimensiones del desarrollo sostenible a) Promoverá la integración equilibrada de las tres dimensiones del desarrollo sostenible g) Promoverá la conexión entre la ciencia y las políticas mediante evaluaciones científicas inclusivas, transparentes y con base empírica, así como el acceso a datos fiables, pertinentes y oportunos en las esferas relacionadas con las tres dimensiones del desarrollo sostenible… Además de las cuestiones de carácter general, el Futuro que Queremos señala claramente en el apartado IV, artículo 89 del inciso C, los problemas a resolver con relación a los productos químicos que se consideran peligrosos para la salud humana y la del medio ambiente: C. El pilar ambiental en el contexto del desarrollo sostenible 89. Reconocemos las importantes contribuciones de los acuerdos multilaterales sobre el medio ambiente al desarrollo sostenible. Reconocemos también la labor iniciada para mejorar las sinergias entre los tres convenios sobre los productos químicos y los desechos (Convenio de Basilea sobre el control de los movimientos transfronterizos de los desechos peligrosos y su eliminación (32), Convenio de Rotterdam sobre el Procedimiento de 122 Ibidem. III, 57-2

143

Consentimiento Fundamentado Previo Aplicable a Ciertos Plaguicidas y Productos Químicos Peligrosos Objeto de Comercio Internacional (33), y Convenio de Estocolmo sobre contaminantes orgánicos persistentes (34). De esta manera el documento lleva a cabo una recapitulación de los acuerdos previos de la organización y precisa los compromisos que, desde el punto de vista de la ONU, se consideran urgentes para el tránsito de un desarrollo insostenible hacia el desarrollo sustentable, con insistencia en el desarrollo conjunto de los tres pilares, la triple línea base, o las tres dimensiones. Entre las cuestiones de mayor urgencia están las acciones para hacer frente al cambio climático y frenar el deterioro ambiental, reducir la acidificación de los océanos, conseguir la seguridad alimentaria, el respeto a los derechos humanos, la salud, el agua potable y la energía limpia, tareas todas que exigen la producción de nuevos conocimientos científicos, de la interdisciplina, del desarrollo tecnológico y de la innovación. El reto, el desafío, para la comunidad científico tecnológica es enorme y habrá que hacerle frente: la imaginación, el conocimiento, la iniciativa y el compromiso social de científicos e ingenieros, apoyados en saberes ancestrales y modos de vida diferentes al modelo occidental, habrán de resolverlo. Epílogo: “El Fondo Internacional para la Naturaleza Mundial señala que la población de vida silvestre se ha reducido en un tercio durante los últimos 35…y 60% en las regiones tropicales más pobres(a). La tasa y la magnitud de estas pérdidas definirá en la tierra la sexta extinción masiva, a menos que hagamos retroceder esta declinación.(b) Mientras tanto y dejando de lado el destacado caso de China, el número de personas que viven en pobreza extrema se ha incrementado en más del 30% entre 1981 y 2004 y ahora sobrepasan los 1000 millones.”(c) Nota: Tomado de: On biodiversity conservation and poverty traps123 “The World Wide Fund for Nature International finds that the earth’s wildlife populations have declined by a third over the past 35 y alone but by even more, 60%, in poorer tropical regions (a). The rate and magnitude of these losses will define the earth’s sixth mass extinction period unless we quickly reverse this decline (b). Meanwhile, leaving aside the remarkable case of China, the number of people living in extreme poverty increased by more than 30% from 1981 to 2004 and now surpasses1 billion (c)”. a.- World Wide Fund for Nature International (2010) Living Planet Report 2010: Biodiversity, Biocapacity and Development (WWF International Gland, Switzerland). Available at http://wwf.panda.org/about_our_earth/ all_publications/living_planet_report/2010_lpr. b.-. Barnosky AD, et al. (2011) Has the Earth’s sixth mass extinction already arrived? Nature 471:51–57. c.-. Chen S, Ravallion M (2010) The developing world is poorer than we thought, but no less successful in the fight against poverty. Q J Econ 125:1577–1625

123 Christopher B. Barretta,b,1, Alexander J. Travis b,c, and Partha Dasguptad a Charles H. Dyson School of Applied Economics and Management, b David R. Atkinson Center for a Sustainable Future, and c Baker Institute for Animal Health, Cornell Center for Wildlife Conservation, Cornell University, Ithaca, NY 14853; and d Faculty of Economics, University of Cambridge, Cambridge, United Kingdom www.pnas.org/cgi/doi/10.1073/pnas.1011521108 PNAS | August 23, 2011 | vol. 108 | no. 34 | 13907–13912------ * Muchos investigadores plantean que “Desarrollo Sustentable” es un “oxymoron” y que la salida es el descrecimiento.



144

XIX.- La Sustentabilidad. Hasta ahora la sustentabilidad ha sido y es un concepto, una especie de horizonte, hacia el cual debiera transitar el género humano a través de cambios profundos, particularmente de la economía si por esta entendemos, no la mera crematística, sino la forma como la sociedad produce y reproduce su vida diaria y del reconocimiento de que los seres humanos son parte integral de un sistema con la naturaleza y por lo tanto de la necesidad de una relación armónica de esta parte con el todo. Si bien, “En un cierto nivel, la definición de sustentabilidad es muy sencilla y moral, ética. Significa poner atención en las consecuencias de largo plazo de todas las acciones. Ello implica pensar en los demás, particularmente en aquéllos que pudieran sufrir por la inmediatez de la codicia de los individuos, los gobernantes o las empresas El término ha estado asociado al medio ambiente, pero también se ha usado mal de acuerdo a la conveniencia política. Lo que hace al concepto sustentabilidad poco común no es su propensión a la generalización, sino a su descuidada aplicación dentro de muchos contextos. No obstante, debe reconocerse que los conceptos profundos por lo general tienen muchos efectos y resultan en diversas interpretaciones (Cullinford, 2004)124.” Lobo Oemichen R.A Amidiq 2005

En estas circunstancias no resulta fácil encontrar una definición que haga operativo al concepto, así como establecer las condiciones, los límites y las métricas que permitan evaluar, tanto el camino como el avance en la conquista de la sustentabilidad como meta de la sociedad humana. No obstante, la sostenibilidad como tal puede verse, en tanto que “deber ser,” como la propuesta, en el marco de la igualdad y equidad de los seres humanos, de una relación armónica, de equilibrio, entre la sociedad humana y la biósfera, sistema del cual, la humanidad, constituye una parte integral. De una manera simplista se puede proponer una ecuación de balance entre la producción (reproducción) de la naturaleza y el consumo humano: Existencias1+producción= consumo + Reservas: Si consumo< producción, las reservas aumentan. Si consumo= producción, Reservas = Existencias Si consumo> producción, las reservas y por lo tanto las existencias disminuyen. Si esta condición se mantiene en el tiempo las reservas se agotan, en un plazo más o menos largo que depende de las tasas de consumo y de producción.

Tal equilibrio debiera establecerse entre la capacidad reproductiva de la biósfera en términos de tiempo es decir “la tasa de reproducción” equilibrada con la tasa de consumo de la humanidad. El incremento del consumo o su aceleración son condiciones de ruptura, de desplazamiento del equilibrio, que al rebasar los límites (la tasa de reproducción) puede llevar a la catástrofe,

Sustainability, Earth Encyclopedie Published: June 28, 2014, 9:40 aAuthor: Michael Toffel

Desde el punto de vista de la Enciclopedia de la Tierra125, la Sustentabilidad es un concepto tanto de las ciencias naturales como de las ciencias sociales. Para las ciencias naturales la sustentabilidad es

124 Citado en . Lobo Oemichen R.A “Sustentabilidad” Amidiq 2005 125 Toffel, M. (2014). Sustainability. Earth Enccicclopedie 145

enfocada hacia el consumo y la reproducción de los recursos medioambientales, apoyados en la biodiversidad. En tanto que desde las ciencias sociales se trata de un problema de economía y de sociología.126 En esta enciclopedia se menciona que para la puesta en práctica de la sustentabilidad como acción se han propuesto diversas estrategias, entre las que se destacan cuatro: La “triple línea base” o “las tres columnas”127 centrada en el balance económico y social con objetivos ecológicos, que sería asimilable al desarrollo sustentable, en tanto que las otras estrategias el escalón natural, la huella ecológica, el análisis del ciclo de vida, y el cálculo de emisiones se enfocan a la medición de los daños y su posible reducción, para la protección de los ecosistemas y mejorar las condiciones del bienestar humano. . El escalón natural establece cuatro condiciones para la sociedad sustentable: La naturaleza no puede estar sometida al incremento de: (1) de la concentración de sustancias extraidas de la corteza terrestre. (2) de la concentración de sustancias antropogénicas o a la degradación por medios físicos y en esa sociedad (4) las necesidades humanas son satisfechas mundialmente. Por lo que el uso de combustibles fósiles, la emisión de productos químicos bioacumulativos persistentes, o la pérdida sistemática de bosques de lluvia y humedales, atentan contra la sustentabilidad . La huella ecológica compara el impacto ambiental de las acciones particulares, a nivel personal, de ciudad, regional, nacional o mundial con las limitaciones de los recursos naturales de la tierra y la funcionalidad del ecosistema. La huella ecológica calcula cuantas tierras se necesitan para proveer de suficiente área de terreno biológicamente productivo para mantener el flujo de recursos y desechos sí una actividad particular fuera adoptada por todos los ciudadanos del mundo. La Jerarquía Sustentable Se categorizan las acciones como no sustentables con base en su potencial directo e indirecto para (1) poner en peligro la sobrevivencia humana, (2) debilitar o dañar la salud humana, (3) causar extinción de especies o violar los derechos humanos y (4) reducir la calidad de vida o tener consecuencias que son inconsistentes con otros valores, creencias o preferencias estéticas de las comunidades. Una posible definición: De una manera resumida y en términos de un “deber ser” amartya.org propone que la sustentabilidad debe darse, para la humanidad, como resultado de la existencia de condiciones económicas, ecológicas, políticas y sociales que permitan el funcionamiento armónico: en el espacio, de los seres humanos sin distinción ni discriminación de sexo, género, edad, credo, etc. En el tiempo entre generaciones y en el tiempo y el espacio entre la humanidad y la naturaleza deberá existir, así mismo, una relación armónica.

Es muy común que se use indistintamente sustentabilidad y sostenibilidad. Amartya propone el empleo de sustentabilidad como un concepto endógeno “las cosas se sustentan desde dentro y se sostienen desde fuera” (sic)128 La historia… La sustentabilidad como práctica global. A pesar de los años transcurridos desde 1987 y las multiples reuniones cumbre y otros acuerdos de la ONU,

http://www.eoearth.org/view/article/51cbeefb7896bb431f69ba11 126 Economía entendida como la forma en que la sociedad produce y reproduce su vida diaria y la sociología como la encargada del estudio de las condiciones políticas y los valores sociales, cultura, ética, estética, etc. 127 ONU Presidente de la Asamblea, 65º. Periodo de sesiones, op. cit. Definición que lleva al “desarrollo sustentable”. 128 http://www.amartya.org.ar/index (El DRAE no reconoce la palabra “sustentabilidad”)

146

129

poco se ha avanzado en los objetivos implícitos y explícitos propuestos en “Nuestro futuro común” Los patrones actuales de producción y consumo de la humanidad estan agotando los recursos del planeta y son en parte los responsables de la degradación ambiental que afectará en el largo plazo a la sustentabilidad, al desarrollo económico y al aumento de la desigualdad social. Con una población de 9,500 millones (estimada para 2050) y el consecuente aumento de la demanda, la ineficiencia en la producción y el consumo de los 130 recursos naturales y el desperdicio, no pueden continuar”

En otros términos sustentabilidad, con o sin desarrollo, como se ha señalado es un equilibrio entre la demanda de recursos naturales de la sociedad y la capacidad del medio ambiente para reproducir esa demanda y procesar los desechos de la producción y el consumo humanos. Aquí resulta conveniente aclarar que la “Naturaleza” como ámbito virginal o el medio ambiente como algo externo, donde se desarrolla el género humano es algo que dejó de existir en esos términos. En la actualidad no existe rincón alguno de la tierra donde la acción humana no haya intervenido. Humanidad y naturaleza conforman un mismo sistema en interacción permanente. Un aspecto muy importante de lo anterior es la dependencia, cada vez mayor, de compuestos químicos como insumos para el mejoramiento tanto de las condiciones de vida como instrumentos del desarrollo económico. Estos compuestos si bien han producido beneficios, también se se han convertido en amenazas para la salud humana y la del medio ambiente. La producción, el desecho, el uso inadecuado y el abuso de las sustancias química pueden afectar al ecosistema, contaminar los acuíferos, amenazar la seguridad alimentaria y la salud de los seres vivos. “La reducción de las amenazas y el mejoramiento del manejo de sustancias químicas son sin duda componentes esenciales hacia la sustentabilidad131”.

Para concluir: En el texto The World Watch Institute, “State of the World 2013” 1, Is Sustainability Still Possible? Robert Engelman en su artículo “Beyond Sustainabable”132 señala que de la defiinición de Desarrollo Sustentable propuesta en Nuestro Futuro Común surgen dos puntos importantes. Lo primero es que las tendencias de cualquier línea ambiental puede, en teoría, ser analizada cuantitativamente desde la óptica de su posible impacto en la capacidad de las futuras generaciones para satisfacer sus propias necesidades. Mientras no podamos predecir los impactos precisos en las tendencias y en la respuesta de los humanos futuros, esta definición ofrece las bases para una métrica de sustentabilidad que pueda mejorar con el tiempo, con el conocimiento y con la experiencia acumulados. Las dos cuestiones clave son: ¿qué esta sucediendo?¿o a que y a donde? Y ¿puede seguir por ese camino, en esa escala, 129 Informe Brundlandt, op. cit.

130 UNEP 2013 Annual Report p43

www.unep.org

131 UNEP 2013 Annual Report (Hacia una sociedad verde inclusiva)HARMFUL SUBSTANCES AND HAZARDOUS WASTE p37 En la reunión cumbre para e Desarrollo Sustentable de 2002l los gobiernos acordaron

At the World Summit on Sustainable Development in 2002, governments agreed that by 2020 chemicals should be used and produced in ways that minimize adverse effects on human health and the environment.One of the key bodies working to attain the 2020 goal is the UNEP-hosted Strategic Approach to International Chemicals Management (SAICM). Through its Quick Start Programme (QSP), SAICM has supported 104 countries in their efforts to improve chemical safety. 132 The World Watch Institute “State of the World 2013”1, ISBN: 978-1-61091-449-9 http://blogs.worldwatch.org/sustainabilitypossible/wp-content/uploads/2013/03/SOW2013-01-Engelman.pdf



147

a ese paso, sin reducir la probabilidad de que las generaciones futuras puedan vivir tan próspera y confortablemente como nosotros? Para que “Sustentabilidad” tenga algún significado debe estar ligada a una métrica, marcadores de avance y definiciones rigurosas, El segundo punto es el imperativo del desarrollo en si mismo. Sin embargo la sustentabilidad ambiental y desarrollo económico son objetivos muy diferentes que necesitan ser comprendidos por separado, antes de ser conjuntados. Ya que Gro Harlem Brundlandt en el prefacio de “ nuestro futuro común define desarrollo como “lo que todos hacemos para mejorar nuestra parte” No es trivial para cualquier gente de altos o bajos ingresos notar que 7,100 millones de personas “al hacer lo que todos hacemos para mejorar nuestra parte” estamos empujando más peligrosamente hacia un territorio ambientalmente no-sustentable.

148

XX.- Sustentabilidad Ciencia y Tecnología. No obstante el tiempo transcurrido, lo caminos para transitar hacia una sociedad sostenible aun están por construirse. La búsqueda ha hecho necesaria la producción de nuevos conocimientos, de tal manera que el “desarrollo sustentable” se ha convertido en una tarea científica, tecnológica y de innovación que, de acuerdo con la Iniciativa en Ciencia y Tecnología para el Desarrollo Sustentable133 “busca fomentar la contribución al conocimiento del desarrollo humano ambientalmente sustentable alrededor del mundo”, por medio de redes de colaboración científica. Entre los temas que la Iniciativa sugiere investigar se encuentran i) La vulnerabilidad y la capacidad de recuperación de los sistemas socio-ecológicos. ii) La producción y el consumo sustentables y iii)la gobernabilidad e instituciones. A lo que se agregó un iv) conjunto de temas: comportamiento, cultura y valores. De acuerdo con la iniciativa, “Los Objetivos de Desarrollo del Milenio” (MGDs) representan la afirmación de valores asociados con el ser humano, a diferencia del desarrollo puramente económico. Los elementos fundamentales de la “Declaración del Milenio (ONU, 2000)” –la libertad, la igualdad, la solidaridad, la tolerancia, el respeto por la naturaleza, y la responsabilidad compartida– pueden verse como una declaración de valores esenciales necesarios para una transición al desarrollo sustentable. Ver arriba134 Además los MGDs representan una visión inicial ampliamente compartida del desarrollo sustentable y ellos pueden servir, como puntos de referencia, para los esfuerzos de las comunidades científicas y de ingeniería—reconociendo por supuesto—que la C&T pueden contribuir más en algunos de esos objetivos que en otros y que en general, tales objetivos representan solamente el punto de partida para los desarrollos que finalmente deben ser alcanzados. Por su parte, la National Academy of Sciences propone a la “Ciencia Sustentable” como una actividad que se define por los problemas a los que se dirige, más que por las disciplinas que emplea y cuya acción esta dirigida a facilitar la transición hacia la sustentabilidad a través de optimizar el uso de los recursos naturales, para que las necesidades de una población creciente sean satisfechas y simultáneamente se reduzcan el hambre y la pobreza.135 Lo cual es relativamente coincidente con la versión de Kates, para quien la Ciencia Sustentable es una ciencia que se inspirada por su misma necesidad de ser utilizada –como las ciencias de la salud y las de la agricultura—apoyada tanto en conocimientos fundamentales significativos como en conocimientos aplicados y comprometida con la conversión del conocimiento en acciones 133: Initiative on Science and Technology for Sustainable Development, A report from the ICSU-ISTS-TWAS Consortium ad hoc Advisory Group Harnessing Science, Technology and Innovation for Sustainable Development: ICSU, 2005; Ciencia Tecnología e innovación para el D4SRedalyc.org;; http://www.redalyc.org/pdf/305/30531221.pdf ; 1 The International Council for Science (ICSU): www.icsu.org/The Initiative for Science and Technology for Sustainability (ISTS): sustainabilityscience.org/ Academy of Sciences for the Developing World (TWAS): www.twas.org/

134 The MDGs are a set of specific targets to: (1) Eradicate extreme poverty and hunger, (2) Achieve universal primary education, (3)

Promote gender equality and empower women, (4) Reduce child mortality, (5) Improve maternal health, (6) Combat HIV/AIDS, malaria and other diseases, (7) Ensure environmental sustainability, and (8) Develop a global partnership for development. (http://www.un.org/millennium/declaration/ares552e.htm) 135 PNAS “Sustainability Science: A room of its own” PNAS " February 6, 2007 " vol. 104 " no. 6 " 1737–1738

149

sociales.136 El Sistema Tierra. Si bien los objetivos del milenio abarcan prácticamente todo el espectro de mejoramiento deseable en términos sociales y pudieran ser alcanzables por mecanismos de política económica, la estrategia para conseguir y asegurar la Sustentabilidad Ambiental no se llega a exponer claramente por lo que, un primer paso en ese sentido, se dio al establecer con precisión un marco de referencia, que permite abordar el estudio de las interacciones entre la humanidad y la naturaleza de manera integral. La evolución del homo sapiens y sobre todo la del homo habilis produjo, en la mente de los sujetos, una separación ideológica entre la humanidad y la naturaleza. Tal separación llevó a considerar a ésta última como una entidad extraña y amenazadora que debería ser conquistada, domesticada y puesta al servicio de los seres humanos. Esta Falsa Dicotomía condujo a la humanidad usar y abusar de la naturaleza hasta un punto en el que la recuperación de la unidad se ha vuelto perentoria. Históricamente las distintas culturas han interactuado, a través de la Tecnología, con el mundo físico, químico y biológico, y han dejado su marca en cada metro cúbico de aire y de agua y cada metro cuadrado de tierra. La dinámica de los grandes ciclos elementales: el hidrológico, del nitrógeno, del carbono, del azufre y del fósforo, han sido afectados por los residuos de metales pesados, de plaguicidas, de fertilizantes y de innumerables productos antropogénicos, los cuales son, en términos estrictos, “subproductos” de las actividades tecnológicas de nuestra especie. De igual manera la biósfera, desde la genética hasta el paisaje, es crecientemente un producto humano. Se pueden encontrar muy pocas comunidades biológicas que no reflejen el manejo, el consumo o la depredación de los seres humanos. La comprensión cabal de tales interacciones requiere de la restauración de la unidad y la concepción de un sistema integral, el Sistema Tierra, que englobe cabalmente, desde el punto de vista del proceso de conocimiento, a la humanidad y a la naturaleza en toda su extensión. En este contexto se hace necesario considerar, a lo largo de la historia, la humanización, es decir el impacto, tanto de las acciones deliberadas como de las consecuencias inesperadas, accidentales o inadvertidas, inherentes al subsistema humano, sobre los demás subsistemas del Sistema Tierra. La “humanización” del sistema tierra llevó a Allenby a la afirmación: “Aunque difícil de aceptar –ya no hay historia natural: hay sólo historia humana. Lo que estos sistemas vayan a ser en el futuro es una decisión humana, una opción humana. Al comprender esto claramente no podemos escapar de la responsabilidad ética de tal opción. ¿Pero los valores 136 Kates Robert W. “What kind of science is Sustainability Science?” PNAS | December 6, 2011 | vol. 108 | no. 49 | 19449–19450; www.pnas.org/cgi/doi/10.1073/pnas.1116097108

150

de quien(o quienes) la determinan—que religión, que cultura, que subgrupo?”137

Fuente: Allenby, op cit. La ciencia sustentable o la ciencia de la sustentabilidad. La investigación en programas dedicados a estudiar el cambio ambiental global, ha puesto en evidencia que los recientes cambios ambientales de la tierra, desde lo local a lo global, son en gran medida, debidos a la actividad humana, lo que vino a confirmar la propuesta de Allenby sobre el Sistema tierra como resultado de la interacción de la humanidad con el medio ambiente. Todas estas razones han llevado a un consenso en el sentido de considerar que la tierra atraviesa un período que puede ser denominado como el “antropoceno”, período durante el cual la mayoría de los cambios del del Sistema Tierra se originan en causas antropogénicas. En estas circunstancias el estudio y la investigación de la cuestión medioambiental en el contexto del Sistema tierra, conllevan la necesidad un conocimiento confiable de las acciones e interacciones de los distintos componentes de la totalidad sistémica, así como 137 Allenby Brad Earth Systems Engineering and Management. 0278-0079/00/$10.00©2000IEEE IEEE Technology and Society Magazine, Winter 2000/2001 La respuesta a esta cuestión a sido dada, en la práctica, por los documentos emanados de las “reuniones cumbre” convocadas por la ONU: La agenda 21 1992, La declaración y los objetivos del milenio 2000 y El futuro que queremos, Río+20.

151

del desarrollo de tecnología, ingeniería e innovaciones qué, en el marco de estrategias adecuadas, consigan revertir las tendencias actuales del Cambio Ambiental Global: contaminación, agotamiento de los recursos naturales, calentamiento del globo, acidificación de los océanos etc. Por lo que para entender las interacciones entre los integrantes de la biósfera entre sí y las de ellos con los fenómenos geofísicos, hace falta una “nueva ciencia,” inter e intradisciplinaria, que pueda comprender a la tierra como “sistema”, que se apoye con la creación de modelos de sistemas complejos, con métodos de evaluación integrados, que supere la tradicional compartimentación entre las disciplinas, que apoye la toma de decisiones en la incertidumbre y que sea evaluada científicamente de manera interdisciplinaria e internacional. 138,139 La Ciencia del sistema tierra. Establecida la necesidad de esta nueva ciencia resulta conveniente, a manera de recapitulación establecer lo que se entiende por Sistema Tierra: éste se puede definir, de manera sucinta, como el conjunto integrado de componentes, procesos e interacciones, físicos, químicos, biológicos y sociales que, como totalidad, determinan el estado y la dinámica de la tierra, lo que incluye, tanto a la biota como a los seres humanos. Se trata de un sistema autoregulado, con interacciones y retroalimentaciones complejas entre sus componentes, caracterizado por umbrales críticos y cambios abruptos.140 A partir de lo anterior, por “ciencia del sistema tierra”, habrá que comprender el estudio la tierra como sistema con énfasis en la observación, la comprensión y la predicción de los cambios ambientales globales que implican interacciones entre la tierra , la atmósfera, el agua, el hielo, la biosfera, la sociedad, la tecnología y la economía. Su capacidad debe ser suficientemente amplia para cubrir los aspectos clave del proceso de investigación y sus nexos con la acción. Es evidente que para poder comprender la intensidad, el sentido y la rapidez de los cambios, así como las consecuencias y su magnitud, provocados por el crecimiento demográfico y económico se precisa de la interacción entre las ciencias naturales y las ciencias sociales. 138 Initiative on Science and Technology for Sustainable Development, A report from the ICSU-ISTS-TWAS Consortium ad hoc Advisory Group “Harnessing Science, Technology and Innovation for Sustainable Development” 2.2.5 Technological Innovation for Sustainable Development Copyright: ICSU, 2005 139 Gallopin Gilbert: Models an conceptualizations of Sustainability: http//sustainabilityscience.org/content.html 140 ICSU-IGFA Review of the Earth System Science Partnership (ESSP) June 2008 Rik Leemans1, Ghassem Asrar2, Antonio Busalacchi3, Josep Canadell4, John Ingram5, Anne Larigauderie6, Harold Mooney7, Carlos Nobre8, Anand Patwardhan9, Martin Rice10, Falk Schmidt11, Sybil Seitzinger12, Hassan Virji13, Charles Vo¨ ro¨ smarty14 and Oran Young15 Developing a common strategy for integrative global environmental change research and outreach: the Earth System Science Partnership (ESSP) Strategy paper www.sciencedirect.com



152

Investigación En Ciencia natural /\ Identificación de Vinculación del Problemas, necesidades --—> ——> conocimiento y prioridades a la acción y la política \/ Invesigación en Ciencia Social El avance en la comprensión del sistema tierra, de las crisis del ecosistema, de la contaminación y el cambio climático, sólo puede darse a través de un profundo conocimiento de la ciencia, del clima, de la ecología, de la economía, basado en la evidencia de los datos obtenidos de la observación de los procesos y el funcionamiento detallados de los sistemas desde la escala local a la global.141 Entre las cuestiones que habrá que responder, destacan las siguientes: En el pasado, ¿como se ha comportado el sistema tierra? ¿Cuáles son las tendencias en curso, actuales? ¿cómo se comportarán en el futuro? ¿Qué tan sensible es el sistema tierra a los cambios ¿El sistema tierra es lineal o tiende a amortiguar o a amplificar las perturbaciones externas? ¿Cuál es su dinámica interna no forzada? ¡Existen límites o puntos de no-retorno? A lo que habría que añadir las dudas de Dynamic Planet: ¿En que estado se encuentran y cuales son las tendencias de los componentes medioambientales clave como el clima, los suelos, la criósfera, la biogeoquímica, la diversidad biológica, la calidad del aire, el agua potable, los océanos y los motores antropogénicos del cambio: como la población, el consumo, el uso del suelo y el mar y la tecnología?¿ Cómo esos se relacionan con el estado y la dinámica de los fundamentos sociales del desarrollo sostenible?¿Cómo y porqué estos varían a través del tiempo, el espacio y el contexto social? 142 Para Kates143, de la fusión de las cuestiones medulares con las temáticas de investigación se destacan siete interrogantes mayores: i) ¿Qué es lo que da forma a las transiciones y tendencias a largo plazo que proveen, para este siglo, las mayores direcciones? ii) ¿Qué determina la adaptabilidad, la vulnerabilidad y la capacidad de recuperación (resiliencia) de los sistemas humano-ambientales? iii) ¿Como pueden ser formulados la teoría y los modelos, para dar mejor cuenta de la variación, en las interacciones humano –ambientales? iv) ¿¿Cuáles son las principales ganancias-pérdidas entre el bienestar humano y el medio ambiente natural? 141 ICSU - IGFA Review of the Earth System Science Partnership (ESSP) pp27-28 142 Dynamic Planet: http//www.futureearth.info//themes/dynamic-planet 143 Kates, op cit

153

v) vi) vii)

¿Los “límites” pueden ser científica y significativamente definidos, tal que suministren advertencias efectivas sobre los sistemas humano-ambientales? ¿Cómo puede la sociedad guiar o gestionar los sistemas humano-ambientales para la transición hacia la sustentabilidad? ¿Cómo se puede evaluar la “sustentabilidad” de las rutas alternativas de desarrollo y medio ambiente?

Estos son, sin lugar a dudas , algunos de los múltiples desafíos a los que las nuevas generaciones de científicos, ingenieros, tecnólogos e innovadores habrán de enfrentarse en el futuro cercano. Sin embargo, vale la pena recordar que la tierra como sistema se comporta como un organismo, en el que los sistemas, los aparatos, los órganos, los tejidos y las células solo alcanzan su completa explicación en su relación con el todo. En este sentido, la recuperación de la totalidad implicaría, desde el punto de vista teórico, la construcción de múltiples modelos de los distintos subsistemas que puedan, posteriormente, ser ensamblados para un mejor reflejo conceptual de la realidad, que establezca con la máxima claridad posible las consecuencias de las interacciones entre los subsistemas sobre el sistema tierra como un todo y con ello dirigir las acciones sociales hacia la sustentabilidad en un futuro aceptable.144 En paralelo con la creación de conocimientos que permitan establecer las interacciones retroalimentaciones, tendencias y la construcción de modelos de los componentes del sistema, están los problemas urgentes que exigen soluciones en el marco de la sustentabilidad: Eliminación del uso de combustibles fósiles y su sustitución por energía limpia. (eólica, mareas, solar). El efecto invernadero, los gases. El calentamiento global. Limpieza y recuperación de espacios contaminados: desechos y residuos, particularmente químicos, recirculación y tratamiento de aguas residuales. Nuevas tecnologías, síntesis de producto-proceso no contaminantes, entre otras muchas actividades.

144 Hans Joachim Schellnhubera,b, Katja Frielera,1, and Pavel Kabatc; “The elephant, the blind, and the intersectoral intercomparison of climate impacts” PNAS | March 4, 2014 | vol. 111 | no. 9 | 3225–3227; www.pnas.org/cgi/doi/10.1073/pnas.1321791111

154

XXI.- La Química Verde

Química Verde es un concepto que surgió en la EPA (Environmental Protection Agency de EUA) en los 90 del s XX y está dirigido al desarrollo de procesos y productos más favorables al medio ambiente. En el se incluyen la educación, la investigación , el desarrollo de tecnología, la innovación , así como la producción, el transporte, el almacenamiento y el control y tratamiento de residuos de las sustancias químicas. También ha sido muy útil para impulsar el interés en el desarrollo de productos y procesos químicos más amigables con el medio ambiente. “Aunque la Química Verde es ampliamente aceptada como un desarrollo esencial de la forma como practicamos la química y es vital para el desarrollo sustentable, su aplicación es fragmentaria y representa solamente una pequeña fracción de la química actual”145 Uno de los objetivos de la química verde es la eliminación de la enorme cantidad de residuos peligrosos que son emitidos cotidianamente, al aire, al agua y al suelo, por la industria, particularmente la química. El número de las sustancias químicas presentes en el ambiente es muy grande y constituyen un riesgo para la salud humana y el medio ambiente.146





La Química Verde puede ser contemplada como una serie de reducciones que conducen al objetivo de la triple línea base: el mejoramiento social, ambiental y económico: La reducción o eliminación de residuos reduce los costos de producción, reduce el riesgo, reduce la contaminación, reduce el consumo de energía, aumenta la eficiencia de los procesos y reduce el consumo de materias primas. 145 Green Chemistry for Sustainable Development: Green Separation Green Separation Processes. Edited by C. A. M. Afonso and J. G. Crespo Copyright © 2005 WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim ISBN 3-527-30985-3 146 "Por definición, cualquier subproducto de una operación química para la que no existe un uso es un residuo. La forma más práctica y barata de deshacerse de un residuo es a través de la chimenea o el río" (W. Haynes, 1954)



155

El uso de fuentes renovables hace más sustentable a la industria al tiempo que mejora el balance ambiental del consumo de materias primas y el tratamiento de desechos al final de la vida útil. La reducción de incidentes peligroso beneficia no sólo a los operadores sino también a las comunidades donde la industria se aloja.

El enfoque “diseño benigno” de la QV cuando se aplica en etapas tempranas, ayuda al aseguramiento de la sustentabilidad de los nuevos productos ,a lo largo de su ciclo de vida y minimiza el numero de errores que se puedan cometer.





Las tecnologías que caben en la definición “Tecnologías de Química Verde” son aquellas que emplean materias primas alternativas para la obtención de moléculas deseables existentes, hacen un uso más eficiente de los materiales derivados de los combustibles fósiles y/o crean sustancias que producen el mismo efecto, o lo mejoran, que aquellas empleadas corrientemente, pero con un impacto menor en el ambiente y en la salud 156

pública Muy frecuentemente los bienes y servicios no incluyen los costos ambientales en el total de sus costos de producción . La innovación en tecnologías ambientales puede reducir o eliminar estos costos y contribuir al desarrollo sustentable.

Los principios de la química verde. Los conceptos y los principios de la química verde fueron propuestos inicialmente por Anastas y Warner en su texto de 1998147 Paul T. Anastas y John C. Warner, Green Chemistry: Theory and Practice, New York: Oxford University Press, 1998, p 30.

1. Evitar los residuos (insumos no empleados, fluidos reactivos gastados) 2. Maximizar la incorporación de todos los materiales del proceso en el producto acabado 3. Usar y generar substancias que posean poca o ninguna toxicidad 4. Preservar la eficacia funcional, mientras se reduce la toxicidad 5. Minimizar las sustancias auxiliares (por ejemplo disolventes, agentes de separación) 6. Minimizar los insumos de energía (procesos a presión y temperatura ambiental) 7. Preferir materiales renovables frente a los no renovables 8. Evitar derivaciones innecesarias (por ejemplo grupos de bloqueo, pasos de protección y desprotección) 9. Preferir reactivos catalíticos frente reactivos estequiométricos 10. Diseñar los productos para su descomposición natural tras el uso 11. Vigilancia y control "desde dentro del proceso" para evitar la formación de sustancias peligrosas 12. Seleccionar los procesos y las sustancias para minimizar el potencial de siniestralidad 1 Posteriormente la Agencia de protección Ambiental de EUA (EPA, por sus siglas en inglés) propuso modificaciones: Los principios de Química Verde de la Agencia de Proteccion Ambiental 1. Evitar desechos: Diseñar la síntesis química para evitar desechos. No hay que dejar residuos para tratar o limpiar. 2. Diseñar productos químicos y productos de consumo final más seguros. Diseño de productos de gran efectividad con muy baja o ninguna toxicidad 3. Diseñar síntesis químicas menos riesgosas con el uso y la generación de sustancias que no constituyan un riesgo para los seres humanos y el ambiente. 4. Empleo de materias primas de fuentes renovables: sustentabilidad: Preferir las fuentes que se renuevan (agricultura, bosques, energía eólica, solar etc ) a las que se agotan (combustibles fósiles, minería, etc). 5. Use catalizadores en lugar de exceso de reactivos. 6. Evite subproductos 147 Paul T. Anastas y John C. Warner, Green Chemistry: Theory and Practice, New York: Oxford University Press, 1998, p 30

157

7. Maximice la economía de átomos: Diseño de síntesis en las que el producto final contenga la máxima proporción de los materiales reactivos. Evitar o minimizar el desperdicio de átomos 8. Usar solventes y condiciones de reacción más seguras. Evite, en lo posible, el uso de solventes, agentes de reparación y otros productos químicos auxiliares. Si son imprescindibles, que sean inocuos. 9. Incremente la eficiencia energética: siempre que sea posible lleve a cabo las reacciones en condiciones de p y t ambiente. 10. Diseñe productos que se degraden luego de ser usados, que se descompongan en sustancias inocuas y que no se acumulen en el ambiente. 11. Analice en tiempo real para prevenir la contaminación: durante la síntesis supervise y controle los procesos en tiempo real para minimizar o eliminar la formación de subproductos. 13. Minimice el riesgo de accidentes potenciales: Diseñe productos y su formas (sólido, líquido, gas) para minimizar el riesgo (explosión, fuego y fugas al ambiente Las tareas de la química verde se dirigen a la reducción o eliminación de las sustancias peligrosas para la salud humana y el medio ambiente, en temas como el cambio climático, la producción de energía limpia y el suministro adecuado y seguro de agua y alimentos, con base en el Análisis del ciclo de vida a todo lo largo de la vida útil. Entre las tareas para el futuro de la QV, Anatas y Kirchhoff destacan: Transformaciones que utilicen más energía que materiales. Fotólisis eficiente del agua con luz visible Sistemas de solventes que efectúen transporte eficiente de calor y masa, catalicen las reacciones e intrínsecamente ayuden a la separación del producto. Desarrollo de métodos de síntesis con economía atómica y benignos para la salud humana y del ambiente. Diseño de materiales para su reuso-recirculación con base en la entropía incorporada. Desarrollo de “toxicología preventiva” donde el incremento del conocimiento de los mecanismos de acción, biológicos y ambientales, sean integrados continuamente en el diseño de productos químicos. Desarrollo de fuentes de energía sin combustión ni uso intensivo de materiales. Transformaciones que preserven la funcionalidad sensible sin el uso de grupos de protección. Desarrollo de materiales y superficies durables que no requieran recubrimientos ni limpiadores. En el ámbito educativo proponen que los estudiantes de todos los niveles sean introducidos a la filosofía y la práctica de la química verde, lo que supone que los educadores deberán contar con entrenamiento, herramientas y materiales adecuados que permitan una integración adecuada de la QV en su enseñanza e investigación. Las áreas de la química verde En forma resumida se puede decir que el desarrollo tecnológico y la innovación en la química verde se pueden ubicar en una o más de las tres áreas siguientes: El diseño de rutas alternativas de síntesis basadas en química verde. El empleo de condiciones de reacción menos drásticas basadas en química verde. 158

El diseño de sustancias químicas que sean, menos tóxicas que las disponibles actualmente o inherentemente más seguras con respecto a su potencial de accidentes.148 La química verde ha venido a romper con el viejo paradigma del diseño de productos y procesos basado en la optimización económica (contaminar es “gratis”) para sustituirlo por el diseño sustentable y el empleo del principio precautorio y la evaluación del riesgo ante peligros químicos desconocidos o depreciados con anterioridad, para aumentar la seguridad y minimizar la exposición personal. Los avances recientes: Uno de los aspectos innovadores de la QV se ubica en el desarrollo de la Biocatálisis, tecnología en la que los microorganismos actúan como verdaderas fábricas de productos orgánicos o suministran las enzimas que serán usadas como catalizadores, en procesos con condiciones menos drásticas que las usadas en los procesos tradicionales. Otro de los campos con aportaciones novedosas es el empleo de gases en estado supercrítico para la sustitución de solventes orgánicos, como medio de reacción y como limpiadores.149 Por lo que la química verde es …• Científicamente consistente,• Económicamente eficiente, y • Conduce hacia una civilización sostenible. “La clave para la química verde está en que las compañías no la hagan porque el gobierno las fuerza sino porque es más barata, más redituable y a los clientes les gusta” Paul Anastas, director de the Green Chemistry Institute, American Chemical Society.150 148 EPA Green Chem www.epa.gov/greenchemistry

149 E . J . B E C K M A N “Oxidation Reactions in CO2: Academic Exercise or Future Green Processes?” * Environ. Sci. Technol. 2003, 37, 5289-5296 150 Pollution Prevention via Green Chemistry; EPA Green Chem www.epa.gov/greenchemistry

159

XXII.- La Ingeniería Química Verde Los productos de la industria química, particularmente a lo largo del siglo XX, contribuyeron en gran medida a la consecución de mejores condiciones de vida para la humanidad, lo que entre otras causas, condujo a una mayor expectativa de vida y al crecimiento de la población mundial. Esto incrementó la demanda de productos químicos y además propició la innovación, que trajo nuevos materiales al mercado y nuevos procesos, los cuales no siempre fueron evaluados correctamente y muchas veces se ignoraron sus posibles efectos tanto sobre la salud humana como sobre el medio ambiente. Como una respuesta a esta problemática surgió la iniciativa de la Producción más limpia y posteriormente la Química Verde, enfoques con los que busca disminuir y en lo posible erradicar los factores de riesgo implícitos en el desarrollo y la obtención de los productos químicos, nuevos y tradicionales, por medio de rutas de reacción y el empleo de materiales inocuos y procesos más seguros. 151 La Ingeniería Verde. Los conceptos y los principios de la química verde propuestos por Anastas y Warner en su texto de 1998152 Constituyeron la base para el enunciado de los 12 principios de la Ingeniería Verde, principios y práctica que conformarían los cimientos de la Ingeniería Química Verde para el diseño sustentable de productos, procesos y sistemas. . Los 12 principios de la Ingeniería Verde153 1.- Inherente más que circunstancial Los diseñadores necesitan esforzarse para asegurar, en la medida de lo posible, que todas las entradas y salidas de materiales y energía sean inocuos. La inocuidad debe ser inherente, no solo circunstancial. Minimizar las consecuencias negativas de las sustancias, tóxicas, físicas o globales, tiene costos significativos de equipo, materiales energía y tiempo. 2.- Prevenir en lugar de tratar. Es mejor prevenir la generación de desechos que tratarlos o limpiarlos después de haberlos producido154i. La propuesta de cero desechos, para los procesos de manufactura o sistemas de servicios, se sustenta en que desechos o basura son un concepto humano que nada tiene que ver con la energía o la sustancia misma, sino con la carencia de usos, los que hay que imaginar y poner en práctica. Además la generación y el manejo de desechos, más aun los peligrosos, consumen tiempo, esfuerzo y dinero. 3.- Diseño para la separación Las operaciones de separación y purificación deben diseñarse para minimizar el uso de materiales y el consumo de energía. La separaciones y purificación de los productos 151 M A R Y M . K I R C H H O F F *Green Chemistry Institute, American Chemical Society,1155 Sixteenth Street, Washington, D.C. 20036. (Environ. Sci. Technol. 2003, 37, 5349-5353) 152Paul T. Anastas y John C. Warner, Green Chemistry: Theory and Practice, New York: Oxford University Press, 1998, p 30 153 *Anastas, P.T., and Zimmerman, J.B., "Design through the Twelve Principles of Green Engineering", Env. Sci. Tech.2003, 37(5), 94A-101A. 154 Anastas y Zimmerman op cit MARCH 1, 2003 / ENVIRONMENTAL SCIENCE & TECHNOLOGY ■ 101 A

160

consumen generalmente la mayor proporción de energía y materiales de un proceso: solventes peligrosos, altas presiones y temperaturas. 4.-Maximizar la eficiencia. Los productos, procesos y sistemas deberán ser diseñados para maximizar la eficiencia de masa, energía, espacio y tiempo. En procesos ineficientes se emplea más tiempo, espacio, energía o masa de lo estrictamente necesario. Las consecuencias se presentarán a lo largo de los ciclos de vida de procesos y productos 5.-Jalar a la salida mejor que empujar a la entrada. Los productos procesos y sistemas, mediante el uso de materiales y energía, deben ser preferentemente “jalados” por las salidas más bien que “empujados” por las entradas. En una reacción, para mejorar la conversión, es mejor ”jalar”, reduciendo la concentración, por remoción del producto que “empujar” por el aumento de la concentración de reactivos. 6.- Conservar la complejidad. La Entropía y la complejidad implícitas deben ser vistas como una inversión en la selección de opciones de diseño de recirculación, reuso o tratamiento. 7.- Durabilidad mejor que inmortalidad. Durabilidad como objetivo y no inmortalidad, debe ser una meta de diseño. Diseñar productos con vistas a la utilidad, recirculación o reuso de residuos y desechos. Los productos deben durar el tiempo necesario para efectuar la función que originó su diseño y no durar más para convertirse en problemas de salud ambiental o humana. 8.- Satisfacer la necesidad evitar el exceso. Diseños con capacidad excesiva o de volumen innecesario se consideran una falla de diseño. El sobrediseño ocasiona elevación de los costos ambientales, de materia y energía. 9.- Minimizar la diversidad de materiales. La diversidad de materiales en productos multicomponente debe minimizarse para promover el desarmado y la retención de valor. 10.- Integrar los flujos de materiales y energía. El diseño de productos, procesos y sistemas debe incluir integración e interconectividad con la energía asequible y los flujos de materiales. Diseñar tomado en cuenta los materiales y la energía localmente disponibles. Emplear los subproductos como reactivos en otros procesos, generar redes de intercambio para aprovechar el calor o generar electricidad 11.- Diseñar para comercialización después del uso. Productos, procesos y sistemas deben ser diseñados para un desempeño comercial después de su vida útil (ser usados). 12.- Renovable más que agotable. Materiales y energía deben ser renovables más que agotables.155 El origen, renovable o no-renovable, de los suministros de materia y energía es determinante en la sustentabilidad de productos procesos y sistemas. Los no renovables tienden a agotarse, pero también los recursos renovables pueden agotarse cuando se les explota más allá de su capacidad de reproducción. 155 Ricardo Lobo, “Sustentabilidad “ AMIDIQ 2005

161

Posteriormente, como resultado de una conferencia de ingenieros sobre Ingeniería Verde* surgió otra propuesta que se condensó en 9 principios: 1.- Practicar holísticamente la ingeniería de productos y procesos, usar el análisis de sistemas e integrar herramientas para la evaluación del impacto ambiental. 2.- Conservar y mejorar los ecosistemas naturales en tanto que se proteja la salud y el bienestar humanos. 3.- Pensar en el ciclo de vida para todas las actividades de ingeniería. 4.- Asegurar que todas las entradas y salidas de materia y energía sean inherentemente seguras y benignas en la medida de lo posible. 5.- Minimizar la disminución de los recursos naturales. 6.- Esforzarse por prevenir los desechos. 7.- Desarrollar y aplicar soluciones de ingeniería que tomen en cuenta las culturas, aspiraciones y la geografía local. 8.- Crear soluciones de ingeniería más allá de las tecnologías en uso o dominantes: mejorar, innovar e inventar (tecnologías) para alcanzar la sustentabilidad. 9.- Involucrar activamente a comunidades y participantes en el desarrollo de soluciones de ingeniería.156 *as developed by more than 65 engineers and scientists at the Green Engineering: Defining the Principles Conference, held in Sandestin, Florida in May of 2003. The preliminary principles forged at this multidisciplinary conference are intended for engineers to use as a guidance in the design or redesign of products and processes within the constraints dictated by business, government and society such as cost, safety, performance and environmental impact.

Como puede observarse, ambas series pueden ser consideradas como complementarias y son una guía para el ejercicio de la profesión. De manera muy especial en el diseño de nuevos procesos y productos, pero también en la cotidianidad de la operación, experiencia diaria cuya recopilación sienta las bases para el mejoramiento, la reingeniería y el ajuste fino de las condiciones de operación. El papel de la ingeniería química verde La Ingeniería Verde surge con el objetivo de vincular de manera más amigable las actividades de ingeniería, particularmente en la industria química, con la naturaleza. Ya en 2003 157 se propuso como una actividad importante para la Ingeniería Química Verde (IQV), la búsqueda de rutas de síntesis adecuadas para minimizar los peligros y las exposiciones a las materias primas, productos y desechos por medio de tecnologías alternativas y productos químicos más amigables con el medio ambiente. Los primeros intentos de hacer IQV se dieron, a partir de “la producción más limpia”, con actividades que se ha dado en llamar “al final del tubo”, por hacer hincapié más en la 156 Abraham, M; Nguyen, N. “Green engineering: Defining principles” _ Results from Sandestin conference, Evironmental Progress 2004, 22, 233-236. http://www.acs.org/content/acs/en/greenchemistry/what-is-green-chemistry/principles/sandestin-declaration.html 157 EPA (Environmental Protection Agency) Agencia de protección ambiental de los EUA.

http://www.epa.gov/oppt/greenengineering/pubs/basic_info.html. Ver también: EPA's, Green Engineering: Environmentally Conscious Design of Chemical Processes, Prnetice Hall

http://www.epa.gov/oppt/greenengineering/pubs/textbook_contents.html

162

minimización y en el tratamiento de desechos, que en la eliminación o reducción de las causas (inicio del tubo) que provocan los impactos sobre la salud humana y del ambiente. La IQV se presenta como la aplicación de la ciencia, la tecnología y la innovación al diseño, la producción, la comercialización y el uso de productos y procesos, los cuales en tanto que factibles económicamente, deberán minimizar, desde el origen, la posible generación de contaminación y reducir o eliminar los riesgos para la salud humana y el medio ambiente. Desde este punto de vista la IQV tiene como un objetivo principal la protección de la salud humana y del medio ambiente y considera que las medidas preventivas, cuando se aplican en las etapas tempranas del desarrollo y diseño de productos y procesos, pueden ser mas efectivas e incidir positivamente en los costos. Actualmente, junto con los aportes de la química verde, la investigación ha progresado de tal suerte que se conocen mejor los mecanismos de transporte y permanencia, tanto de los compuestos originales como los que resultan de su descomposición o metabolismo, por lo que sus posibles impactos sobre la salud humana y el medio ambiente pueden ser evaluados con mayor precisión. Un aspecto importante en la búsqueda de la sustentabilidad es la educación y en el caso particular la formación de ingenieros químicos verdes. Con este objetivo un grupo de investigadores norteamericanos propuso un curso y redactó un texto para “El diseño ambientalmente consciente de procesos químicos” que son, sin duda, un paso adelante en el camino de armonizar a la sociedad humana del antropoceno con la naturaleza integradas en el sistema tierra. El texto Green Engineering: Environmentally Conscious Design of Chemical Processes, fue dividido en tres partes: En la primera se presenta una introducción sobre los temas ambientales, el concepto de riesgo, las regulaciones legales, la prevención de la contaminación, así como el papel y responsabilidades de los ingenieros químicos en el contexto ambiental. La segunda parte aborda el tema de la evaluación y el mejoramiento del comportamiento ambiental del diseño de procesos químicos a través de evaluar el destino ambiental con base en las estructuras químicas, la evaluación de las exposiciones y la aplicación de la química verde. También se propone la evaluación del comportamiento ambiental durante la síntesis de procesos y del diagrama de flujo, así como la prevención de la contaminación en las operaciones unitarias y en el análisis del diagrama de flujo, para concluir con la contabilidad de costos ambientales. La tercera parte propone avanzar más allá de lo límites de la planta para ir los conceptos del ciclo de vida, el cuidado (Stewardship) de producto, la ingeniería verde y la ecología industrial.158 158

David R.Shonnard,et al. “Green Engineering Education through a U.S. EPA/Academia Collaboration” Environ. Sci. Technol.

2003, 37, 5453-5462 También Green Engineering: Environmentally Conscious Design of Chemical Processes, Prentice Hall ISBN# 0-13-061908-6 http://www.epa.gov/oppt/greenengineering/pubs/textbook.html

163

La Ingeniería química verde y el futuro En la medida en que La Ingeniería Química Verde contribuya al alivio de la contaminación ambiental, y logre integrar los objetivos de protección medioambiental en el diseño de productos y procesos, contribuirá positivamente a la tracisión hacia una sociedad sustentable. Habrá que tomar en cuenta que el futuro es algo que se desarrolla cotidianamente ante nosotros. De seguir las tendencias actuales de crecimiento en el consumo se presentarán problemas, entre otros: la escasez de agua dulce en los grandes centros urbanos y en la agricultura de algunas zonas, el agotamiento de los recursos no renovables, el aumento de la contaminación ambiental, del calentamiento global y de la degradación del medio ambiente. Si se mantiene una actitud pasiva, la catástrofe puede ocurrir. Conseguir-construir un futuro menos ominoso o más promisorio para la humanidad, exige de la producción de conocimientos que conduzcan al diseño y construcción de sistemas más eficientes e integrados amigablemente al medio ambiente, mediante la aplicación de la ciencia, la tecnología, la innovación y la ingeniería. “El papel de los ingenieros y diseñadores en todas las escalas... desde la molecular y los productos , hasta los procesos y sistemas esta siendo central en la determinación de cómo se verá el mañana. La ingeniería verde – ingeniería para la sustentabilidad- usa las mismas tradiciones de brillantez, innovación y creatividad, las cuales son el legado de las disciplinas de la ingeniería dentro del contexto y perspectiva del beneficio social ambiental y económico”159 (la triple línea base) Hay que observar que a pesar de que en los últimos años se han dado grandes avances en la comprensión de los sistemas que componen nuestro entorno y la relación humanidad-naturaleza, aun falta mucho por hacer, tanto desde el punto de vista empírico: monitoreo, medición, análisis y caracterización, aunados a las propuestas de solución científico-tecnológicas y su evaluación a través del análisis de sistemas, de la simulación con modelos matemáticos, proyectos piloto y escalamientos que den cauce a las soluciones reales que urgen. A los ingenieros químicos del futuro se les plantea un reto: la concepción de nuevas tecnologías y su manejo experto para salir al paso de los nuevos problemas ambientales y de salud que la introducción de los nuevos productos pueden traer consigo. En la actualidad las bases del diseño parten de un conocimiento más preciso, tanto de las especies y las reacciones químicas involucradas en el proceso, como de los mecanismos implicados en el proceso mismo y en su posible impacto ambiental. A lo anterior habrá que sumar las tendencias en la producción y los impactos del uso de los

159 Anastas Paul T.

“Green engineering and sustainability” © 2003 American Chemical Society DECEMBER 1, 2003 / ENVIRONMENTAL

SCIENCE & TECHNOLOGY ■ 423 A

Anastas P. (Environ. Sci. Technol. 2003, 37, 94A–101A). Ver Green Chemistry blog: http://blogs.rsc.org/gc/

164

productos y los residuos. No está por demás insistir que para cada nuevo producto, para cada nuevo proceso, resulta de capital importancia la la aplicación, como condiciones de diseño, tanto del principio precautorio como del análisis de riesgo y el análisis del ciclo de vida. Condiciones de diseño, que deberán ser aplicadas a la manufactura, procesamiento, uso e impacto de la exposición al producto en la salud humana y el medio ambiente, a partir de información recolectada directamente del medio ambiente o la obtenida de modelos que simulen la actividad humana y la de los trabajadores expuestos. También se hace necesario incorporar en las condiciones de diseño las posibles consecuencias sociales, económicas, tecnológicas y políticas del proyecto en cuestión. El análisis de los resultados del diseño permitirá estimar los efectos adversos y en consecuencia fundamentar las decisiones sobre el seguimiento del proyecto o la búsqueda de alternativas más seguras.160





160

http://www.epa.gov/oppt/greenengineering/pubs/basic_info.html - pagetop

165

XXIII.- Ética y Sustentabilidad.

En nuestros días se hecho evidente que la Humanidad se encuentra en una encrucijada ha la que ha sido conducida principalmente por la dicotomía, largamente sostenida por la civilización, establecida entre el ser humano y la naturaleza. Al considerar a la naturaleza como algo ajeno, extraño e incluso amenazador, la sociedad humana se ha empeñado en dominarla y utilizarla para sus propios fines. A partir de la revolución industrial la dominación y la depredación de la naturaleza se acentuaron y en último siglo, con la expansión de la población mundial y el desarrollo de la producción y el consumo, los recursos naturales, renovables y no renovables, se mostraron exhaustos y resaltó su finitud. Ante esta situación se ha vuelto imperativo un cambio en los modos de producir y de consumir para restaurar la armonía entre el género humano y su entorno.161 Las reuniones cumbre auspiciadas por la ONU, de Río en 1992, de Kyoto, de Johanesburgo, de Río+20 y otras más, en las que se ha insistido en la visión de 1987 del Informe Brundlandt sobre el desarrollo sustentable, han confirmado que la ecología es Ecología Política y que el “desarrollo sustentable” sólo busca atenuar las consecuencias sin tomar en cuenta, realmente, los límites físicos y biológicos de los ecosistemas. Lo anterior ha llevado a varios investigadores a señalar que la sustentabilidad es en esencia un problema moral, tal manera que la posibilidad de alcanzarla se ubica en el campo de la ética: “Las políticas del desarrollo sostenible buscan armonizar el proceso económico con la conservación de la naturaleza favoreciendo un balance entre la satisfacción de necesidades actuales y las de las generaciones futuras… Sin embargo, estos preceptos del “desarrollo sostenible” no se han traducido en una ética como un cuerpo de normas de conducta que reoriente los procesos económicos y políticos hacia una nueva racionalidad social y hacia formas sustentables de producción y de vida. ”162, 163 La Ética La ética se puede ver como un conjunto de reglas, principios o valores humanos relacionados con el “ethos humano” que guían el quehacer teórico-práctico de la actividad humana. También son un conjunto de reglas y principios, o valores morales, que norman la conducta de un conjunto social: como la ética médica, etc. O bien: “La rama de la filosofía que trata de los valores relacionados con la conducta humana con respecto a la rectitud o lo erróneo de ciertas acciones o de la bondad o maldad de los motivos y fines de tales acciones.”164 “El fin de la ética no es el conocimiento, sino la acción…” “El ser humano pertenece a la comunidad” 161 Carta de la Tierra. México [email protected] • www.earthcharter.org Secretaría de Medio Ambiente y Recursos Naturales, México DF 2007 162 Leff, E. Coordinador: “Ética, Vida, Sustentabilidad” Pensamiento Ambiental Latinoamericano, Primera edición:

2002 314- 331. © Programa de las Naciones Unidas para el Medio Ambiente 163 Elizalde H, A “ÉTICA AMBIENTAL” Universidad Bolivariana, Santiago de Chile http://www2.inecc.gob.mx/publicaciones/libros/363/cap17.html 164 Webster

166

Aristóteles: Ética Nicomaquea. “Toda ética debe tender a la liberación y perfección del individuo” Hegel La Ética.. “El ser humano forma parte de un Todo que se llama Universo, una parte limitada en el tiempo y en el espacio”. A.Einstein. El concepto de ética ambiental entraña el respeto y el amor por la vida y abarca no solamente a los seres vivos, sino al planeta en su conjunto, que constituye el espacio y el tiempo de la vida y del desenvolvimiento del sistema tierra. Entre los valores que deberían servir de guía para los seres humanos entre sí y en su relación con la vida y el planeta se pueden proponer los siguientes: 1.- Los seres humanos deberán ser capaces de construir una cultura adaptable a las nuevas circunstancias. 2.- La tecnología, la innovación y su empleo se dará dentro de los límites marcados por el respeto a la naturaleza con inclusión de la sociedad humana. 3.- Guiarse por una ética social que garantice la armonía. Los seres humanos siempre han vivido en sociedad. 4.- Una producción para la vida que satisfaga las necesidades y no una vida para la producción. 5.- Igualdad social, diferencia y equidad en la distribución como base para el equilibrio entre los seres humanos y con la naturaleza. 6.- Conducta regida por la simbiosis y no por la competencia. 7.- Libertad para crear, no para destruir 8.- La ciencia como actividad interdisciplinaria y conocimiento que se difunde. Entender el mundo para transformarlo sin daño. 9.- Construir el ámbito de la tolerancia, del respeto a la diferencia, a la otredad. 10.- La sensibilidad como cultura. No basta con entender al mundo, hay que aprender a disfrutarlo.165 En la Carta de la Tierra se proponen una serie de 16 principios agrupados en cuatro apartados que describen los objetivos fundamentales: I.- Respeto y cuidado de la comunidad de la vida´ II.- Integridad ecológica III.-Justicia social y económica. IV.- Democracia, no violencia y paz. Ética de la sustentabilidad o Ética sustentable: Si se considera en su acepción más amplia la sustentabilidad es una guía para la acción de los seres humanos entre sí, comprometidos con su sobrevivencia y la de las generaciones futuras, en armonía con la naturaleza, por lo que las actividades encaminadas a su consecución son ”intrínsecamente buenas” . Por el contrario, el uso y abuso indiscriminado, así como la mala distribución de los recursos y los daños ambientales entrañan una responsabilidad moral. Tal 165 Tréllez S. E.”Ética Ambiental, una tarea por la vida” Centro de recursos ambientales de Navarra.

167

responsabilidad debiera se asumida por los seres humanos en tanto que son : “la naturaleza que cobra conciencia de si misma”, es decir que son el sujeto que habrá de realizar el cambio. Así la ética de la sustentabilidad o la ética sustentable supera y engloba la ética ambiental, pues va más allá de los principios conservacionistas para incidir en las cuestiones éticas enraizadas en las diversas identidades, culturas, ideologías, valores, sentimientos así como en las relaciones entre los seres humanos en tanto que individuos, etnias, conjuntos sociales, naciones y población mundial en su conjunto.166 .” La ética debe ser una ética creativa, capaz de reconstruir pensamientos y sentimientos hacia la vida y la buena vida… La ética recrea al ser para devolverle … la voluntad de poder ser, de querer ser… no de la supervivencia de los seres vivos, sino de la recreación de la vida humana.”167 No se trata de una ética que, alejada del antropocentrismo, se dirija a los ecosistemas y al orbe, sino que en tanto que producto de la conciencia humana sea capaz de generar una serie de derechos y obligaciones que establezcan con precisión y claridad las relaciones de las diversas comunidades humanas, entre sí y con los habitats y sus límites, en los que sus culturas e historias han cobrado presencia (vida). No se trata de establecer los “derechos de la naturaleza” sino de promover la conciencia de los valores humanos culturales -históricos, tradicionales- que traducidos en acciones permitan la recuperación de los daños y el florecimiento de los ecosistemas, en el tiempo y el espacio del antropoceno. Lo que supone el reconocimiento de las dinámicas y los tiempos necesarios, propios de cada uno de los procesos que se dan en la sociedad, la naturaleza ya sean biológicos económicos o culturales: tiempos para la vida, la reproducción, la sustentabilidad… “La ecología se ha vuelto política, lo que significa que pone en juego las formas de propiedad, posesión, usufructo, producción y apropiación social de la naturaleza” Ahora, luego de revisar la ética en uno de su planos mas generales (universal) resulta conveniente ir al nivel de lo particular y dar una mirada a la ética en el plano de la IQ. Ética e ingeniería: Si como se señaló anteriormente la ética no es un cuerpo teórico, sino más bien una guía para la acción y el ser humano es por necesidad un sujeto social, es decir que pertenece a una comunidad, en la que se desenvuelve cotidianamente en relación con sus semejantes, principalmente en el trabajo. La Ingeniería es una disciplina que nace para hacer en la naturaleza y de la naturaleza un habitat más acogedor para los seres humanos. Con ese objetivo, ya desde la antigüedad se realizaron grandes obras: acueductos, caminos, murallas, canales, lagos artificiales, etc. Mientras la humanidad se mantuvo en relativo equilibrio con la naturaleza, la madre tierra, las obras de ingeniería dejaron apenas cicatrices sobre su superficie. Pero vino la revolución industrial y el hombre se volvió en la idea cartesiana “amo y señor de la naturaleza” y a la manera feudal usó y abusó de ella. Las obras de ingeniería comenzaron a dejar marcas imborrables y a modificar irreversiblemente tanto la biósfera como la litósfera. 166

Lucas Seghezzo Ética y sustentabilidad, Universidad Nacional de Salta (UNSa), Argentina, Contacto: [email protected] 167 Leff E.”Ética por la vida” Polis [En línea], 13 | 2006, Puesto en línea el 13 agosto 2012,

168

Actualmente ya no es aceptable hacer ingeniería al margen de la ética sustentable: toda obra entraña la responsabilidad moral de respeto a la tierra, al agua, al aire, a los ecosistemas y a la cultura de las comunidades. Ética e Ingeniería Química Una proporción elevada de los ingenieros químicos del mundo se dedican al diseño de productos y procesos así como a la operación de las plantas destinadas a la producción a gran escala de productos para satisfacer necesidades sociales en los órdenes más diversos y prácticamente en toda la superficie del globo. En sus funciones, que van desde el diseño hasta el hasta la promoción de productos en el mercado tienen bajo su responsabilidad asegurarse de que tanto en los orígenes de las materias primas así como en los destinos del producto, los efluentes y los desechos, no se producirán daños a la salud humana o al medio ambiente. En caso de que se pueda suponer o se tenga la certeza de algún riesgo, es responsabilidad del ingeniero químico comunicarlo oportuna y objetivamente, para que sean tomadas las medidas pertinentes y los posibles daños sean evitados o minimizados.168 La supervisión del destino de los materiales no termina en los límites de la planta. El análisis del ciclo de vida abarca también las etapas de transporte, de consumo, de recirculación, si es factible y la gestión de los desechos, tratamiento o nuevo proceso.169 Por lo tanto, para el ingeniero químico constituye una norma primordial de conducta: Velar por la seguridad, la salud y el bienestar de las personas y proteger el medio ambiente durante la realización de sus tareas profesionales. Esforzarse permanentemente por incrementar sus conocimientos y habilidades. Aceptar la responsabilidad por sus acciones y colocar por encima de consideraciones económicas la salud, la seguridad y el bienestar de colegas, colaboradores, comunidad cercana, público en general y medio ambiente. Diseñar productos y procesos, apegados a los principios de la “Ingeniería Verde”, que sean inocuos para la salud humana y para el medio ambiente. La operación de plantas deberá llevarse a cabo en condiciones de seguridad para evitar daños a la salud humana y al medio ambiente.170,171,172 Así los ingenieros químicos, en el ejercicio de sus funciones, deberán guiarse tanto por los principios éticos de la sustentabilidad como por los principios éticos particulares de su comunidad. 168 AIChE AIChE Code

of Ethics (Revised January 17, 2003)

169 Shonard ,D.R. “The roles and Responsabilities of Chemical Engineers” in Green

Engineering: Environmentally Conscious Design of Chemical Processes, Ch4Prentiss Hall SBN# 0-13-061908-6 170 Anastas, op cit Design Green 96 A ■ ENVIRONMENTAL SCIENCE & TECHNOLOGY / MARCH 1, 2003 171 Méndez M. “The role o Ch.E. in Green Engineering” Chemical Engineering Dec 2007 172

AIChE Code of Ethics (Revised January 17, 2003)



169



170

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF