Fisicoquímica.pdf

September 16, 2017 | Author: edgarhdzgaspar1987 | Category: Chemical Thermodynamics, Nature, Applied And Interdisciplinary Physics, Physical Chemistry, Physics
Share Embed Donate


Short Description

Download Fisicoquímica.pdf...

Description

Contenidos Artículos Fisicoquímica

1

Física Química

3

Actividad acuosa

4

Afinidad química

5

Amagat

8

Bateo de oro

9

ChemCatChem

10

Chemical Physics Letters

12

Termodinámica química

13

ChemPhysChem

19

Coalescencia

20

Coalescencia (química)

21

Cociente de reacción

21

Coeficiente de difusión

23

Coeficiente osmótico

23

Condiciones estándar (química)

24

Condiciones normales de presión y temperatura

24

Conductividad (electrolítica)

25

Descomposición espinodal

29

Difusión (física)

33

Dipolos permanentes

34

Disolvente

36

Dispersión dinámica de luz

41

Dispersión estática de luz

41

Ecuación de Langmuir

42

Efecto anomérico

43

Efecto Baker-Nathan

44

Efecto isotópico cinético

45

Efecto Jahn-Teller

48

Efectos del disolvente

50

Efusión

54

Electrodo de referencia

55

Electrolito

55

Espectroscopia

58

Espectroscopia de resonancia magnética nuclear

62

Espín-Orbital

68

Estado triplete

68

Factor de van't Hoff

70

Femtoquímica

71

Fenómenos cuánticos macroscópicos

72

Fenómenos de transporte

82

Fisisorción

84

Fonón

85

Fraccionamiento de polímeros

86

Fuerza iónica

87

Función de distribución radial

88

Historia de la electroquímica

93

Modelo de iones móviles

97

Isomería conformacional

98

Isoterma de adsorción

101

Isoterma de Freundlich

102

Isoterma de Temkin

103

Journal of Chemical Physics

103

Journal of Physical Chemistry A

105

Journal of Physical Chemistry B

106

Journal of Physical Chemistry Letters

107

Issa Katime

108

Gilbert N. Lewis

113

Ley de Avogadro

114

Ley de distribución de Nernst

117

Ley de Henry

118

Magnitud molar parcial

118

Marcado isotópico

119

Max Volmer

120

Merle Randall

121

Método de Hartree-Fock

122

Modelo de Piepho-Krausz-Schatz

124

Método de orbitales moleculares como una combinación lineal de orbitales atómicos

124

Método Hückel

126

Orbital molecular

128

Ósmosis

131

Oxígeno singlete

139

Oxígeno triplete

142

Paracoro

144

Permeabilidad selectiva

145

Polaridad (química)

145

Polarizabilidad

147

Potencial de Galvani

149

Potencial de unión líquida

152

Potencial zeta

154

Presión osmótica

155

Quimiosmosis

166

Regla de Bredt

169

Regla de Konowaloff

170

Reglas de Baldwin

170

Saturación (química)

173

Semivida de eliminación

174

Sobre el equilibrio de las substancias heterogéneas

175

Sobresaturación

178

Soluto

179

Tensión anular

179

Teoría de Marcus

181

Transferencia electrónica (química)

184

Vibración molecular

184

Volatilidad (química)

186

Índice de contaminación modificado

187

Índice de densidad de sedimentos

188

Referencias Fuentes y contribuyentes del artículo

189

Fuentes de imagen, Licencias y contribuyentes

192

Licencias de artículos Licencia

195

Fisicoquímica

Fisicoquímica La fisicoquímica, también llamada química física, es una subdisciplina de la química que estudia la materia empleando conceptos físicos y químicos. Según el renombrado químico estadounidense Gilbert Lewis, "la fisicoquímica es cualquier cosa interesante", con lo cual probablemente se refería al hecho de que muchos fenómenos de la naturaleza con respecto a la materia son de principal interés en la físicoquímica. La fisicoquímica representa una rama donde ocurre un cambio de diversas ciencias, como la química, la física, termodinámica, electroquímica y la mecánica cuántica donde funciones matemáticas pueden representar interpretaciones a nivel molecular y atómico estructural. Cambios en la temperatura, presión, volumen, calor y trabajo en los sistemas, sólido, líquido y/o gaseoso se encuentran también relacionados a estas interpretaciones de interacciones moleculares. El físico estadounidense del siglo XIX Willard Gibbs es también considerado el padre fundador de la fisicoquímica, donde en su publicación de 1876 llamada On the Equilibrium of Heterogeneous Substances (Estudio sobre el equilibrio de sustancias heterogéneas) acuñó términos como energía libre, potencial químico, y regla de las fases, que años más tarde serían de principal interés de estudio en esta disciplina. La fisicoquímica moderna tiene firmes bases en la física pura. Áreas de estudio muy importantes en ella incluyen a la termoquímica (termodinámica química), cinética y dinámica química, química cuántica, mecánica estadística, electroquímica, magnetoquímica, energética, química del estado sólido y de superficies, y espectroscopia. La fisicoquímica forma parte fundamental en el estudio de la ciencia de materiales.

Historia de la fisicoquímica La fisicoquímica no se constituyó como especialidad independiente de la química hasta principios del siglo XX. Se pueden tomar como punto de partida de la nueva especialidad las fechas de creación de dos de las primeras revistas que incorporaron este nombre a su título: la alemana Zeitschrift für physicalische Chemie dirigida por Wolfgang Ostwald (1853-1932) y Jacobus Henricus Van't Hoff (1850-1930), que comenzó su publicación en 1887, y la estadounidense Journal of Physical Chemistry dirigida por Wilder Dwight Bancroft (1867-1953) desde 1896. A pesar de ello, durante todo el siglo XIX se realizaron notables aportaciones a algunos de los campos que habitualmente suelen reunirse bajo la fisicoquímica, tales como la electroquímica, la termoquímica o la cinética química. La obra de Alessandro Volta (1745-1827), especialmente la pila que lleva su nombre, fue el punto de partida de muchos trabajos en los que se estudió los efectos de la electricidad sobre los compuestos químicos. A principios del siglo XIX, Humphry Davy (1778-1829) hizo pasar la corriente eléctrica a través de sosa y potasa fundida, lo que le permitió estudiar dos nuevos metales: el sodio y el potasio. Su principal discípulo y su sucesor en la Royal Institution fue Michael Faraday (1791-1867), que continuó las investigaciones de su maestro. En un artículo publicado en 1834, Faraday propuso sus dos conocidas leyes sobre la electrólisis. La primera afirma que la cantidad de sustancia que se deposita en un electrodo es proporcional a la cantidad de carga eléctrica que atraviesa el circuito. En su segunda ley, Faraday afirma que la cantidad de carga eléctrica que provoca el desprendimiento de un gramo de hidrógeno produce el desprendimiento de una cantidad igual al equivalente electroquímico de otras sustancias. Los trabajos realizados por Antoine Lavoisier (1743-1794) y Pierre-Simon Laplace (1749-1827) son habitualmente considerados como el punto de partida de la termoquímica. Diseñaron un nuevo instrumento, el calorímetro, en el que podía realizar mediciones sobre la cantidad de "calórico" desprendido durante las reacciones químicas. Laplace y Lavoisier pensaban que el calórico era uno de los elementos imponderables y que los gases eran compuestos de calórico y el elemento correspondiente. En la primera mitad del siglo XIX, la idea del calórico fue abandonada y comenzaron a realizarse las investigaciones que permitieron el establecimiento de las leyes de la termodinámica. La

1

Fisicoquímica aplicación de estas investigaciones a los procesos químicos permitió el surgimiento de la termoquímica, gracias a la obra de autores como Marcelin Berthelot (1827-1907) o Henry Le Châtelier (1850-1936). Uno de los primeros trabajos dedicados al estudio de la cinética química fue el realizado por Ludwig Ferdinand Wilhelmy (1812-1864) sobre la velocidad de cambio de configuración de determinados azúcares en presencia de un ácido. A mediados del siglo XIX, Wilhelmy llegó a la conclusión de que la velocidad del cambio era proporcional a la concentración del azúcar y del ácido y que también variaba con la temperatura. La colaboración entre un químico, George Vernon Harcourt (1834-1919), y un matemático, William Esson (1838-1916), permitió la introducción de ecuaciones diferenciales en el estudio de la cinética química. Esson fue el introductor de los conceptos de reacciones de "primer orden", cuya velocidad es proporcional a la concentración de un solo reactivo, y de reacciones de "segundo orden", en las cuales la velocidad es proporcional al producto de dos concentraciones. En los últimos años del siglo XIX, los trabajos de Jacobus Henricus Van't Hoff (1852-1911) tuvieron una gran influencia en este y otros campos de la química. Entre sus aportaciones, se encuentra la introducción del "método diferencial" para el estudio de la velocidad de las reacciones químicas y su famosa ecuación que permite relacionar la velocidad y la temperatura de la reacción. El desarrollo de la mecánica cuántica y su aplicación al estudio de los fenómenos químicos ha sido uno de los cambios más notables que se han producido en la química del siglo XX. Entre los científicos que más aportaciones han realizado en este sentido se encuentra Linus Pauling, autor de libros tan significativos como su Introduction to Quantum Mechanics, With applications to Chemistry (1935) o The Nature of the Chemical Bond and the Structure of Molecules and Crystals (1939). Entre otras muchas aportaciones, Linus Pauling fue el introductor de nuestro concepto moderno de electronegatividad.

Fisicoquímicos destacados • • • • • • • • • • • • • • • •

Linus Pauling Svante Arrhenius Peter Debye Erich Hückel J.W. Gibbs J.H. van 't Hoff Lars Onsager Wilhelm Ostwald Paul John Flory Jonathan Flower Joachim Sauer P.W. Atkins (1978). Physical Chemistry. Oxford University Press. ISBN 0-7167-3539-3. R.J. Hunter (1993). Introduction to Modern Colloid Science. Oxford University Press. ISBN 0-19-855386-2. M. Díaz Peña, A. Roig Muntaner (1984). Química Física. Alhambra. Madrid. ISBN 84-205-0569-2. J. Bertran Rusca, J. Núñez Delgado (2002). Química Física. Ariel, Barcelona. ISBN 84-344-8050-6. Laidler, K.J. (1993). The World of Physical Chemistry. University Press, Oxford.

2

Física Química

Física Química La Física Química es una subdisciplina que investiga fenómenos físicoquímicos usando técnicas de la Física atómica y molecular, y de la Física del estado sólido; es la rama de la Física que estudia los procesos químicos desde el punto de vista de la física. Aunque se encuentra en la interfaz entre Física y Química, la Física Química es distinta de la Química física por el hecho de que se enfoca en los elementos y teorías característicos de la física. A su vez, la Química física estudia la naturaleza física de la química. Sin embargo, la distinción entre estos dos campos es vaga, y los que trabajan en ellos a menudo realizan prácticas en ambos campos durante el curso de sus investigaciones.

Lo que hacen los físicos químicos En general, los físicos químicos investigan la y la dinámica de iones, radicales libres, "clusters", moléculas y polímeros. Las áreas de estudio incluyen el comportamiento cuántico de las reacciones químicas, el proceso de solvatación, el flujo de energía inter- e intra-molecular, y entidades simples como los puntos cuánticos. Los físicos químicos experimentales usan una variedad de técnicas espectroscópicas para entender mejor el enlace de hidrógeno, la transferencia de electrones, la formación y desintegración de enlaces químicos, las reacciones químicas y la formación de nanopartículas. Los físicos químicos teóricos crean simulaciones de los procesos moleculares investigados en estos experimentos tanto para explicar los resultados como para guiar investigaciones futuras. Las metas de la investigación física química incluyen la comprensión de las estructuras y reacciones al nivel de mecánica cuántica, el esclarecimiento de la estructura y reactividad de los iones y radicales en fase gaseosa, y el descubrimiento de aproximaciones exactas para hacer computacionalmente accesible la física de los fenómenos químicos. Los físicos químicos están buscando respuestas para preguntas como: • ¿Se pueden probar experimentalmente las predicciones de la mecánica cuántica respecto a la vibración y rotación de moléculas sencillas? • ¿Se pueden desarrollar métodos más exactos para calcular la estructura electrónica y las propiedades de las moléculas? • ¿Podemos entender las reacciones químicas a partir de principios fundamentales? • ¿Por qué los puntos cuánticos parpadean (en un patrón que sugiere cinética fractal) después de absorber fotones de luz? • ¿Cómo tienen lugar realmente las reacciones químicas? • ¿Cuál es el proceso paso a paso que ocurre cuando una molécula aislada se solvata? • ¿Pueden usarse las propiedades de iones negativos para determinar estructuras moleculares, comprender la dinámica de las reacciones químicas, o explicar la fotodisociación? • ¿Por qué una corriente de rayos X blandos arranca suficientes electrones de los átomos de un cluster de xenón para causar que el cluster explote?

Campos relacionados • • • • • •

Fisicoquímicaeres gayuántica]] Física del estado sólido Espectroscopía Fuerzas intermoleculares Ciencia de superficies Moléculas de van der Waals

3

Física Química

4

Publicaciones • Chemical Physics Letters • Journal of Chemical Physics

Actividad acuosa Actividad acuosa (denominada también «actividad de agua») se define como la relación que existe entre la presión de vapor de un alimento dado en relación con la presión de vapor del agua pura a la misma temperatura. Se denomina por regla general como aw del idioma inglés Water activity, aw ). La actividad acuosa es un parámetro estrechamente ligado a la humedad del alimento lo que permite determinar su capacidad de conservación, de propagación microbiana, etc. La actividad acuosa de un alimento se puede reducir aumentando la concentración de solutos en la fase acuosa de los alimentos mediante la extracción del agua (liofilización) o mediante la adición de nuevos solutos. La actividad acuosa junto con la temperatura, el pH y el oxígeno son los factores que más influyen en la estabilidad de los productos alimenticios.

Definición formal Una definición más formal de la actividad acuosa, representada por aw:

La actividad acuosa es considerada como parámetro en el estudio de la química de los alimentos.

Características Existen diversos factores que controlan la actividad acuosa de un sistema. Los efectos coligativos de las especies disueltas (como puede ser por ejemplo la sal o el azúcar) la interacción dipolar, iónica, o de enlace de hidrógeno con las moléculas de agua. Los efectos de capilaridad cuando el vapor de agua sobre el menisco es menor que en el agua pura debido a las interacciones de puente de hidrógeno entre las moléculas de agua. La interacciones de superficie interaccionan directamente con los enlaces de las substancias disueltas o en suspensión (como puede ser el almidón o las proteinas) mediante fuerzas dipolares de los enlaces iónicos (H3O++ o OH-), fuerzas de Van der Waals (enlaces hidrofóbicos) y enlaces de hidrógeno. La combinación de estos tres factores en los productos alimenticios hace que se reduzca la energía del agua y se reduzca igualmente la humedad relativa comparada con el agua pura. Estos factores pueden ser agrupados en dos amplias categorías: efectos de ósmosis y de matriz.

Actividad acuosa

5

Bibliografía • Fennema, O.R., Ed. (1985). Food Chemistry - Second Edition, Revisado y Expandido. New York: Marcell Dekker, Inc. pp. 46-50. • Water Activity of Some Foods and Susceptibility to Spoilage by Microorganisms [1], 30 May 2007

Referencias [1] http:/ / www. decagon. com/ aw/ microbes

Afinidad química En química física, la afinidad química puede ser definida como las propiedades electrónicas por las que especies químicas disímiles son capaces de formar compuestos químicos.[1] La afinidad química también puede referirse a la tendencia de un átomo o compuesto para combinarse por una reacción química con átomos o compuestos de composición distinta. Según el historiador químico Henry Leicester, el influyente libro de texto de 1923 Thermodynamics and the Free Energy of Chemical Reactions (Termodinámica y Energía Libre de las Reacciones Químicas) por Gilbert N. Lewis y Merle Randall condujo a la sustitución del término "afinidad" por el término "energía libre" en la mayor parte del mundo angloparlante.

Concepciones modernas En términos modernos, relacionamos afinidad al fenómeno en el que ciertos átomos o moléculas tienen la tendencia a agregarse o enlazarse. Por ejemplo, en el libro de 1919 Chemistry of Human Life (La Química de la Vida Humana), el fisiólogo George W. Carey enuncia: La salud depende de una cantidad apropiada de fosfato de hierro Fe3(PO4)2 en la sangre, porque las moléculas de esta sal tienen afinidad química por el oxígeno, y lo transportan a todas las partes del organismo. En este contexto anticuado, se encuentra que la afinidad química es sinónimo con el término "atracción magnética". Muchos escritos, hasta cerca de 1925, también se refieren a la "ley de afinidad química".

Termodinámica En 1923, el matemático y físico belga Théophile de Donder derivó una relación entre la afinidad libre de Gibbs

y la energía

de una reacción química. A través de una serie de derivaciones, de Donder mostró que si se

considera una mezcla de especies químicas con la posibilidad de que haya una reacción química, puede probarse que se conserva la siguiente relación:

Con los escritos de Théophile de Donder como precedente, Ilya Prigogine y Defay en su Chemical Thermodynamics (Termodinámica Química) de 1954, definieron la afinidad química (denotada por ), como una función de los incrementos en el calor de reacción incompensado y la variable del progreso de la reacción (denotadas por

y

, respectivamente):       (1). Esta definición es útil para cuantificar los factores responsables tanto para el estado de los sistemas en equilibrio (donde ), y para los cambios de estado de los sistemas que no están en equilibrio (donde ).

Afinidad química La definición IUPAC actual de la afinidad química es: El negativo de la derivada parcial de la energía de Gibbs con respecto a la extensión de la reacción a temperatura y presión constante. Es positiva para reacciones espontáneas.[2]

Historia Históricamente, la "afinidad química" se refiere a la "fuerza" que origina una reacción química.[3] Una definición más amplia, usada generalmente a través de la historia, es que la afinidad química es donde las sustancias entran o resisten la descomposición. El siguiente enunciado, hecho por Ilya Prigogine, resume el concepto de afinidad:

Todas las reacciones químicas llevan al sistema a un estado de equilibrio en el que las afinidades de las reacciones se desvanecen El término afinidad ha sido usado figurativamente desde cerca a 1600 en discusiones de relaciones estructurales en química, filología, etc., y hay referencias a "atracción natural" desde 1616. La idea de afinidad es extremadamente antigua. Muchos intentos se han hecho en la identificación de sus orígenes. Sin embargo, la mayoría de esos intentos, excepto en modos generales, terminan en futilidad dado que las ‘afinidades’ yacen en una base plenamente mágica, en consecuencia precediendo a la ciencia.[4] Sin embargo, la química física fue una de las primeras ramas de la ciencia en estudiar y formular una "teoría de la afinidad". El nombre affinitas fue usado primero en el sentido de relación química por el filósofo alemán Alberto Magno cerca del año 1250. Posteriormente, Robert Boyle, John Mayow, Johann Glauber, Isaac Newton, y Georg Stahl adelantaron ideas sobre la afinidad electiva en intentos de explicar cómo está involucrado el calor durante las reacciones de combustión.[5] El término moderno afinidad química es una variante algo modificada de sus precursores "afinidad electiva" o atracciones electivas, del siglo XVIII, acuñado por el químico sueco Torbern Olof Bergman de su libro De attractionibus electivis (1775). Antoine Lavoisier, en su famoso Traitée Élémentaire de Chimie (Tratado elemental de química) de 1790, hace referencia al trabajo de Bergmann y discute el concepto de afinidades o atracciones electivas. Goethe usó el concepto en su novela Las afinidades electivas, de 1809.

6

Afinidad química

Tabla de afinidades de Geoffroy de 1718 La primera tabla de afinidades, que estaba basada en reacciones de desplazamiento, fue publicada en 1718 por el químico francés Étienne François Geoffroy. Su nombre está más asociado en conexión con estas tablas de "afinidades" (tables des rapports), que fueron presentadas por primera vez a la Academia Francesa en 1718 y 1720, como se muestra a continuación:

Tabla de Afinidades de Geoffroy (1718): en la cabecera de cada columna está una sustancia con la que todas las sutancias abajo se pueden combinar, donde cada columna debajo de la cabecera está ranqueada por grados de "afinidad".

Estas fueron listadas, preparadas por observaciones colacionando las acciones de las sustancias sobre otras, mostrando los diversos grados de afinidad exhibidos por cuerpos análogos para diferentes reactivos y mantuvieron este perfil por el resto del siglo, hasta que fueron desplazados por las concepciones más profundas introducidas por Claude Berthollet.

Referencias [1] [2] [3] [4] [5]

Chemical Affinity (http:/ / www. 1911encyclopedia. org/ Chemical_affinity) - Britannica 1911 IUPAC Green Book and Gold Book in .pdf (http:/ / www. IUPAC. org) Thomas Thomson. (1831). A System of Chemistry, vol. 1. p.31 (chemical affinity is described as an "unknown force"). 7th ed., 2 vols. Malthauf, R. P. (1966). The Origins of Chemistry. Pg. 299. London. Partington, J.R. (1937). A Short History of Chemistry. New York: Dover Publications, Inc. ISBN 0-486-65977-1

Lecturas posteriores Algunos libros importantes sobre la alquimia de Newton, puesto que él fue uno de los principales ponentes de la teoría de la afinidad química, son: 1. Dobbs, Betty Jo Teeter. The Foundations of Newton's Alchemy: or, "The Hunting of the Greene Lyon". Cambridge: Cambridge University Press, 1975. ISBN 0-521-20786-X

7

Afinidad química

8

2. Dobbs, Betty Jo Teeter. The Janus Faces of Genius: the Role of Alchemy in Newton's Thought. Cambridge: Cambridge University Press, 1991. ISBN 0-521-38084-7

Notas • The excerpt from Janus Faces at (http://www.loc.gov/catdir/samples/cam031/91008695.pdf) includes a discussion of the historiographical issue of Newton's alchemy and footnotes that provide a starting bibliography on Newton's alchemy. • Este artículo es una obra derivada de la edición de 1911 de la Encyclopædia Britannica, disponible sin restricciones conocidas de derecho de autor. Esta obra derivada se encuentra disponible bajo las licencias GNU Free Documentation License (http://www.gnu.org/licenses/fdl.html) y Creative Commons Atribución-CompartirIgual 3.0 Unported.

Enlaces externos • Chemical Affinity and Absolute Zero (http://nobelprize.org/nobel_prizes/chemistry/laureates/1920/press. html) - Alocución en presentación al Premio Nóbel de Química por Gerard de Geer • Elements, Principles and the Narrative of Affinity (http://72.14.203.104/ search?q=cache:V8hWHBu0njMJ:eprints.dur.ac.uk/archive/00000085/01/Eddy_elements.rtf+Louis+ Lemery&hl=en&ct=clnk&cd=10&gl=us) – Revisión Ensayo

Amagat Un amagat es una unidad práctica de densidad numérica. Aunque puede aplicarse a cualquier sustancia en cualquier condición, se define como el número de moléculas de gas ideal por unidad de volumen a 1 atm (= 101,325 kPa) y 0 °C (= 273,15 K). Recibe su nombre en honor de Émile Amagat, de quien también recibe su nombre la ley de Amagat.

Definición La densidad numérica, η, está definida como , donde n0 = 1 amagat = 2,686 7774×1025 m−3 = 44,614 981 mol/m3 es la constante de Loschmidt. En la práctica, la densidad numérica de un gas ideal a presión P y temperatura T puede calcularse como[1] , donde T0 = 273,15 K y P0 = 101,325 kPa.

Amagat

9

Ejemplo La densidad numérica de un gas ideal a temperatura ambiente (20 °C) y 1 atm (101,325 kPa) es .

Referencias [1] En esta fórmula, se deben utilizar las unidades absolutas de presión y temperatura, relativas al vacío y al cero absoluto.

Enlaces externos • Esta obra deriva de la traducción de Amagat de la Wikipedia en inglés, concretamente de esta versión del 14 de marzo de 2013 (http://en.wikipedia.org/wiki/Amagat?oldid=544203258), publicada por sus editores (http:// en.wikipedia.org/wiki/Amagat?action=history) bajo la Licencia de documentación libre de GNU y la Licencia Creative Commons Atribución-CompartirIgual 3.0 Unported.

Bateo de oro Bateo de oro es la extracción de oro de un caudal de agua mediante el uso de una batea que se llena de arena sumergiéndola en la corriente, removiendo con la mano se desprende de la grava hasta dejar sólo la arena y las posible pepitas de oro. Los arrastres hacen que el agua rompa las piedras de cuarzo liberando las pepitas de oro que llevan dentro. Una vez liberadas, estas pepitas son laminadas por los cantos rodados, que son arrastrados por los cauces de los ríos, quedando divididas en múltiples y pequeñas partículas. El mayor peso del oro hace que las partículas de oro se depositen en los fondos de los saltos de agua y en los remansos de los recodos de los ríos, fuera de las corrientes fuertes.

Batea americana.

deportiva.

Referencias Para técnicas de bateo de oro ver [1]

El bateo de oro era un sistema de extracción del oro de forma artesanal y origen ancestral. En la actualidad, debido a su baja rentabilidad, olvidando su primigenia finalidad económica, como minería extractiva, ha pasado a tener una finalidad turística, lúdica y

Bateo de oro

10

Bateo de oro en Chattahoochee, Georgia, EE.UU.

Referencias [1] http:/ / www. uv. es/ ~rgasco/ nueva/ bateo. htm

ChemCatChem ChemCatChem País

 Alemania

Idioma

Inglés

Especialidad

Química de catálisis

Abreviatura

ChemCatChem

Año de fundación 2009 Desarrollo Editor

Bert Weckhuysen Uwe Bornscheuer Luis A. Oro

Publicador

John Wiley & Sons Circulación

Frecuencia

Mensual

Factor de impacto 3,345 (2010) ISSN

ISSN 1867-3899 1867-3880, 1867-3899

ISSN-e

ISSN 1867-3899

LCCN

LCCN 2009204183

CODEN

CHEMK3

OCLC

OCLC 459787771 [5]

[2] [3]

[4]

[1]

ChemCatChem ChemCatChem (abreviado como ChemCatChem) es una revista científica mensual, revisada por pares, que publica artículos sobre la química de los catalizadores.[6] La revista pertenece a la 'Editorial Union of Chemical Societies (EUChemSoc), una organización que agrupa a 14 sociedades europeas de química pertenecientes a diversos países.[7] que la edita junto a Gesellschaft Deutscher Chemiker (GDCh, Alemania) y la German Catalysis Society (GeCatS) De acuerdo con el Journal Citation Reports, el factor de impacto de esta revista era 3,345 en 2010. Los editores son Bert Weckhuysen (Universidad de Utrecht), Uwe Bornscheuer (Universidad de Greifswald) y Luis A. Oro (Universidad de Zaragoza).[8] ChemCatChem es una revista hermana de las publicaciones Angewandte Chemie, ChemMedChem, ChemBioChem, y ChemPhysChem.

Objetivos y temas La revista publica trabajos de investigación primaria y revisiones sobre catálisis homogénea, heterogénea, así como de biocatálisis. Sus autores y lectores provienen tanto del mundo académico, como de la industria química y laboratorios gubernamentales en todo el mundo.

Referencias [1] [2] [3] [4] [5] [6] [7] [8]

http:/ / www. worldcat. org/ issn/ 1867-3880, http:/ / www. worldcat. org/ issn/ 1867-3899 http:/ / lccn. loc. gov/ 2009204183 http:/ / www. worldcat. org/ oclc/ 459787771 http:/ / www3. interscience. wiley. com/ journal/ 122208635/ home Ligne éditoriale (http:/ / www3. interscience. wiley. com/ journal/ 122208635/ home/ ProductInformation. html) ChemPubSoc Europe (http:/ / www. wiley-vch. de/ vch/ journals/ 2111/ chempubsoc-eu. html) Bureau éditorial (http:/ / www3. interscience. wiley. com/ journal/ 122208635/ home/ 2491_edbd. html)

11

Chemical Physics Letters

12

Chemical Physics Letters Chemical Physics Letters País

 Reino Unido

Idioma

Inglés

Especialidad

Química física

Abreviatura

Chem. Phys. Lett. CPL

Año de fundación 1967 Desarrollo Editor

D. C. Clary M. Okumura R.J. Saykally V. Sundström

Publicador

Elsevier Science Circulación

Frecuencia

36 números al año

Factor de impacto 2,280 (2010) ISSN

ISSN 1873-4448 0009-2614, 1873-4448

ISSN-e

ISSN 1873-4448

LCCN

LCCN 78002023

CODEN

CHPLBC

OCLC

OCLC 1553982

[1]

[2] [3]

[4]

[5]

Chemical Physics Letters es una revista científica, revisada por pares, que publica artículos de investigación en todas las áreas de la Fisicoquímica. Cada año se publican 36 números, es decir, la periodicidad es aproximadamente decenal. Es publicada desde 1967 por Elsevier. Según el Journal Citation Reports, el factor de impacto de esta revista era 2,291 en 2009 y 2,280 en 2010.[6] Los actuales editores de la publicación son David C. Clary (Universidad de Oxford, Reino Unido), M. Okumura (Instituto de Tecnología de California, Pasadena (California), Estados Unidos), R.J. Saykally (Universidad de California en Berkeley, EE.UU.), Villy Sundström (Universidad de Lund, Suecia)[7]

Chemical Physics Letters

Referencias [1] [2] [3] [4] [5] [6]

http:/ / www. worldcat. org/ issn/ 0009-2614, http:/ / www. worldcat. org/ issn/ 1873-4448 http:/ / lccn. loc. gov/ 78002023 http:/ / www. worldcat. org/ oclc/ 1553982 http:/ / www. sciencedirect. com/ science/ journal/ 00092614 Factores de impacto de las revistas de Química Física y espectroscopia, editadas por Elsevier. (http:/ / about. elsevier. com/ impactfactor/ author-reports-4674055/ webpage/ author-webpage-4674055. html) [7] Editorial board. (http:/ / www. elsevier. com/ wps/ find/ journaleditorialboard. cws_home/ 505707/ editorialboard)

Enlaces externos • Sitio web de la revista (http://www.elsevier.com/wps/find/journaldescription.cws_home/505707/ description#description) • Elsevier (http://www.elsevier.com/) • Revistas de Elsevier (http://web.archive.org/web/http://www.elsevier.com/wps/find/ subject_journal_browse.cws_home/P04?SH1Code=P04&showProducts=Y)

Termodinámica química Termodinámica química es el estudio de la interrelación entre el calor y el trabajo con reacciones químicas o con cambios físicos del estado dentro de los confines de las leyes termodinámicas. La termodinámica química involucra no sólo mediciones de varias propiedades termodinámicas en el laboratorio, sino también la aplicación de métodos matemáticos al estudio de preguntas químicas y a la espontaneidad de los procesos. La estructura de la química termodinámica está basada en las primeras dos leyes de la termodinámica. Comenzando a partir de la primera y segunda ley de la termodinámica, cuatro expresiones matemáticas llamadas "ecuaciones fundamentales de Gibbs" se pueden obtener. A partir de estas cuatro, gran cantidad de ecuaciones relacionadas con propiedades termodinámicas del sistema termodinámico pueden ser derivadas utilizando matemáticas relativamente sencillas. Esto delinea la infraestructura matemática de la termodinámica química.

Historia

13

Termodinámica química

14

En 1865, el físico alemán Rudolf Clausius en su Teoría Mecánica del Calor sugirió que los principios de la termoquímica, por ejemplo el calor producido en reacciones de combustión, podían ser aplicados a los principios de la termodinámica.[1] Ampliando el trabajo de Clausius, entre los años 1873 y 1876 el físico-matemático americano Willard Gibbs publicó una serie de tres artículos, siendo el más famoso de ellos En el Equilibrio de Sustancias Heterogéneas. En estos artículos, Gibbs mostró cómo las primeras dos leyes de la termodinámica podían ser medidas de manera gráfica y matemática para determinar tanto el equilibrio termodinámico de las reacciones químicas como su respectiva tendencia a ocurrir o proceder. La colección de artículos de Gibbs proporcionó el primer cuerpo unificado de teoremas termodinámicos a partir de los principios desarrollados por otros, tales como Clausius y Sadi Carnot. J. Willard Gibbs – fundador de la termodinámica química A inicios del siglo XX, dos grandes publicaciones aplicaron exitosamente en procesos químicos los principios desarrollados por Gibbs y fue así como se estableció el fundamento para la ciencia de la termodinámica química. La primera publicación fue el libro de texto de 1923 Termodinámica y la Energía Libre de las Sustancias Químicas por Gilbert N. Lewis y Merle Randall. Este libro fue responsable de reemplazar afinidad química por el término energía libre en el mundo del habla inglés. La segunda fue el libro de 1933 Termodinámica Moderna por los métodos de Willard Gibbs escrito por E. A. Guggenheim. En esta manera, Lewis, Randall y Guggenheim son considerados como los fundadores de la termodinámica química moderna debido a la gran contribución que generaron estos dos libros en unificar la aplicación de la termodinámica a la química.

Resumen El principal objetivo de la termodinámica química es la creación de un criterio para la determinación de la viabilidad o espontaneidad de una transformación dada.[2] De esta manera, la termodinámica química es comúnmente utilizada para predecir los intercambios de energía que ocurren en los siguientes procesos: 1. Reacciones químicas 2. Cambios de fase 3. La formación de soluciones Las siguientes funciones de estado son la principal preocupación en la termodinámica química: • • • •

Energía interna (U) Entalpía (H) Entropía (S) Energía libre de Gibbs (G)

Muchas identidades en la termodinámica química surgen de la aplicación de la primera y segunda leyes de la termodinámica, particularmente la ley de la conservación de energía a estas funciones de estado. Las 3 leyes de la termodinámica: 1. La energía del universo es constante. 2. En cualquier proceso espontáneo siempre hay un incremento de la entropía en el universo. 3. La entropía de un cristal perfecto en el 0 kelvin es cero.

Termodinámica química

Energía química Energía química es el potencial de una sustancia química para experimentar una transformación a través de una reacción química o para transformar otras sustancias químicas. Romper o generar enlaces químicos implica energía, la cual puede ser absorbida o generada de un sistema químico. La energía que puede ser liberada (o absorbida) debido a una reacción entre un conjunto de sustancias químicas es igual a la diferencia entre el contenido energético en los productos y reactivos. Este cambio en la energía es llamado el cambio en la energía interna de una reacción química. Donde es la energía interna de la formación de moléculas de reactivos que puede ser calculado a partir de las energías de enlace de varios enlaces químicos de las moléculas bajo consideración y es la energía interna de la formación de las moléculas de producto. El cambio en la energía interna de un proceso es igual al cambio de calor si es medido bajo condiciones de volumen constante, así como en un contenedor rígido tal como una bomba calorimétrica. Sin embargo, bajo condiciones de presión constante, como reacciones en recipientes abiertos a la atmósfera, el cambio de calor medido no siempre es igual al cambio de energía interna, ya que el trabajo presión-volumen también libera o absorbe energía. (El cambio de calor a presión constante es llamado cambio de entalpía; para este caso la entalpía de formación). Otro término útil es el calor de combustión, el cual es la energía liberada debido a una reacción de combustión y es comúnmente aplicado en el estudio de combustibles. La comida es similar a combustibles hidrocarburo y carbohidrato y cuando se oxida su contenido calórico es similar (sin valorarlo de la misma forma que un hidrocarburo). En termodinámica química el término utilizado para la energía potencial química es potencial químico y para la transformación química una ecuación sumamente utilizada es la ecuación Gibbs-Duhem.

Reacciones químicas En muchos casos de interés en la termodinámica química existen grados de libertad internos y procesos como reacciones químicas y transiciones de fase, las cuales siempre generan entropía a menos que se encuentren en equilibrio o mantenidas en un "equilibrio constante" a través de cambios "cuasi-estáticos" al ser sumados a dispositivos limitantes como pistones o electrodos, con el fin de entregar y recibir trabajo externo. Incluso para materiales "bulto" homogéneos las funciones de energía libre dependen de la composición, así como potenciales termodinámicos extensivos, incluyendo la energía interna. Si las cantidades { Ni }, el número de especies químicas son omitidos de la fórmula, es imposible describir cambios en la composición.

Función Gibbs Para un sistema "bulto" (no estructurado) hay variables extensivas. Para un sistema "bulto" homogéneo no estructurado, aún hay varias variables composicionales "extensivas" { Ni } que G depende de, el cual especifica la composición, la cantidad de cada sustancia química, expresada como el número de moléculas presentes o (divididas por el número de Avogadro), el número de moles.

Para el caso en donde únicamente PV realizan trabajo es posible

en donde μi es el potencial químico para el i-ésimo componente en el sistema

La expresión para dG es muy útil a T y P constantes, condiciones que son fáciles de alcanzar de manera experimental y que aproximan la condición en criaturas vivientes

15

Termodinámica química

Afinidad química Mientras esta formulación es matemáticamente justificable, no es particularmente clara desde que no se puede de manera simple remover o añadir moléculas de un sistema. Siempre hay un proceso involucrado en cambiar la composición; por ejemplo, una (o varias) reacciones químicas o movimiento de moléculas de una fase (líquida) a otra (gas o sólida). Debemos encontrar la notación que no parezca insinuar que la cantidad de componentes ( Ni } puede ser cambiado de manera independiente. Todos los procesos reales obedecen a la conservación de masa y además, la conservación del número de átomos de cada clase. Sin importar las moléculas transferidas hacia o desde, deben considerarse parte del "sistema". Consecuentemente se introduce una variable explícita para representar el grado de avance de un proceso, una variable de progreso,  ξ para el alcance de la reacción (Prigogine & Defay, p. 18; Prigogine, pp. 4–7; Guggenheim, p. 37.62), y para el uso de la derivada parcial ∂G/∂ξ (en lugar del muy utilizado "ΔG", desde que la cantidad en cuestión no es una carga finita). El resultado es una clara expresión para la dependencia de dG en reacciones químicas (u otros procesos). Si hay sólo una reacción

Si introducimos el coeficiente estequiométrico para el i-ésimo componente en la reacción

que dice cuántas moléculas de i son producidas o consumidas, obtenemos una expresión algebraica para la derivada parcial

donde, (De Donder; Progoine & Defay, p. 69; Guggenheim, pp. 37,240), se introduce un histórico y conciso nombre para esta cantidad, la "afinidad", simbolizada con una A, introducida por Théophile de Donder en 1923. El signo menos viene de la aseveración de que la afinidad fue definida para representar la regla acerca de que los cambios espontáneos siempre ocurren cuando el cambio en la energía libre de Gibbs del proceso es negativo, significando que las especies químicas tienen una afinidad positiva entre ellas. El diferencial para G toma una forma simple que muestra su dependencia en el cambio composicional

Si hay un número de reacciones químicas llevándose a cabo de manera simultánea, como es el caso de

una serie de reacciones coordinan { ξj }, evadiendo la idea que de la cantidad de componentes ( Ni } puede ser cambiado de manera independiente. Las expresiones mostradas anteriormente son iguales a cero en el equilibrio termodinámico, mientras que en el caso general para sistemas reales son negativos, ya que todas las reacciones químicas generadas en un rango finito produce entropía. Esto se puede hacer aún más explícito al introducir los rangos de la reacción dξj/dt. Para cada y todo proceso físicamente independiente (Prigogine & Defay, p. 38; Prigogine, p. 24)

Este es un resultado significativo desde que los potenciales químicos son variables intensivas de un sistema, dependiendo sólo del entorno local molecular. No pueden "saber" si la temperatura y presión (u otras variables de sistema) van a ser constantes a lo largo del tiempo. Es un criterio puramente local y debe permanecer a pesar de

16

Termodinámica química cualquier otra constante. Por supuesto pudo ser obtenido al tomar derivadas parciales de cualquier otra de las funciones fundamentales de estado, pero no obstante es un criterio general para (−T veces) la producción de entropía de un proceso espontáneo o al menos cualquier parte de la misma que no es tomada como trabajo externo. (Ver Restricciones abajo). Ahora dejamos descansar el requerimiento de un sistema “bulto” homogéneo al permitir que los potenciales químicos y la afinidad aplicada a cada localidad en que una reacción química (o cualquier otro proceso) está llevándose a cabo. Tomando en cuenta la producción de entropía debido a procesos irreversibles, la desigualdad para dG es ahora reemplazada por una igualdad

o

Cualquier disminución en la función Gibbs de un sistema es el límite superior para cualquier trabajo isotérmico, isobárico que pueda ser capturado en los alrededores, o podría ser simplemente disipado, mostrándose como T veces un incremento correspondiente en la entropía del sistema y/o su entorno. O podría en parte ir hacia un trabajo externo y parte hacia crear entropía. El punto importante es que el alcance de reacción para una reacción química debe ser emparejado con el desplazamiento de una cantidad mecánica o eléctrica externa de una manera en que una pueda avanzar únicamente si la otra lo hace. El emparejamiento puede ser ocasionalmente rígido, pero es a menudo flexible y variable.

Soluciones En solución química y bioquímica, la energía libre de Gibbs decrece (∂G/∂ξ, en unidades molares, denotada de forma críptica por ΔG) es comúnmente utilizada como un sustituto para (−T veces) la entropía producida por reacciones químicas espontáneas en situaciones donde no se ha realizado trabajo, o al menos no trabajo "útil"; por ejemplo, aparte de, quizás alguna ± PdV. La afirmación de que toda toda reacción espontánea tiene una ΔG negativa es simplemente una reafirmación de la relación termodinámica fundamental, otorgándole las dimensiones físicas de energía y en cierto modo oscureciendo su significado en términos de entropía. Cuando no hay un trabajo útil que se realice, será menos engañoso utilizar las transformaciones Legendre de la entropía apropiadas para la constante T o para la constante T y P, las funciones Massieu −F/T y −G/T respectivamente.

No equilibrio Generalmente los sistemas tratados con la termodinámica química convencional están en equilibrio o cerca de éste. Ilya Prigogine desarrolló el tratamiento termodinámico de sistemas abiertos que están lejos del equilibrio. Realizando este trabajo descubrió fenómenos y estructuras de tipos completamente nuevos e inesperados. Su termodinámica generalizada, no linear e irreversible encontró sorprendentes aplicaciones en una gran variedad de campos. La termodinámica del no equilibrio ha sido aplicada para explicar cómo estructuras ordenadas, por ejemplo sistemas biológicos, pueden desarrollarse a partir del desorden. Aún si las relaciones Onsager son utilizadas, los principios clásicos del equilibrio en termodinámica todavía muestran que los sistemas lineales cercanos al equilibrio siempre desarrollan estados de desorden que son estables ante perturbaciones y no pueden explicar la existencia de estructuras ordenadas. Prigogine llamó a estos sistemas sistemas disipativos porque están formados y sostenidos por procesos disipativos que se llevan a cabo debido al intercambio de energía entre el sistema y su ambiente y porque desaparecen si ese intercambio se interrumpe. Comúnmente se dice que viven en simbiosis con su ambiente.

17

Termodinámica química El método que Prigogine utilizó para estudiar la estabilidad de las estructuras disipativas frente a perturbaciones es de gran interés general. Hace posible el estudio de problemas variados como problemas de tránsito en la ciudad, la estabilidad de comunidades de insectos, el desarrollo de estructuras biológicas ordenadas y el crecimiento de las células cancerosas por mencionar algunos ejemplos.

Restricciones del sistema En esta consideración, es esencial entender el rol de las paredes y otras restricciones y la distinción entre procesos independientes y acoplamiento. Contrario a las claras implicaciones de varias fuentes de referencia, el análisis previo no está restringido a sistemas bulto homogéneos e isotrópicos que pueden entregar únicamente trabajo PdV al mundo exterior, pero aplica a los sistemas más estructurados. Existen sistemas complejos con muchas "reacciones" químicas ocurriendo al mismo tiempo, algunas de las cuales son sólo partes del proceso general. Un proceso "independiente" es el que "puede" llevarse a cabo incluso si otros son inexplicablemente detenidos en su camino. Entendiendo esto probablemente como un “experimento de ideas” en cinética química, pero ejemplos actuales existen. Una reacción de gas que resulta en un incremento en el número de moléculas conducirá a un incremento en el volumen a una presión externa constante. Si ocurre dentro de un cilindro cerrado con un pistón, la reacción equilibrada puede proceder sólo realizando trabajo en contra de una fuerza externa en el pistón. La variable extensiva para la reacción puede incrementar sólo si el pistón se mueve y a la inversa, si el pistón es presionado hacia dentro entonces la reacción se lleva a cabo al revés. De manera similar, una reacción redox puede ocurrir en una celda electroquímica con el paso de corriente en los cables que conectan los electrodos. Las medias reacciones en la celda y electrodos están restringidas si no existe corriente que fluya en la celda. La corriente puede ser disipada como calor en joules o puede utilizarse como un dispositivo eléctrico, por ejemplo motor realizando trabajo mecánico. Una batería de automóvil plomo-ácido se puede recargar, conduciendo la reacción química de manera inversa. En este caso la reacción no es un proceso independiente. Algunas, posiblemente la mayoría, de las reacciones con energía libre de Gibbs pueden distribuirse como trabajo externo. La hidrólisis del ATP a ADP y fosfato puede conducir el trabajo fuerza distancia entregado por músculos vivos y la síntesis del ATP es conducida por una cadena redox en la mitocondria y cloroplastos, que involucran el transporte de iones cruzando las membranas de éstos organelos celulares. El emparejamiento de los procesos aquí y en los ejemplos siguientes es a menudo incompleto. El gas puede fugarse lentamente de un pistón, justo como si pudiera fugarse lentamente de un globo de caucho. Algunas reacciones pueden ocurrir en la batería aún si no fluye corriente externa. Usualmente hay un coeficiente de emparejamiento, el cual depende de índices relativos y que determina el porcentaje de la energía libre manejada convertida en trabajo externo o capturada como "trabajo químico"; un nombre poco apropiado para la energía libre de otro proceso químico.

Referencias [1] Clausius, R. (1865). The Mechanical Theory of Heat – with its Applications to the Steam Engine and to Physical Properties of Bodies. London: John van Voorst, 1 Paternoster Row. MDCCCLXVII. [2] Klotz, I. (1950). Chemical Thermodynamics. New York: Prentice-Hall, Inc.

Lectura adicional • Herbert B. Callen (1960). Thermodynamics. Wiley & Sons. The clearest account of the logical foundations of the subject. ISBN 0-471-13035-4. Library of Congress Catalog No. 60-5597 • Ilya Prigogine & R. Defay, translated by D.H. Everett; Chapter IV (1954). Chemical Thermodynamics. Longmans, Green & Co. Exceptionally clear on the logical foundations as applied to chemistry; includes non-equilibrium thermodynamics.

18

Termodinámica química

19

• Ilya Prigogine (1967). Thermodynamics of Irreversible Processes, 3rd ed. Interscience: John Wiley & Sons. A simple, concise monograph explaining all the basic ideas. Library of Congress Catalog No. 67-29540 • E.A. Guggenheim (1967). Thermodynamics: An Advanced Treatment for Chemists and Physicists, 5th ed. North Holland; John Wiley & Sons (Interscience). A remarkably astute treatise. Library of Congress Catalog No. 67-20003 • Th. De Donder (1922). Bull. Ac. Roy. Belg. (Cl. Sc.) (5) 7:  pp. 197, 205.

Links externos • Chemical Thermodynamics (http://www.shodor.org/UNChem/advanced/thermo/index.html) - University of North Carolina • Chemical energetics (http://www.chem1.com/acad/webtext/chemeq/) (Introduction to thermodynamics and the First Law) • Thermodynamics of chemical equilibrium (http://www.chem1.com/acad/webtext/thermeq/) (Entropy, Second Law and free energy)

ChemPhysChem ChemPhysChem País

 Alemania

Idioma

Inglés

Especialidad

Química física

Abreviatura

ChemPhysChem

Año de fundación 2000 Desarrollo Editor

Frans C. De Schryve James T. Hynes

Publicador

John Wiley & Sons Circulación

Frecuencia

18 números por año

Factor de impacto 3,339 (2010) ISSN

ISSN 1439-7641 1439-4235, 1439-7641

ISSN-e

ISSN 1439-7641

LCCN

LCCN 00256045

CODEN

CPCHFT

OCLC

OCLC 45745048

[1]

[2] [3]

[4]

[5]

ChemPhysChem (abreviado como ChemPhysChem) es una revista científica revisada por pares que publica artículos sobre química física.[6] La revista pertenece a la 'Editorial Union of Chemical Societies (EUChemSoc), una organización que agrupa a 14 sociedades europeas de química pertenecientes a diversos países.[7]

ChemPhysChem De acuerdo con el Journal Citation Reports, el factor de impacto de esta revista era 3,339 en 2010. Los directores de publicación son Frans C. De Schryve (Katholieke Universiteit Leuven, Bélgica) y James T. Hynes (Escuela Normal Superior de París, Francia).[8] La revista Single Molecules ISSN 1438-5163 [9], publicada de forma independiente desde el año 2000 a 2002, se ha incorporado a ChemPhysChem en 2003.[10]

Referencias [1] http:/ / www. worldcat. org/ issn/ 1439-4235, [2] http:/ / www. worldcat. org/ issn/ 1439-7641 [3] http:/ / lccn. loc. gov/ 00256045 [4] http:/ / www. worldcat. org/ oclc/ 45745048 [5] http:/ / www3. interscience. wiley. com/ journal/ 72514732/ home [6] Línea editorial (http:/ / www3. interscience. wiley. com/ journal/ 72514732/ home/ ProductInformation. html) [7] ChemPubSoc Europe (http:/ / www. wiley-vch. de/ vch/ journals/ 2111/ chempubsoc-eu. html) [8] Bureau éditorial (http:/ / www3. interscience. wiley. com/ journal/ 72514732/ home/ 2267_edbd. html) [9] http:/ / www. worldcat. org/ issn/ 1438-5163 [10] Archives de Single Molecule (http:/ / www3. interscience. wiley. com/ journal/ 69502447/ toc)

Coalescencia La coalescencia es la posibilidad de que dos o más materiales se unan en un único cuerpo. El término es comúnmente utilizado para explicar los fenómenos de soldadura, en particular de metales. Durante la denominada soldadura por fusión, mediante acción térmica, se puede conseguir la coalescencia de granos parcialmente fundidos y formar un único sistema de cristales. El metal fundido permanece en contacto con los bordes de las superficies de unión parcialmente fundidas. A partir de los granos originales (volúmenes tridimensionales de la misma estructura cristalina, pero con distintas direcciones cristalográficas) se produce un crecimiento de solidificación epitaxial que permite la coalescencia cristalina de la unión y que las superficies de los materiales se unan.

La coalescencia en geografía física En un valle tectónico (o mejor, depresión tectónica o graben), los ríos o torrentes que llegan al fondo del valle procedentes de las cordilleras laterales llevan una gran cantidad de sedimentos, por lo que forman extensos conos de deyección o abanicos aluviales que casi siempre se superponen unos con otros al no coincidir exactamente en el tiempo las épocas de crecida: el torrente que tenga la mayor crecida acarreará más sedimentos que pueden llegar a superponerse a los conos de deyección vecinos y cuando las lluvias más intensas coinciden en la cuenca del torrente vecino sucederá lo contrario. Ello se traduce, en las líneas de contacto entre los dos abanicos aluviales, en una serie de depósitos intercalados entre sí que, con el tiempo, da origen a una estratificación cruzada.

20

Coalescencia (química)

21

Coalescencia (química) En química, la coalescencia es el proceso en el que dos dominios de fase de composición esencialmente idéntica entran en contacto para formar un dominio de fase mayor. Se puede citar a título de ejemplo las gotas de mercurio que se reensamblan rápidamente cuando se tocan para formar una sola gota. También se puede citar una mezcla de aceite y agua agitada enérgicamente. Se observa posteriormente que las pequeñas gotas se fusionan entre ellas progresivamente hasta formar una única gota grande que representa la separación final entre el agua y el aceite. El fenómeno principal que entra en juego es que los materiales optimizan su superficie de manera que minimizan su energía.

Referencias • Libro de oro de la [1] IUPAC.

Referencias [1] http:/ / www. iupac. org/ goldbook/ CT07283. pdf

Cociente de reacción En química, el cociente de reacción Qr es una función del grado de reacción: ξ, la proporción relativa de productos y reactivos presentes en la mezcla de reacción en un momento dado. La expresión del Cociente de Reacción (Q)de una reacción tiene la misma ecuación que la expresión de constante de equilibrio para dicha reacción. Sin embargo, el cociente de reacción se calcula utilizando las concentraciones o presiones en un instante dado, y no las concentraciones de equilibrio. Para una mezcla química con una cierta concentración inicial de reactivos y productos, es útil conocer si la reacción evolucionará "hacia la derecha/en sentido de avance" (aumentando las concentraciones de los productos) o si evolucionará "hacia la izquierda/en sentido inverso" (aumentando las concentraciones de los reactivos). Considerando una expresión general de equilibrio como: kA + mB …

nC + pD ...

donde A, B, C, y D son las especies químicas involucradas en esta reacción y k, m, n, y p son los coeficientes estequiométricos para la reacción, el cociente de reacción, Qr, se define como:

donde { At } indica la actividad instantánea.[1] De la especie A en un cierto instante de tiempo (t) y así para las demás especies. El cociente de reacción se da en un instante particular de tiempo, no necesariamente en el momento en que se alcanza el equilibrio. El cociente de reacción está directamente relacionado con el principio de Le Châtelier. Para una reacción en equilibrio químico, la constante de equilibrio, K, puede definirse como:

donde {Aeq} es la actividad de la especie A cuando la mezcla está en el equilibrio, etc. Comparando los valores de Qr y K, se puede determinar si la reacción se desplazará a la derecha, a la izquierda, o si la concentración seguirá siendo la misma (equilibrio).

Cociente de reacción • Si Qr < K : la reacción se desplazará hacia la derecha (es decir, en la dirección de avance, y se formarán más productos) • Si Qr > K : La reacción se desplazará a la izquierda (es decir, en la dirección inversa, y así se formarán más reactivos) • Si Qr = K : la reacción está en el equilibrio La relación del cociente de reacción Qr con la derivada instantánea de la energía libre de Gibbs (ΔG) y la variación de la energía libre estándar de Gibbs (ΔG0) viene dada por: ΔG = ΔG0 + RT ln Qr

Enlaces externos • Esta obra deriva de la traducción de reaction quotient de la Wikipedia en inglés, publicada por sus editores [2] bajo la Licencia de documentación libre de GNU y la Licencia Creative Commons Atribución-CompartirIgual 3.0 Unported. • Reaction quotient tutorial I Link [3] • Reaction quotient tutorial II Link [4] • Reaction quotient tutorial III Link [5]

Referencias [1] Bajo ciertas circunstancias (ver equilibrio químico) cada término de actividad, tal como {A} puede ser reemplazado por un término de concentración, [A]. Tanto el cociente de reacción como la constante de equilibrio son entonces cocientes de concentración. [2] http:/ / en. wikipedia. org/ wiki/ reaction_quotient?action=history [3] http:/ / elchem. kaist. ac. kr/ vt/ chem-ed/ courses/ equil/ intro/ reactquo. htm [4] http:/ / www. chem. purdue. edu/ gchelp/ howtosolveit/ Equilibrium/ Reaction_Quotient. htm [5] http:/ / www. cartage. org. lb/ en/ themes/ sciences/ chemistry/ Miscellenous/ Helpfile/ Equilibrium/ ReactionQuotient. htm

22

Coeficiente de difusión

Coeficiente de difusión En la física, el coeficiente de difusión es un valor que representa la facilidad con que cada soluto en particular se mueve en un disolvente determinado. Depende de tres factores: • • • •

Tamaño y forma del soluto Viscosidad del solvente Temperatura (Difusividad térmica) De la naturaleza de la partícula que se difunde y del solvente donde difunde, siendo independiente de las concentraciones.

Los coeficientes de difusión para líquidos son del orden de 10^-5(cm^2/s), para gases del orden de 10^-1(cm^2/s) y para sólidos 10^-9(cm^2/s). Este coeficiente aparece en la Ley de Fick, relacionada con la difusión de materia o energía.

Coeficiente osmótico El coeficiente osmótico φ es un valor que mide la desviación del comportamiento de un disolvente respecto de su comportamiento en condiciones ideales, según la ley de Raoult. El coeficiente osmótico se define en función de concentraciones en la escalera de molalidades, como

y en función de las concentraciones en la escalera de las fracciones molares:

dónde μA* es el potencial químico del disolvente puro y μA es el potencial químico del disolvente en la disolución, MA es la masa molar del disolvente, xA su fracción molar, R la constante de los gases y T la temperatura termodinámica.

Referencias

23

Condiciones estándar (química)

Condiciones estándar (química) En química, el estado estándar de un material (sustancia pura, mezcla o solución) es un estado de referencia utilizado para calcular sus propiedades bajo diferentes condiciones. En principio, la elección del estado de referencia es arbitraria, aunque la Unión Internacional de Química Pura y Aplicada (IUPAC) recomienda un conjunto convencional de estados estándar para su uso general. La IUPAC recomienda usar una presión estandar de po = 105 Pa. Estrictamente hablando, la temperatura no es parte de la definición de un estado estándar. La versión actual de la norma de la IUPAC define como condiciones estándar a una temperatura de 25 °C (298,15 K) y una presión absoluta de 100 kPa (0,986 atm, 14,504 psi). Mientras que la versión del NIST es una temperatura de 20 °C (293,15 K) y una presión absoluta de 101,325 kPa (1 atm, 14,696 psi).

Referencias Enlaces externos • "Standard conditions for gases" (http://goldbook.iupac.org/S05910.html) from the IUPAC Gold Book. • "Standard pressure" (http://goldbook.iupac.org/S05921.html) from the IUPAC Gold Book. • "STP" (http://goldbook.iupac.org/S06036.html) from the IUPAC Gold Book. • "Standard state" (http://goldbook.iupac.org/S05925.html) from the IUPAC Gold Book.

Condiciones normales de presión y temperatura Condiciones normales de presión y temperatura (abreviado CNPT) o presión y temperatura normales (abreviado PTN o TPN) hace referencia a los valores de presión atmosférica y temperatura que imperan en un laboratorio. La IUPAC, Unión Internacional de Química Pura y Aplicada (en inglés: International Union of Pure and Applied Chemistry) define las condiciones normales como: término cualitativo, en función de la preferencia del investigador, que usualmente implica la presión ambiental y la "temperatura del lugar". Preferiblemente las variables de temperatura y presión deberían ser tomadas como valores representativos de las condiciones reales (o rango de condiciones) empleadas en el estudio. El término "Condiciones Normales" se suele utilizar habitualmente para la medición de volúmenes de gases en muchos campos de la ciencia, como en Termodinámica y Química, correspondiéndose a una temperatura de 0 °C (o 273,15 K) y a una presión de 1 atm. Por ejemplo, el volumen de un mol de gas ideal en condiciones normales de presión y temperatura es : PV = n RT -> V = 1×0,0821×273,15/1 =22,42  L; esto nos lleva al valor clásico: V = 22,4 L. En electroquímica y en otras ramas de la química en las que se usan disoluciones acuosas, las condiciones normales corresponden a una presión de 1 atm y una temperatura de 298,15 K (25 °C). Así, por ejemplo, se define internacionalmente la escala de potenciales normales de electrodo. Nota a tener en cuenta: Las condiciones normales de presión y temperatura (abreviado CNPT), siguiendo los criterios de la IUPAC, no se corresponden a unos valores bien definidos (invariables), como es el caso de las condiciones estándar de presión y temperatura. Sin embargo, la bibliografía científica existente es muy variable con respecto a la definición de las CNPT. A esto hay que añadir la existencia de otros estándares, aparte del propuesto por la IUPAC (p. ej. el del NIST). Esta situación produce incertidumbre y controversia a la hora de utilizar estos términos, incluso dentro de la comunidad científica. Este debate ha marcado, claramente, el proceso de confección de este artículo, como se puede

24

Condiciones normales de presión y temperatura ver en su sección de Discusión.

Referencias Enlaces externos • Glosario de términos relativos a la química atmosférica (http://old.iupac.org/reports/1990/6211calvert/ glossary.html) (véase la entrada para: 'Normal conditions'). • Definición de 'normal' (http://goldbook.iupac.org/N04211.html) from the IUPAC Gold Book. • "Standard conditions for gases" (http://web.archive.org/web/http://www.iupac.org/goldbook/S05910.pdf) from the IUPAC Gold Book. • "Standard pressure" (http://web.archive.org/web/http://www.iupac.org/goldbook/S05921.pdf) from the IUPAC Gold Book. • "STP" (http://web.archive.org/web/http://www.iupac.org/goldbook/S06036.pdf) from the IUPAC Gold Book. • "Standard state" (http://web.archive.org/web/http://www.iupac.org/goldbook/S05925.pdf) from the IUPAC Gold Book.

Conductividad (electrolítica) La conductividad (o conductancia específica) de una solución de electrolito es una medida de su capacidad para conducir la electricidad. La unidad SI de conductividad es el siemens por metro (S/m). Las medidas de conductividad se utilizan de forma rutinaria en muchas aplicaciones industriales y medioambientales como un modo rápido, barato y fiable de medir el contenido iónico en una solución. Por ejemplo, la medida de la conductividad del producto es un modo típico de supervisar instantánea y continuamente la tendencia del funcionamiento de los sistemas de purificación del agua. En muchos casos, la conductividad está directamente vinculada a la cantidad de sólidos totales disueltos (TDS). El agua desionizada de alta calidad tiene una conductividad de 5,5 μS/m, el agua potable típica en el rango de 5-50 mS/m, mientras que el agua de mar cerca de 5 S/m.[1] (es decir, la conductividad del agua de mar es un millón de veces mayor que el agua desionizada). La conductividad se determina habitualmente midiendo la resistencia AC de una solución entre dos electrodos. Las soluciones diluidas siguen las leyes de Kohlrausch de la dependencia de la concentración y la aditividad de las concentraciones iónicas. Onsager dio una explicación teórica de la ley de Kohlrausch por extensión de la ecuación de Debye–Hückel.

Unidades La unidad SI de conductividad es el S/m y, sin otro calificativo, se refiere a 25 ° C (temperatura estándar). A menudo, en la industria se utiliza la tradicional unidad de μS/cm. Los valores de μS/cm son más altos que los de μS/m en un factor de 100. De vez en cuando se encuentra en la escala de los instrumentos una unidad denominada como "CE" (conductividad eléctrica): 1 CE = 1 S/cm. A veces se encuentra la llamada mho (recíproco de ohmio): 1 mho/m = 1 S/m. La célula estándar comúnmente utilizada tiene un ancho de 1 cm, y así, para agua muy pura en equilibrio con el aire podría tener una resistencia de aproximadamente 106 ohm, conocido como Megaohmio. El agua ultra pura podría alcanzar 10 megaohms o más. Así, en el pasado, se utilizó el Megaohmio-cm (= μS/cm), a veces abreviado a "Megaohmio".[2] A veces, una conductividad se da sólo en "microSiemens" (omitiendo el término de distancia en la

25

Conductividad (electrolítica)

26

unidad). Si bien esto es un error, a menudo se puede suponer que es igual a la tradicional μS/cm. La típica conversión de la conductividad a los sólidos disueltos totales se realiza suponiendo que el sólido es cloruro de sodio: 1 μS/cm es equivalente entonces a cerca de 0,6 mg de NaCl por kg de agua. La conductividad molar tiene en el SI la unidad S.m2.mol−1. Las publicaciones más antiguas utilizan la unidad Ω−1.cm2.mol−1.

Medida La conductividad eléctrica de una solución de un electrolito se mide determinando la resistencia de la solución entre dos electrodos planos o cilíndricos separados por una distancia fija. Se utiliza una tensión alterna para evitar la electrólisis. Las frecuencias más utilizadas están en el rango 1-3 kHz. La dependencia de la frecuencia suele ser pequeña.[3] La resistencia se mide con un conductímetro. Está disponible comercialmente una gran variedad de instrumentos. Hay dos tipos de celdas, el tipo clásico con electrodos planos o cilíndricos y un segundo tipo basado en la inducción.[4] Muchos sistemas comerciales ofrecen corrección automática de temperatura.

Un conductivímetro y una sonda.

Definiciones La resistencia R, es proporcional a la distancia l entre los electrodos e inversamente proporcional al área transversal de la muestra A. Escribiendo ρ (rho) para la resistencia específica (o resistividad),

En la práctica la sonda de conductividad se calibra utilizando disoluciones de resistencia específica conocida, ρ*, por lo que los valores de l y A son datos de diseño de la sonda. Si la resistencia de la solución de calibración es R*, se obtiene una constante de sonda, C:

La conductividad específica, κ (kappa) es la recíproca de la resistencia específica:

La conductividad también es dependiente de la temperatura.

Conductividad (electrolítica)

27

Teoría la conductividad de una solución que contiene un electrolito depende de la concentración del electrolito. Por lo tanto es conveniente dividir la conductividad específica por la concentración. Este cociente se denomina conductividad molar, es denota por Λm

Electrolitos fuertes Los electrolitos fuertes son capaces de disociarse completamente en solución. La conductividad de una solución de un electrolito fuerte a baja concentración sigue la ley de Kohlrausch:

donde

se conoce como la conductividad molar limitante, K es una constante empírica y c es la concentración de

electrolito. (Limitante aquí significa "en el límite de la dilución infinita" .) Por otra parte, Kohlrausch también encontró que la conductividad limitante de aniones y cationes son aditivas: la conductividad de una solución de sal es igual a la suma de las contribuciones a la conductividad de los cationes y los aniones.

donde: •

y

son el número de moles de cationes y aniones, respectivamente, que se crean en la disociación de 1 mol

del electrolito disuelto; •

y

son las conductividades molares limitantes de los iones individuales.

La tabla siguiente da los valores de las conductividades molares limitantes de iones seleccionados.

Conductividad limitante iones agua a 298 ºK (25 °C) Cationes λ 0 /mS m2mol-1 Aniones λ 0 /mS m2mol-1 + H+

34.96

OH-

19.91

Li+

3.869

Cl-

7.634

Na+

5.011

Br-

7.84

K+

7.350

I-

7.68

Mg2+

10.612

SO42-

15.96

Ca2+

11.900

NO3-

7.14

Ba2+

12.728

CH3CO2- 4.09

Una interpretación teórica de estos resultados fue proporcionada por la ecuación de Debye-Hückel-Onsager.

donde A y B son constantes que dependen solamente de cantidades conocidas como temperatura, cargas de los iones y la constante dieléctrica y la viscosidad del disolvente. Como el nombre sugiere, esta es una extensión de la teoría de Debye–Hückel, debida a Onsager. Es un gran éxito para soluciones a baja concentración.

Conductividad (electrolítica)

Electrolitos débiles Un electrolito débil es aquel que no está totalmente disociado. Típicos electrolitos débiles son los ácidos débiles y las bases débiles s. La concentración de iones en una solución de un electrolito débil es menor que la concentración de dicho electrolito. Para los ácidos y las bases la concentración puede calcularse cuando se conoce el valor o los valores de las constantes de disociación ácida. Para un ácido monoprótico, HA, con una constante de disociación Ka, se puede obtener una expresión explícita para la conductividad como una función de la concentración, c, conocida como ley de dilución de Ostwald.

Concentraciones elevadas Tanto la ley de Kolrausch como la ecuación de Debye-Hückel-Onsager describe lo que ocurre cuando la concentración de electrolito aumenta por encima de cierto valor. La razón es que cuando la concentración aumenta la distancia media entre cationes y aniones disminuye, de modo que hay una mayor interacción iónica. Si ello constituye una asociación de iones es discutible. Sin embargo, a menudo se considera que los cationes y aniones interactúan para formar un par iónico. Así, el electrolito se trata como si fuera un ácido débil y se puede obtener una constante,K, para el equilibrio: A+ + B-

A+B-

K=[A+][B-]/[A+B-] Davies describe los resultados de tales cálculos con gran detalle, pero afirma que K no necesariamente debe ser considerada como una verdadera constante de equilibrio, sino más bien, que la inclusión del término asociación de iones es útil para extender el rango de buena concordancia entre los datos de conductividad teóricos y experimentales. Se han hecho varios intentos para extender el tratamiento de Onsager a soluciones más concentradas. La existencia del llamado mínimo de conductancia ha demostrado ser un tema controvertido en lo que respecta a la interpretación. Fuoss y Kraus han sugerido que es causado por la formación de tripletes iónicos, y esta sugerencia ha recibido algún soporte recientemente.[5]

Aplicaciones A pesar de la dificultad de interpretación teórica, las mediciones de conductividad se utilizan ampliamente en muchas industrias. Por ejemplo, las medidas de conductividad se utilizan para controlar la calidad de los suministros públicos de agua, en hospitales, en el agua de las calderas y en las industrias que dependen de la calidad del agua, tales como en las de elaboración de la cerveza. Este tipo de medición no es específica de iones , ya que a veces se puede utilizar para determinar la cantidad de sólidos totales disueltos (TDS) si se conoce la composición de la solución y su comportamiento de conductividad. A veces, las mediciones de conductividad están vinculadas con otros métodos para aumentar la sensibilidad de la detección de determinados tipos de iones. Por ejemplo, en la tecnología del agua de caldera, la purga de caldera es continuamente supervisada la conductividad de cationes que es la conductividad del agua después de haber pasado a través de una resina de intercambio catiónico. Este es un método muy sensible para vigilar las impurezas aniónicas en el agua de la caldera, en presencia de exceso de cationes (los del agente alcalinizante usualmente utilizado para el tratamiento de agua). La sensibilidad de este método se basa en la alta movilidad de H+ en comparación con la movilidad de otros cationes o aniones. Los detectores de conductividad se utilizan habitualmente en la cromatografía iónica.

28

Conductividad (electrolítica)

Referencias [1] http:/ / www. lenntech. com/ water-conductivity. htm [2] Una búsqueda en internet de megaohmio y agua ultrapura dará ejemplos de compañías que siguen haciendo esto. [3] Marija Bešter-Rogač and Dušan Habe, "Modern Advances in Electrical Conductivity Measurements of Solutions", Acta Chim. Slov. 2006, 53, 391–395 (pdf) (http:/ / acta. chem-soc. si/ 53/ 53-3-391. pdf) [4] Gray, p 495 [5] pdf (http:/ / media. iupac. org/ publications/ pac/ 2004/ pdf/ 7601x0019. pdf)

Enlaces externos • Esta obra deriva de la traducción de conductivity (electrolytic de la Wikipedia en inglés, publicada por sus editores (http://en.wikipedia.org/wiki/conductivity_(electrolytic?action=history) bajo la Licencia de documentación libre de GNU y la Licencia Creative Commons Atribución-CompartirIgual 3.0 Unported. • Cole-Parmer Technical Library (http://www.coleparmer.co.uk/techinfo/techinfo.asp?htmlfile=Conductivity. htm&ID=78) Conductivity

Descomposición espinodal La descomposición espinodal es un mecanismo por medio del cual una solución de dos o más componentes puede separarse en fases diferenciadas de distinta composición química y propiedades físicas diferentes. La separación de fases tiene lugar de manera homogénea en todo el material y no, a diferencia de lo que ocurre en el caso de nucleación y crecimiento, en posiciones concretas del material. La descomposición espinodal es de gran interés debido a dos razones fundamentales. Por un lado, es una de las pocas transformaciones de fase para la que existe una teoría cuantitativa precisa –en este caso, la llamada Ecuación de Cahn-Hilliard. Las razones para esto es que, a diferencia del resto de procesos de cambio de fase, la descomposición espinodal involucra mecanismos inherentemente sencillos, lo que facilita su estudio. Así, al no existir barrera termodinámica alguna para que se produzca la reacción dentro de la llamada zona espinodal, la transformación puede tratarse exclusivamente como un problema de difusión. Y aunque la ecuación de Cahn-Hilliard que describe el proceso resulte ser una ecuación no lineal en derivadas parciales de cuarto orden –lo que imposibilita su total resolución–, diversas aproximaciones de la misma permiten establecer las características principales del proceso. En comparación, los procesos de nucleación involucran fluctuaciones (situaciones de no equilibrio) que impiden el empleo de la termodinámica para su estudio. Por otro lado, la descomposición espinodal es de gran interés desde el punto de vista práctico, por cuanto se trata de un mecanismo por medio del cual se pueden generar microestructuras muy finamente dispersas capaces de mejorar grandemente las propiedades físicas del material.

Perspectiva histórica A principios de la década de 1940, A J Bradley[1]observó la aparición de bandas laterales alrededor de los picos de Bragg en los patrones de difracción de rayos X de una aleación de Cu-Ni-Fe que había sido enfriada y posteriormente recocida dentro de la región de miscibilidad de los tres elementos. La aparición de dichas bandas laterales sugería la existencia de alguna discontinuidad en la composición del material pese a que la misma cayera dentro de la región de miscibilidad, esto es, pese a que la composición fuera tal que, en principio, las tres especies, cobre, níquel y hierro, deberían disolverse y alearse perfectamente para formar una fase continua y homogénea. Observaciones posteriores hechas por Daniel y Lipson en 1944[2] llevarían a los mismos a demostrar que las bandas laterales se podían explicar por una modulación periódica de la composición en la dirección . Midiendo el espaciado entre las bandas laterales fueron capaces de determinar la longitud de onda de la modulación, que era del

29

Descomposición espinodal orden de 100 angstroms. La modulación de la composición (esto es, la variación de la composición) en un material en equilibrio y cuya composición general era totalmente homogénea en inicio implica la necesidad de que se produzca un proceso de difusión inversa, o un coeficiente de difusión negativo: para, partiendo de una composición homogénea en equilibrio, lo cual implica que los potenciales químicos de todas las especies (Cu, Fe, y Ni) son iguales, obtener una composición no homogénea, es necesario que se produzca un proceso de difusión que transporte alguna de las especies a zonas donde su concentración es la misma pero tal que, a consecuencia del proceso, tienda a aumentar. Becker (1937)[3] y Dehlinger (1937)[4] ya habían predicho con anterioridad la necesidad de un coeficiente de difusión negativo dentro de la región espinodal de un sistema binario empleando un modelo basado en las leyes de Fick. Sin embargo, su tratamiento teórico no podía explicar el crecimiento de una modulación de longitud de onda concreta como la observada por Bradley en la aleación Cu-Ni-Fe. De hecho, todo modelo basado en las leyes de Fick conduce a una solución físicamente inaceptable cuando el coeficiente de difusión: la ecuación de difusión se convierte en la llamada ecuación de Black-Scholes, y prevé una difusión inversa totalmente opuesta al segundo principio de la termodinámica. Por tanto, hacia principios de la década de 1950 las modulaciones por Bradley seguían sin estar totalmente explicadas, si bien se aceptaba que eran debidas a distribución heterogénea en la concentración de los componentes, posiblemente debido a la aparición de dos fases diferentes dentro del material. Quedaba por tanto por explicar de que modo era posible que, partiendo de una aleación totalmente homogénea en su composición, pudiera producirse tal redistribución de componentes. La primera explicación a este respecto fue ofrecida por Mats Hillert en 1955.[5] Partiendo de un modelo de solución ideal, derivó la ecuación del flujo másico para la difusión unidimensional en una red cristalina discreta. A diferencia de los modelos previos basados en las leyes de Fick, su modelo incluía el efecto de la energía interfacial entre planos interatómicos adyancentes que difirieran en composición. Hillert resolvió numéricamente su ecuación y descubrió que dentro de la zona espinodal resultaba en una variación periódica de la composición con la distancia. Más aún, calculó la longitud de onda de la modulación y halló que era del mismo orden de magnitud que la observada para las aleaciones Cu-Ni-Fe.[6] Posteriormente, John W. Cahn (1961)[7] desarrollaría un modelo mucho más refinado que incluía los efectos de las tensiones de coherencia, así como del gradiente energético, llegando con ello a plantear la llamada Ecuación de Cahn-Hilliard[8] que permite explicar el fenómeno.[9][10] Los trabajos de Cahn y sus diversas modificaciones sentaron las bases para todo el desarrollo posterior de esta área de estudio.

Modelo de Bragg-Williams La descomposición espinodal puede concebirse como la desmezcla de dos (o más) materiales inicialmente miscibles. El modelo de Bragg-Williams[11] es un sencillo modelo basado en la Mecánica estadística que permite entender los fundamentos de la descomposición espinodal al tiempo que ofrece la posibilidad de realizar un tratamiento analítico (aunque simplificado) de la misma. Sea una red cristalina formada por dos tipos de átomos indistinguibles que denotamos por A y B, siendo Na el número de átomos de la especie A y Nb de la especie B. Cada posición de red puede estar ocupada por un sólo átomo, de manera que habrá N=Na+Nb átomos y posiciones de red en total. Se desea calcular primeramente la entropía asociada a una mezcla de A y B. Para ello, en este caso es posible aplicar el Colectivo microcanónico sobre el sistema cerrado formado por la red cristalina. En efecto, el número de distintas configuraciones que sobre una red de N posiciones pueden adoptar Na átomos de A y Nb átomos de B viene dado por:

La entropía de Boltzmann asociada será:

30

Descomposición espinodal

31

En virtud la identidad de Stirling, para N grandes esto se puede expresar como:

Introduciendo las concentraciones ,

y

definidas como:

,

se llega a la siguiente expresión: , Esta es la expresión de la entropía de mezcla de dos especies. Se pretende realizar un estudio de la composición en equilibrio la mezcla. Para ello, lo más sencillo será obtener el potencial de Helmholtz, para lo cual es a su vez necesario obtener la energía interna de la mezcla. El modelo de Bragg y Williams restringe las posibles interacciones entre átomos (enlaces) únicamente a aquellas que se dan entre vecinos inmediatos de la red cristalina; si el número de coordinación es z, entonces habrá z átomos circundando a uno dado, y por ende z posibles interacciones. Para el caso de dos especies atómicas A y B, habrá tres posibles tipos de interacciones: AA, entre dos átomos del elemento A; BB, entre dos átomos del elemento B; y AB, entre un átomo de A y otro de B. Así, habrá Naa, Nbb y Nab pares de interacciones atómicas. Despreciando cualquier otro tipo de interacción o fenómeno energético que no sea éste, esto es, despreciando la energía vibracional de los átomos, la energía interna U será , donde

representa la energía asociada con un par atómico ij. Esta expresión de la energía interna puede

simplificarse notando que los

no son independientes entre sí, sino que están relacionados por medio del número

de coordinación z como sigue:

Así, la energía interna resulta ser:

Dentro del supuesto de considerar únicamente las interacciones atómicas entre átomos vecinos, esta expresión de la energía interna es exacta, pero a costa de introducir una nueva variable N_{ab}. Para el caso en cuestión, es suficiente con considerar Nab como el número de átomos de A (o de B) multiplicados por la probabilidad de encontrar un vecino de B (o de A). Así: . Esta aproximación se corresponde con una aproximación de campo medio en tanto en cuanto sólo las interacciones medias entre átomos son consideradas como relevantes; cualquier correlación entre las posiciones de átomos de A y de B es despreciada. La expresión resultante es entonces:

Descomposición espinodal

32

. El segundo sumando del segundo miembro de la ecuación es fundamental para determinar el comportamiento del sistema binario en cuestión. Para interpretarlo, considérese un átomo A rodeado de z átomos A, y un átomo B rodeado de z átomos B. Si se retira el átomo A de su posición A, se reduce la energía del sistema en (se destruyen z enlaces AA); si a su vez se coloca este átomo A en la posición de B, se incrementaría la energía del sistema en (se crean z enlaces AB). El proceso análogo para el átomo B resultaría en un decremento de la energía de

y un incremento de

. Así, si se intercambian el átomo A por el B y viceversa, el incremento

de energía interna global será: . Si

, entonces la sustitución de enlaces AA y BB por enlaces AB incrementa la energía interna, por lo que

a bajas temperaturas, donde la energía domina a la entropía, el sistema es termodinámicamente estable con respecto a la separación de fases, de manera que los átomos de la misma especia tenderán a agruparse juntos. En el caso opuesto, cuando , la solución ordenada o compuesta se ve favorecida, maximizándose el número de enlaces AB. Para el caso extremo en que

, no habrá tendencia ni hacia el orden o la separación, y el

sistema se comportará como una solución ideal en todo el medio material. A fin de simplificar las expresiones pero sin esencialmente alterar la física del sistema, se supondrá que , de manera que . La energía libre de Helmholtz será entonces: . Esta expresión del potencial de Helmholtz obtenida del modelo de Bragg-Williams pone de manifiesto la competición entre el predominio de los términos de entropía a altas temperaturas (el segundo sumando) o energéticos a bajas (el primer sumando). Aunque para llegar a él se hayan hecho muchas simplificaciones, la expresión pone de manifiesto el aspecto fundamental de la física de la descomposición espinodal: las altas temperaturas tenderán a favorecer la mezcla de especies, de manera que a partir de un cierto límite térmico el fenómeno de la descomposición espinodal, esto es, de la segregación de especies, será esencialmente imposible. Así pues, ésta se producirá fundamentalmente en sistemas a baja temperatura donde la competición entre el término energético y el entrópico es relevante, y dependerá de las magnitudes relativas entre las energías de enlace interatómico tanto entre las mismas especies como entre especies atómicas diferentes.

Referencias [1] A.J. Bradley, Proc. Phys. Soc. 52 (1940) 80 [2] V. Daniel, H. Lipson, The dissociation of an alloy of copper, iron and nickel further X-ray work, Proc. R. Soc. London A 182 (1944) 378-387. [3] Becker, R. 1937. Z. Metallkd. 29: 245 13. [4] Dehlinger, U. 1937. Z. Metallkd. 29: 401 14 [5] Hillert, M., A Theory of Nucleation for Solid Metallic Solutions, Sc. D. Thesis (MIT, 1955) [6] Hillert, M., A Solid Solution Model for Inhomogeneous Systems, Acta Met., Vol. 9, p. 525 (1961) [7] Cahn, J.W., On spinodal decomposition, Acta Met., Vol. 9, p. 795 (1961) [8] J. W. Cahn and J. E. Hilliard, “Free energy of a nonuniform system. I. Interfacial energy,” J. Chem. Phys 28, 258 (1958). [9] Cahn, J.W., On spinodal decomposition in cubic crystals, Acta Met., Vol. 10, p. 179 (1962) [10] Cahn, J.W., Coherent fluctuations and nucleation in isotropic solids, Acta Met., Vol. 10, p. 907 (1962) [11] Bragg, W.L., Williams, E.J., The effect of thermal agitation on atomic arrangement in alloys, Proc. Roy. Soc. A, 145, 699-730, (1934)

Difusión (física)

33

Difusión (física) La difusión (también difusión molecular) es un proceso físico irreversible, en el que partículas materiales se introducen en un medio que inicialmente estaba ausente, aumentando la entropía (Desorden molecular) del sistema conjunto formado por las partículas difundidas o soluto y el medio donde se difunden o disuelven. Normalmente los procesos de difusión están sujetos a la Ley de Fick. La membrana permeable puede permitir el Dibujo esquemático de los efectos de la difusión de moléculas a través de una paso de partículas y disolvente siempre a membrana celular. favor del gradiente de concentración. La difusión, proceso que no requiere aporte energético, es frecuente como forma de intercambio celular.

Difusión sustitucional En este tipo de difusión, el tamaño del átomo que difunde y el de los átomos de la red cristalina es parecido. La difusión se produce aprovechando los defectos de laguna.

Difusión intersticial La difusión intersticial se produce cuando el átomo entrantes son más pequeños que los existentes en la red cristalina. Los átomos (considerados como una esfera maciza), se colocan en los huecos existentes en la red cristalina. Las ley que rige la difusión es la Ley de Fick. Otra forma para encontrar la correlación de difusión entre átomos, es sacar la derivada por la hipotenusa entre el radio de cierta medida, entre los caracteres de un punto polar en la primera cara de cff; por la integral de dicha ecuación.

Difusión neta Diferencia de difusión entre las dos regiones de distinta concentración es lo que se conoce como difusión neta

Segunda ley de Fick (estado no estacionario) • • Para un gas en un sólido

D= difusividad Co= concentración inicial Cx= concentración final Cs= concentración superficial

Difusión (física)

34 t= tiempo x= distancia desde la superficietyca

Separación isótopa • Difusión gaseosa • Difusión térmica líquida

Difusión a través de membranas biológicas • difusión facilitada; • difusión simple, sin necesidad de un canal proteico; • difusión en el sistema respiratorio - en la alveola de los pulmones de los mamíferos, debido a diferencias en presiones parciales a lo largo de la membrana alveolar-capilar, el oxígeno se difunde hacia la sangre y el dióxido de carbono hacia afuera.

Enlaces externos • Wikimedia Commons alberga contenido multimedia sobre difusiónCommons. • Algunas imágenes que muestran difusión y ósmosis [1]

Referencias [1] http:/ / hyperphysics. phy-astr. gsu. edu/ hbase/ kinetic/ diffus. html

Dipolos permanentes Puesto que las moléculas están en una solución en general acuosa, hay que tener en cuenta que ambos poseen dipolos permanentes, por tanto, se necesitan 2 constantes dieléctricas tanto para el soluto como para el solvente. Si se considera simplemente una constante dieléctrica para describir la respuesta soluto y solvente, y usando la ley de Coulomb, los resultados difieren de la evidencia experimental, puesto que es sabido que la constante dieléctrica del agua es 80 y de algunas proteínas del orden de 4. La respuesta dieléctrica de los dipolos permanentes puede ser modelada. Algunos de los modelos usados son:

Representaciones explícitas de los átomos Si se describe explícitamente la interacción entre moléculas por solvente (moléculas), se puede aplicar la ley de Coulomb para dinámica del sistema, se puede dar solución al fenómeno computacionales al modelar las interacciones ya que todas las descritas.

medio de funciones potenciales tanto soluto como cargas y por medio de métodos que expliquen la electrostático. Se pueden encontrar dificultades propiedades del dieléctrico (agua) no pueden ser

Dipolos permanentes

35

Representación mecánica estadística Modelo de Langevin En gases y líquidos dieléctricos polares puesto que la agitación térmica se puede visualizar desde el punto de vista como choques intermoleculares, estos tienden a destruir alguna orientación preferencial respecto al campo total, por tanto esta fuerza se comporta como restauradora y consecuentemente aparece el efecto de alineamiento neto dando lugar a un momento dipolar neto P por unidad de volumen. La deducción de la forma general de computar esta polarización neta, generalmente se realiza asumiendo primero un grupo de dipolos distribuidos de manera arbitraria, sin un campo externo, y que una cantidad de ellos están distribuidos con un rango de orientaciones angulares determinadas. Si estos están sometidos a un campo eléctrico externo las orientaciones ya no son igualmente probables, y se demuestra por mecánica estadística que el número de moléculas que posee un determinado valor de U, es proporcional a , donde U depende del campo eléctrico total y del ángulo de orientación, por tanto, la forma general de la relación de Langevin es: La anterior ecuación representa el balance entre la polarización y las fluctuaciones térmicas aleatorias, donde T es la temperatura absoluta y K es la constante de Boltzmann. En principio el modelo de Langevin es aplicable a las moléculas polares libres de rotación, donde las interacciones son electrostáticas. Sin embargo, debido a que ignora el movimiento correlacionado entre las moléculas del solvente, no puede ser explicado con una constante dieléctrica, sin algún tipo de corrección y tampoco representa efectos de saturación dieléctrica. Aun así, ha sido de mucha utilidad para representar líquidos tales como el agua. Teoría de Kirkwood-Frohlich En esta representación, el material es considerado como una colección de dipolos permanentes, sumergidos en un continuo con una constante dieléctrica de alta frecuencia. El momento dipolar efectivo de cada dipolo se incrementa por el valor de fase debido a la polarización por la reacción del campo

donde

es la constante dieléctrica del material, N es el número de densidad,

es el momento dipolar en fase

gaseosa y g es el factor de correlación de Kirwood que se considera por los efectos cooperativos de orientación cercanos a los dipolos.

Disolvente

36

Disolvente Un disolvente o solvente es el medio disolvente de una solución; normalmente es el componente de una solución presente en mayor cantidad. Los disolventes forman parte de múltiples aplicaciones: adhesivos, componentes en las pinturas, productos farmacéuticos, para la elaboración de materiales sintéticos, etc. Las moléculas de disolvente ejercen su acción al interaccionar con las de soluto y rodearlas. Se conoce como solvatación. Solutos polares serán disueltos por disolventes polares al establecerse interacciones electrostáticas entre los dipolos. Los solutos apolares disuelven las sustancias apolares por interacciones entre dipolos inducidos. El agua es habitualmente denominada el disolvente universal por la gran cantidad de sustancias sobre las que puede actuar como disolvente.

Moléculas de agua (disolvente polar) solvatando un ion de sodio.

Clasificación de los disolventes • Disolventes polares: Son sustancias en cuyas moléculas la distribución de la nube electrónica es asimétrica; por lo tanto, la molécula presenta un polo positivo y otro negativo separados por una cierta distancia. Hay un dipolo permanente. El ejemplo clásico de solvente polar es el agua. Los alcoholes de baja masa molecular también pertenecen a este tipo. Los disolventes polares se pueden subdividir en: • Disolventes polares próticos: contienen un enlace del O-H o del N-H. Agua (H-O-H), etanol (CH3-CH2-OH) y ácido acético (CH3-C(=O)OH) son disolventes polares próticos. • Disolventes polares apróticos: son disolventes polares que no tiene enlaces O-H o N-H. Este tipo de disolvente que no dan ni aceptan protones. La acetona (CH3-C(=O)-CH3), el acetonitrilo, la dimetilformamida o el THF (Tetrahidrofurano) son disolventes polares apróticos. • Disolventes apolares: En general son sustancias de tipo orgánico y en cuyas moléculas la distribución de la nube electrónica es simétrica; por lo tanto, estas sustancias carecen de polo positivo y negativo en sus moléculas. No pueden considerarse dipolos permanentes. Esto no implica que algunos de sus enlaces sean polares. Todo dependerá de la geometría de sus moléculas. Si los momentos dipolares individuales de sus enlaces están compensados, la molécula será, en conjunto, apolar. Algunos disolventes de este tipo son: el éter etílico, benceno, tolueno, xileno, cetonas, hexano, ciclohexano, tetracloruro de carbono es el que disuelve o va a disolver. El cloroformo por su parte posee un momento dipolar considerable debido a que las poseer tres cloros en su molécula de carácter electronegativo, hace que el carbono adquiera una carga parcial positiva y el Hidrógeno una carga parcial negativa, lo que le da cierta polaridad. Un caso especial lo constituyen los líquidos fluorosos, que se comportan como disolventes más apolares que los disolventes orgánicos convencionales.

Disolvente

Disolventes orgánicos Los disolventes más utilizados actualmente, son los disolventes orgánicos, que son compuestos orgánicos volátiles que se utilizan solos o en combinación con otros agentes, sin sufrir ningún cambio químico, para disolver materias primas, productos o materiales residuales, o se utilice como agente de limpieza para disolver la suciedad, o como disolvente, o como medio de dispersión, o como modificador de la viscosidad, o como agente tenso-activo. El uso de estos disolventes, libera a la atmósfera compuestos orgánicos volátiles (COV), que tienen algunos problemas importantes para el entorno. Algunos COV causan la degradación de la capa de ozono como es el caso de 1,1,1-tricloroetano, tetracloruro de carbono, CFC, HCFC. Entre los solventes orgánicos más destacados podemos encontrar metanol, etanol, acetona, cloroformo, tolueno o el xileno, entre otros. El carácter volátil de los disolventes orgánicos hace que éstos se evaporen rápidamente en el aire, alcanzando concentraciones importantes en espacios confinados. Los riesgos mayores para el ser humano se producen por la absorción de éstos a través de la piel y por inhalación. El contacto directo con la piel permite que el disolvente pase a la sangre, causando efectos inmediatos y a más largo plazo. Para reducir el impacto medioambiental de los actuales disolventes orgánicos existen una serie de sustancias que se pueden usar como alternativas, siendo los llamados disolventes alternativos o nuevos disolventes, pertenecientes a la rama de la química verde, en la que se pueden englobar los siguientes principios: • El diseño de procesos que incorporen al máximo en el producto final todos los materiales usados durante el proceso, minimizando la obtención de subproductos. • El uso de sustancias químicas seguras y respetuosas con el medio ambiente como son los disolventes reactivos, etc. • El diseño de procesos enérgicamente eficientes.

Clases de disolventes alternativos • Disolventes reactivos: Son disolventes con baja volatilidad relativa, y tienen la capacidad de reaccionar con otros componentes, evaporándose al medioambiente (no constituyen COV). • Disolventes benignos: Son aquellos disolventes ambientalmente respetuosos. En este grupo se hallan los disolventes libres de compuestos clorados, con baja toxicidad y baja reactividad incremental máxima, comparados con los disolventes convencionales. • Disolventes neotéricos: Como su propio nombre indica, del término neo significa moderno, contemporáneo, reciente. Son una serie de disolventes que presentan una menor toxicidad, son más seguros y menos contaminantes que los disolventes convencionales . Entre ellos se incluyen tanto nuevos fluidos con propiedades ajustables, como compuestos poco usados como disolventes en la actualidad. Pero que están siendo investigados por sus usos potenciales como disolventes, ya que permitirían una mayor sostenibilidad en futuras aplicaciones. Éste es el caso del dióxido de carbono supercrítico (scCO2), y el líquido iónico a temperatura ambiente.

37

Disolvente

Clasificación de los disolventes neotéricos • • • •

Agua Líquido fluoroso Líquido iónico Fluido supercrítico

El agua empleada como disolvente El agua, denominado como el disolvente universal, es la mejor elección como disolvente, desde un punto de vista medioambiental, ya que no es ni inflamable, ni tóxica. Aunque presenta el inconveniente de tener una baja solubilidad con las resinas. El elevado momento dipolar del agua y su facilidad para formar puentes de hidrógeno hacen que el agua sea un excelente disolvente. Una molécula o ion es soluble en agua si puede interactuar con las moléculas de la misma mediante puentes de hidrógeno o interacciones del tipo ion-dipolo. Solubilidad de iones en agua con aniones que tengan átomos de oxígeno, pueden formar puentes de hidrógeno, dado que el oxígeno actúa como aceptor de los mismos. Además, hay que tener en cuenta la atracción del anión sobre el dipolo del agua. Lo mismo ocurre con Cl- o F-, que tienen pares de electrones solitarios y que pueden actuar como aceptores de puentes de hidrógeno. Por su parte, los cationes como el Na+, el K+, el Ca++ o el Mg++ se rodean de moléculas de agua a las que unen mediante interacciones del tipo ion-dipolo; los átomos de oxígeno se orientan hacia el catión. Conforme aumenta la temperatura y la presión, las propiedades del agua varían. Por ejemplo, la constante dieléctrica disminuye y se hace más similar a la de los disolventes orgánicos, empeorando la solubilización de sustancias iónicas. A alta temperatura y presión disuelve compuestos orgánicos, transcurriendo los procesos en fase homogénea y con ello se facilita la separación del soluto (por enfriamiento), siendo capaz de eliminar residuos.

Líquido fluoroso El término fluoroso fue introducido por István T. Horvát en la década de 1990 por su analogía con los medios acuosos. Son compuestos orgánicos en los que se han sustituido los enlaces carbono-hidrógeno por carbono-flúor y que se encuentra en estado líquido en condiciones normales. • • • • •

Son químicamente inertes, por lo que se evita la obtención de subproductos. Son térmicamente estables, por lo que se pueden usar a altas temperaturas sin peligro. No son inflamables ni tóxicos, por lo que se evita los riesgos de incendios o explosiones. Se pueden mezclar con muchos disolventes orgánicos y con el agua, lo que facilita el uso de sistemas bifásicos. Poseen un amplio intervalo de puntos de ebullición. (de 50 a 220 °C)

Líquido iónico Son compuestos que presentan características de sales con su punto de temperatura de fusión por debajo de los 100 °C. Compuestos por un catión orgánico siendo uno de los más comunes el tetraalquilamonio, y un aniónpoliatómico como puede ser el hexafluorofosfato. Los líquidos iónicos pueden ser constituidos por un gran número de aniones y cationes con lo que sus propiedades varían de unos a otros. En cuanto a la utilización de un líquido iónico como disolvente alternativo, reseñar que presenta una escasa volatilidad, debido a su presión de vapor prácticamente nula. También presenta una excelente estabilidad química y térmica, pudiéndose emplear a elevadas temperaturas.Y una gran solvatación con otras muchas sustancias. En contra partida decir que su coste de obtención es elevado.

38

Disolvente

Fluido supercrítico Por su importancia como disolvente alternativo cabe destacar el fluido supercrítico, que es aquel que se encuentra por encima de su presión y de su temperatura crítica. En este estado, la línea de separación de fases líquido-gas se interrumpe. Esto implica la formación de una sola fase, en la que el fluido tiene propiedades intermedias entre las de un líquido y las de un gas, por lo que mientras se mantiene una gran difusividad propia de los gases, se consigue una alta densidad cercana a la de los líquidos. Considerados como inertes y no tóxicos, siendo su coste barato y pudiendo variar sus propiedades con cambios de presión. La propiedad más característica de los fluidos supercríticos es el amplio rango de altas densidades que pueden adoptar dependiendo de las condiciones de presión o de temperatura, a diferencia de los líquidos que son prácticamente incompresibles, y de los gases que poseen densidades siempre muy bajas.

Aplicaciones • • • •

En la producción de principios activos farmacéuticos En la producción de biodiésel y utilización de subproductos En la producción de protectores de cosechas En barnices y pinturas, etc.

• En la extracción de aceites

Ventajas Los disolventes neotéricos se pueden obtener a partir de materias primas renovables, siendo una alternativas a los disolventes derivados del petróleo. Siendo un ejemplo de ellos,los procedentes de la biomasa. La mayoría de estos disolventes presentan una baja toxicidad, baja volatilidad, no son corrosivos, ni cancerígenos. Además muchos de ellos se obtienen a partir de residuos vegetales, lo que les hace económicamente competitivos.

Disolvente sostenible Un disolvente sostenible es aquel que es inocuo para el medio ambiente.

Conclusiones Los disolventes neotéricos o alternativos son compuestos con los que se pretende sustituir a los ya conocidos como disolventes convencionales en su uso industrial, por su importancia en la protección medioambiental, debido a su posibilidad de reutilización, reciclado y su baja o nula toxicidad. La Unión Europea estima que en la Comunidad se emiten cada año alrededor de 10 millones de toneladas de compuestos orgánicos volátiles procedentes de los carburantes y disolventes. En marzo de 1.999 se aprobó la Directiva (99/13) relativa a la “limitación de las emisiones de compuestos orgánicos volátiles debidas al uso de disolventes orgánicos en determinadas actividades e instalaciones”. En esta directiva se prevé reducir en dos tercios el uso de compuestos orgánicos volátiles liberados en la atmósfera por el uso de disolventes industriales. Una forma de reducir este uso de compuestos es el empleo de los disolventes neotéricos. La importancia del desarrollo de estos disolventes radica primordialmente en su coste, puesto que al ser económicamente rentables, hace viable su implementación en los procesos industriales.

39

Disolvente

Bibliografía • Disolventes y métodos de reacción no convencionales. (Master en Química Sostenible año 2008-2009 de la Universidad de Zaragoza) ( Ehecatl Ruiz C. ) • Desarrollo de nuevos procesos biotecnológicos basados en el uso de líquidos iónicos, fluidos supercríticos y tecnología de membranas. (Memoria por Francisco José Hernández Fernández, Universidad de Murcia año 2008) • Mayoral, J.A.; “Empleo de disolventes alternativos”, publicación en Internet: www.unia.es/ nuevo_inf_academica/ bisualizar_file_adjunto.asp? ID = 1606. • Restrepo, J.A. "Disolventes Alternativos". Inpra Latina; (Edición digital Vol.13 N.º 5 Septiembre/Octubre 2008, pág. 16-19)

Enlaces externos • • • •

UNIZAR Master de Química Sostenible. [1] Disolventes y métodos de reacción no convencionales. [2] Portal para las industrias de pinturas y recubrimientos. [3] Departamento de Medio Ambiente del Gobierno Vasco. [4]

• • • • • •

Tecnologías de Fluidos Comprimidos. [5] Solventes alternativos, fluidos supercríticos [6] (en portugués). Los fluidos supercríticos como disolventes alternativos. [7] Disolventes más seguros. [8] Desarrollo de nuevos procesos biotecnológicos. [9] El agua como disolvente. [10]

Referencias [1] http:/ / web. archive. org/ web/ 20091218052857/ http:/ / ciencias. unizar. es/ master_qs/ documentos/ L2_Estructura_Propiedades. ppt [2] http:/ / ciencias. unizar. es/ master_qs/ documentos/ L1_Introduccion. ppt [3] http:/ / issuu. com/ latinpressinc/ docs/ inpra-13-5_all/ 18 [4] http:/ / www. ingurumena. ejgv. euskadi. net/ r49-3614/ es/ contenidos/ informacion/ cov/ es_7908/ disolventes_organicos. html [5] http:/ / www. icmab. es/ flucomp/ documents/ Flucomp03-II. pdf [6] http:/ / www. usp. br/ quimicaverde/ materiais/ IIEVQV/ SolventesAlternativos_Bazito. pdf [7] http:/ / www. istas. net/ ecoinformas/ web/ gestion/ estructuras/ _3079. pdf [8] http:/ / www. istas. net/ ecoinformas/ web/ gestion/ estructuras/ _3101. pdf [9] http:/ / www. tdr. cesca. es/ TESIS_UM/ AVAILABLE/ TDR-1118108-114833/ / HernandezFernandez. pdf [10] http:/ / webpages. ull. es/ users/ bioquibi/ bioquimica%20estructural/ Archivoszip/ enlacesnocovalentes/ hidrofobicas. pdf

40

Dispersión dinámica de luz

41

Dispersión dinámica de luz La dispersión dinámica de luz (DDL o DLS, por sus siglas en inglés de "Dynamic light Scattering"), espectroscopia de correlación de fotones o dispersión cuasi-elástica de luz es una técnica físico-química empleada para la determinación de la distribución de tamaños de partículas en suspensión, o macromoléculas en solución tales como proteínas o polímeros.[1]

Referencias [1] Estelrich, J.; Pons, M. La espectroscopia de correlación fotónica y sus aplicaciones. Industria farmacéutica: Equipos, procesos y tecnología (http:/ / dialnet. unirioja. es/ servlet/ articulo?codigo=3054348), ISSN 0213-5574, Nº. 4, 1991, págs. 81-86

Dos ejemplos de dispersión dinámica de luz por partículas según sus tamaños relativos: arriba, más grandes; abajo, más pequeñas.

Dispersión estática de luz La dispersión estática de luz (DEL o SLS, por sus siglas en inglés de "Static light Scattering") es una técnica físico-química que permite la determinación del peso molecular promedio en masa, el radio de giro, y el segundo coeficiente del virial, de sustancias macromoleculares, tales como polímeros o proteínas, cuando estas se encuentran en soluciones diluidas. Se basa en el efecto Tyndall,[1] o propiedad de las partículas con tamaño del orden de la longitud de onda de la luz, de dispersar la radiación a distintos ángulos los cuales que varían en función de la concentración de la sustancia así como de su naturaleza e interacción con el disolvente.[2]

Referencias [1] John Tyndall (1820-1893), f ́ısico irlandes, colaborador de Faraday y profesor en la Royal Institution. [2] Valero, J.M. (2012). Dispersión de Luz (http:/ / gredos. usal. es/ jspui/ bitstream/ 10366/ 120540/ 3/ MID_11_084_2. pdf). Universidad de Granada

Ecuación de Langmuir

Ecuación de Langmuir La ecuación de Langmuir o isoterma de Langmuir o ecuación de adsorción de Langmuir relaciona la adsorción de moléculas en una superficie sólida con la presión de gas o concentración de un medio que se encuentre encima de la superficie sólida a una temperatura constante. La ecuación fue determinada por Irving Langmuir por concentraciones teóricas en 1916. Es una ecuación mucho más exacta para las isotermas de adsorcion del tipo 1. Para ello postuló que: «Los gases, al ser adsorbidos por la superficie del sólido, forman únicamente una capa de espesor monomolecular». Además, visualizó que el proceso de adsorción consta de dos acciones opuestas, una de condensación de las moléculas de la fase de gas sobre la superficie, y una de evaporación de las situadas en la superficie hacia el gas. Cuando principia la adsorción, cada molécula que colisiona con la superficie puede condensarse en ella, pero al proseguir esta acción, cabe esperar que resulten adsorbidas aquellas moléculas que inciden en alguna parte de la superficie no cubierta todavía, pero además una molécula es capaz de librerarse por la agitación térmica escapándose hacia el gas. Cuando las velocidades de condensación y de liberación se hacen iguales entonces se establece el equilibrio. La expresión de la ecuación es la siguiente:

donde: • θ es la fracción de cobertura de la superficie, • P es la presión del gas o su concentración, y • α alpha es una constante, la constante de adsorción de Langmuir, que es mayor cuanto mayor sea la energía de ligadura de la adsorción y cuanto menor sea la temperatura.

Referencias • The constitution and fundamental properties of solids and liquids. part i. solids. Irving Langmuir; J. Am. Chem. Soc. 38, 2221-95 1916 First Page [1]

Enlaces externos • Isoterma de Langmuir en el Queen Mary, University of London Website [2] • Isoterma de Langmuir en el http://www.erpt.org Website [3] • LMMpro, Langmuir equation-fitting software @ http://www.alfisol.com Website [4]

Referencias [1] [2] [3] [4]

http:/ / pubs. acs. org/ cgi-bin/ abstract. cgi/ jacsat/ 1916/ 38/ i11/ f_ja02268a002. pdf http:/ / www. chem. qmw. ac. uk/ surfaces/ scc/ scat3. htm http:/ / www. erpt. org/ 012Q/ NelsW-07. htm http:/ / www. alfisol. com/ IFS/ IFS-003/ LMMpro-Langmuir. php

42

Efecto anomérico

Efecto anomérico En química orgánica, el efecto anomérico o efecto Edward-Lemieux es un efecto estereoelectrónico que describe la tendencia de los sustituyentes heteroatómicos adyacentes a un heteroátomo en un anillo de ciclohexano a preferir la orientación axial en vez de la orientación ecuatorial menos cubierta, que se esperaría a partir de consideraciones estéricas. Este efecto fue observado originalmente en anillos de piranosa por J. T. Edward en 1955; en aquel tiempo, N.-J. Chii y Raymond U. Lemieux comenzaron a estudiar el equilibrio de anomerización de los derivados totalmente acetilados de algunas aldohexopiranosas. El término "efecto anomérico" fue introducido en 1958. El efecto anomérico obtuvo su nombre a partir del término usado para designar el carbono C-1 de una piranosa, el carbono anomérico. Los isómeros que difieren sólo en la configuración del carbono anomérico son denominados anómeros El efecto anomérico puede ser generalizado a cualquier sistema con la fórmula general R-Y-C-Z, donde Y es un átomo con uno o más pares libres de electrones, y Z es un átomo de alta electronegatividad. La magnitud del efecto anomérico se estima de 1-2 kcal/mol en el caso de los azúcares. En este caso general, la molécula no necesita ser cíclica. Por ejemplo, una molécula pequeña que exhiba el efecto anomérico y suele ser usada para estudios teóricos es el dimetoximetano. En el caso del dimetoxietano, el confórmero gauche tiene una energía 3-5 kcal/mol menor en energía (por tanto, más estable) que la conformación trans: aproximadamente dos veces tan grande como el efecto en los azúcares, porque hay dos enlaces capaces de rotar que son afectados.

Orígenes físicos Se han propuesto algunas explicaciones para el efecto anomérico. La explicación más simple es que la configuración ecuatorial tiene los dipolos de ambos heteroátomos parcialmente alineados, y por tanto repeliéndose mutuamente. En contraste, la configuración axial tiene los dipolos aproximadamente opuesto, representando entonces un estado de menor energía y más estable.

En 1989, los estudios de modelamiento molecular de Box sobre los sacáridos, y el análisis de la información cristalográfica del Cambridge Crystallographic Database usando mecánica molecular basada en el programa STR3DI32, condujeron a un refinamiento de la hipótesis dipolar al mostrar que las repulsiones dipolares originalmente sugeridas, estaban reforzadas por enlaces de hidrógeno C-H···O significativos, estabilizantes, que involucran al grupo funcional acetal. Cálculos de orbitales moleculares más recientes son consistentes con esta hipótesis. Este análisis más comprensivo de los orígenes del efecto anomérico ha llevado también a un mejor entendimiento del efecto anomérico reverso, relacionado al primero e igualmente confuso. Una explicación alternativa y ampliamente aceptada es que hay una interacción de estabilización (hiperconjugación) entre el par electrónico no compartido de un heteroátomo ( el átomo endocíclico en un anillo de azúcar) y el orbital σ* del enlace axial (exocíclico) C-X. Cuando el átomo exocíclico (en un azúcar) lleva un par libre de electrones, debe haber una interacción similar entre el par de electrones no compartido (del átomo exocíclico) y el orbital σ* del enlace C-O anular. Esta segunda interacción, que es una característica fuerte del anómero β(grupo exocíclico ecuatorial) debería atenuar significativamente el efecto anomérico. Sin embargo, es bien conocido que cuando el

43

Efecto anomérico átomo exocíclico lleva pares libres de electrones, el efecto anomérico es máximo.

Algunos autores también cuestionan la validez de este modelo, basándose en los resultados de la teoría de los átomos en las moléculas. Aunque la mayoría de los estudios sobre los efectos anoméricos han sido de naturaleza teórica, la hipótesis n–σ* ha sido extensamente criticada en base que la redistribución de la densidad electrónica en los acetales, propuesta por esta hipótesis, no es congruente con la química experimental conocida de los acetales y, en particular, la química de los monosacáridos.

Referencias

Efecto Baker-Nathan En química orgánica, el efecto Baker-Nathan es un fenómeno observado con la velocidad de reacción de ciertas reacciones químicas con ciertos sustratos, donde el orden en reactividad no puede ser explicado solamente por un efecto inductivo de los sustituyentes.[1] Este efecto fue descrito en 1935 por John W. Baker y W. S. Nathan.[2][3][4] Examinaron la cinética química de la reacción de la piridina con bromuro de bencilo y con una variedad de bromuros de bencilo con diferentes sustituyentes alquilo en para (el producto de la reacción es una sal de piridinio).

44

Efecto Baker-Nathan En general, la reacción es facilitada por sustituyentes que liberan electrones (el efecto inductivo), por lo que suele observarse el orden de tert-butilo > isopropilo > etilo > metilo. Sin embargo, el orden observado en esta reacción en particular es metilo > etilo > isopropilo > tert-butilo. En 1935, Baker y Nathan explicaron la diferencia observada en términos de un efecto de conjugación y en años posteriores (1939) mediante hiperconjugación. Un problema fundamental con el efecto es que las diferencias en el orden observado son relativamente pequeñas, y es difícil medirlas con exactitud. Otros investigadores encontraron resultados similares o resultados muy diferentes. Una explicación alternativa para el efecto es la solvatación diferencial, dado que los órdenes se invierte al pasar de la fase de solución a la fase gaseosa.[5]

Referencias [1] HYPERCONJUGATION: INTERMEDIATES AND TRANSITION STATES IN REPLACEMENT AND ELIMINATION Peter B.D. de la Mare Pure & Appl. Chem., Vol 56, No. 12, pp 755—1766, 1984 http:/ / www. iupac. org/ publications/ pac/ 1984/ pdf/ 5612x1755. pdf [2] 118. The mechanism of aromatic side-chain reactions with special reference to the polar effects of substituents. Part III. The effect of unipolar substituents on the critical energy and probability factors in the interaction of benzyl bromide with pyridine and -picoline in various solvents John W. Baker and W. S. Nathan J. Chem. Soc., 1935, 519 - 527, [3] 428. The mechanism of aromatic side-chain reactions with special reference to the polar effects of substituents. Part IV. The mechanism of quaternary salt formation John W. Baker, Wilfred S. Nathan, J. Chem. Soc., 1935, 1840-1844 [4] 429. The mechanism of aromatic side-chain reactions with special reference to the polar effects of substituents. Part V. The polar effects of alkyl groups John W. Baker, Wilfred S. Nathan, J. Chem. Soc., 1935, 1844-1847 [5] Concerning the Baker-Nathan Effect W. M. SCHUBERT, W. A. SWEENEY J. Org. Chem.; 1956; 21(1); 119-124.

Efecto isotópico cinético El efecto isotópico cinético (EIC) es una variación en la velocidad de una reacción química cuando en uno de los reactivos un átomo es sustituido por uno de sus isótopos. También es llamada fraccionamiento de isótopos, aunque este término técnicamente tiene un sentido más amplio. Un EIC para hidrógeno y deuterio se representa como:

con kH y kD como constantes de velocidad de reacción. Una sustitución isotópica modificará enormemente la velocidad de reacción cuando el reemplazo isotópico se da en un enlace químico que es roto o formado en el paso limitante de la reacción. En ese caso, el cambio en la velocidad de reacción es llamado "efecto isotópico primario". Cuando en la sustitución no está involucrado el enlace que se rompe o se forma, aun así se puede observar un pequeño cambio en la velocidad de reacción llamado "efecto isotópico secundario". Así, la magnitud del efecto isotópico cinético puede ser usada para estudiar un mecanismo de reacción. Si otros pasos de la reacción son los que determinan su velocidad, el efecto de las sustitución isotópica no podrá ser percibido. Los cambios isotópico son más pronunciados cuando el cambio relativo en masa es mayor. Por ejemplo, el cambio de un átomo de hidrógeno a deuterio representa un 100% de incremento en masa, mientras que en la sustitución de 12 C con 13C, la masa aumenta sólo un 8%. La velocidad de una reacción que involucre un enlace C-H es típicamente 6 a 10 veces mayor que la correspondiente a un enlace C-D, mientras que una reacción de 12C es solamente ~1,04 veces más rápida que la reacción equivalente con 13C (aunque en ambos casos el isótopo es una unidad de masa atómica mayor). La sustitución isotópica puede modificar la velocidad de una reacción de varias formas. En muchos casos, la diferencia puede ser racionalizada notando que la masa de un átomo afecta la frecuencia vibratoria del enlace químico que forma, aun si la configuración electrónica es prácticamente idéntica. Los átomos más pesados llevan desde un punto de vista clásico a menores frecuencias vibracionales, o visto desde la mecánica cuántica, a una menor energía del punto cero. Con esto, se debe aportar más energía para romper el enlace, resultando en una mayor energía

45

Efecto isotópico cinético

46

de activación para llevar a cabo la reacción, lo que a su vez disminuye la velocidad medida (ver, por ejemplo, la ecuación de Arrhenius). La ecuación de Swain relaciona el efecto isotópico cinético de la combinación protón/tritio con la de protón/deuterio.

Detalles matemáticos en una molécula diatómica Una aproximación para estudiar este efecto es en una molécula diatómica. La frecuencia vibracional fundamental (ν) de un enlace químico entre un átomo A y uno B puede ser aproximado por un oscilador armónico:

donde k es la constante de rotura del enlace, y μ es la masa reducida del sistema A-B:

(

es la masa del átomo

). En mecánica cuántica, la energía del nivel

de un oscilador armónico está dada

por:

Así, la energía del punto cero ( = 0) disminuirá a medida que la masa reducida aumente. Con una menor energía del punto cero, más energía se necesita para alcanzar la energía de activación para romper un enlace. Al cambiar un enlace carbono-hidrógeno por uno carbono-deuterio, k permanece constante, pero la masa reducida µ es diferente. Como buena aproximación de pasar de C-H a C-D, la masa reducida aumenta aproximadamente en un factor de 2. Así, la frecuencia para un enlace C-D debe ser aproximadamente 1/√2 o 0,71 veces la correspondiente al enlace C-H. Aun así este efecto es mucho mayor que el cambiar un 12C por un 13C.

Aplicaciones El efecto isotópico cinético es utilizado para estudiar mecanismos de reacción, por ejemplo en la halogenación de tolueno:[1]

Este "EIC intramolecular" estudia en particular la sustitución de radicales de hidrógeno por bromo, utilizando tolueno mono-deuterado (obtenido por reducción orgánica de cloruro de bencilo con zinc y ácido acético deuterado) y N-bromosuccinimida. Como el hidrógeno es reemplazado por el bromo más rápido que el deuterio, el producto de la reacción se enriquece en deuterio. Para analizar la composición de deuterio por espectroscopia de masa, el

Efecto isotópico cinético producto de la reacción es reducido de nuevo a tolueno con hidruro de litio y aluminio y se obtiene un EIC de 4,86. Esto está en concordancia con el punto de vista aceptado generalmente de una sustitución de radicales en donde un átomo de hidrógeno es sustituido por una especie radical libre de bromo, en el paso limitante de la reacción. Un mayor EIC de 5,56 se obtiene para la reacción de cetonas con bromo e hidróxido de sodio formando una halocetona con la posición α-carbonil deuterada.[2]

En esta reacción el paso limitante es la formación de enolato por eliminación de un protón (deuterio) de la cetona por una base. En este caso el EIC es calculado de la constante de reacción para la 2,4-dimetil-3-pentanona regular y su isómero deuterado realizando medidas de densidad óptica.

Efecto túnel En algunos casos se observa un incremento adicional en la velocidad de reacción del isótopo más liviano, posiblemente debido a un efecto túnel. Esto es típico en los átomos de hidrógeno que son lo suficientemente livianos como para exhibir un efecto túnel significativo. Este efecto es observado en reacciones como la desprotonación y yodación de nitropropano con una base de piridina[3] con un EIC de 25 a 25 °C:

y en una reacción 1,5-sigmatrópica de hidrógeno[4] si bien se observa que es difícil extrapolar los valores experimentales obtenidos en temperaturas elevadas a temperaturas más bajas:[5][6]

47

Efecto isotópico cinético

Enlaces externos • Testing a Mechanism: Kinetic Isotope Effects [7] • Primary Kinetic Isotope Effect [8]

Referencias [1] The Deuterium Isotope Effect in the Side Chain Halogenation of Toluene Kenneth B. Wiberg and Lynn H. Slaugh; J. Am. Chem. Soc.; 1958; 80(12) pp 3033 - 3039; [2] Anomalous kinetic hydrogen isotope effects on the rat of ionization of some dialkyl substituted ketones R. A. Lynch, S. P. Vincenti, Y. T. Lin, L. D. Smucker, and S. C. Subba Rao J. Am. Chem. Soc.; 1972 94pp 8351 - 8356; [3] Rates and isotope effects in the protón transfers from 2-nitropropane to pyridine bases Edward Sheldon Lewis and Lance Funderburk J. Am. Chem. Soc.; 1967; 89(10) pp 2322 - 2327; [4] Mechanism of the 1,5-sigmatropic hydrogen shift in 1,3-pentadiene Michael J. S. Dewar, Eamonn F. Healy, and James M. Ruiz J. Am. Chem. Soc.; 1988; 110(8) pp 2666 - 2667; [5] Effect on Kinetics by Deuterium in the 1,5-Hydrogen Shift of a Cisoid-Locked 1,3(Z)-Pentadiene, 2-Methyl-10-methylenebicyclo[4.4.0]dec-1-ene: Evidence for Tunneling? William von E. Doering and Xin Zhao J. Am. Chem. Soc.; 2006; 128(28) pp 9080 - 9085; (Article) [6] En este estudio el EIC es medido por RMN de protones. El EIC extrapolado a 25 °C es de 16,6 pero el margen de error es elevado. [7] http:/ / clem. mscd. edu/ ~wiederm/ 401chp/ unit1chp/ kiechp/ Welcome. htm [8] http:/ / www. orgchem. iisc. ernet. in/ faculty/ um/ cd213/ isotope2. html

Efecto Jahn-Teller El efecto Jahn-Teller, en magnetoquímica, se da en sistemas (generalmente compuestos de coordinación de metales de transición) en los que hay varios niveles de energía degenerados y no igualmente ocupados. En estos casos, el teorema de Jahn-Teller predice que el sistema experimentará una distorsión, de forma que algunos de estos niveles se estabilizarán y otros se desestabilizarán. Al no estar todos los niveles igualmente ocupados, los desestabilizados serán los más vacíos, y el sistema tendrá una ganancia neta de energía. El teorema no predice cuán intenso será el efecto en cada caso particular. Este efecto electrónico fue propuesto por Hermann Arthur Jahn y Edward Teller, que demostraron, usando la teoría de grupos, que las moléculas no lineales con estados electrónicos degenerados no podían ser estables. Este efecto es importante, por ejemplo, en el caso de las sales El efecto Jahn–Teller es responsable de la distorsión tetragonal del complejo iónico hexaacuacobre(II), y los complejos octaédricos de cobre(II). Este catión tiene una 9 [Cu(OH ) ]2+, el cual debería tener una geometría población electrónica d , y, por tanto, un estado fundamental 2 6 octaédrica. Las dos distancias axiales Cu−O son de 238pm], de simetría t2g (un orbital con dos electrones y otro con uno). mientras las cuatro distancias ecuatoriales Cu−O son ~195 La distorsión de la simetría octaédrica para dar un octaedro pm. elongado axialmente, por ejemplo, estabiliza el orbitaldx2-y2, que queda ocupado por dos electrones y desestabiliza el dz2, que queda ocupado por un electrón. La distorsión que se da más a menudo es la elongación de los enlaces metal-ligando que se encuentran en el eje z, aunque también se pueden acortar estos enlaces; ya que el teorema Jahn-Teller prevé la existencia de una geometría inestable, pero no predice la dirección en la que se efectúa.

48

Efecto Jahn-Teller

49

La elongación se produce para rebajar la repulsión electrostática entre el par de electrones del ligando y los electrones que se encuentran en los orbitales del metal que tengan una componente z. En complejos octaédricos, el efecto Jahn-Teller es más pronunciado cuando un número impar de electrones ocupa los orbitales eg como en: d9, d7 de espín bajo o el d4de espín alto. Esto se debe a que los orbitales eg se encuentran en la misma dirección que los ligandos, así pues la distorsión representa una gran estabilización energética. El efecto es mucho menor cuando los electrones degenerados se encuentran en los orbitales t2g, porque estos no están en la misma dirección que los ligandos, por lo tanto las repulsiones son menores. En complejos tetraédricos, la distorsión es la misma que en el último caso, donde la distorsión también es menor, ya que los ligandos tampoco están señalando directamente a los orbitales. Los efectos esperados para complejos octaédricos se encuentran en la siguiente tabla:

Efecto Jahn-Teller Número de electrones d 1 2 3 4 5 6 7 8 9 10 espín alto

d d

f

espín bajo

- -

d d

d: efecto Jahn-Teller débil (t2g orbitales semillenos) f: efecto Jahn-Teller fuerte (eg orbitales semillenos) blanco: no se espera efecto Jahn-Teller -: no existe esta situación de espín para esta configuración electrónica

Referencias

d d

f

f

-

Efectos del disolvente

Efectos del disolvente En química, los efectos del disolvente son un grupo de efectos que un disolvente dado tiene sobre la reactividad química. Los disolventes pueden tener un efecto en la solubilidad, estabilidad y velocidad de reacción, así que la elección del disolvente apropiado permite el control cinético y termodinámico en una reacción química.

Efectos sobre la solubilidad Un soluto se disuelve en un disolvente cuando forma interacciones favorables con el disolvente. La disolución depende del cambio en la energía libre, tanto del soluto como del disolvente. La energía libre de solvatación es una combinación de varios factores. Primero debe crearse una cavidad en el disolvente. La creación de dicha cavidad será entrópicamente y entálpicamente desfavorable, dado que las moléculas del disolvente se localizan en regiones más pequeñas, y hay menos interacciones disolvente-disolvente. Segundo, el soluto debe separarse de las partículas grandes de soluto. Esto es entálpicamente desfavorable, puesto que se rompen interacciones soluto-soluto, pero entrópicamente favorable. Tercero, el soluto debe ocupar la cavidad creada en el disolvente. Esto resulta en interacciones soluto-disolvente favorables, y es entrópicamente favorable puesto que la mezcla está más desordenada que cuando el disolvente y el soluto no estaban mezclados. La disolución se da frecuentemente cuando las interacciones soluto-disolvente son similares a las interacciones disolvente-disolvente, lo que se refleja en la expresión lo semejante disuelve a lo semejante. De ahí que los solutos polares se disuelvan en disolventes polares, mientras que los solutos no polares se disuelven en disolventes no polares. No hay una sola medida de la polaridad del disolvente, así que la clasificación de los disolventes basada en la polaridad puede llevarse a cabo usando diferentes escalas. (ver también: Disolvente - clasificación de los disolventes)

Efectos en la estabilidad Diferentes disolventes pueden afectar la constante de equilibrio de una reacción por estabilización diferencial del reactante o el producto. El equilibrio es empujado en la dirección de la sustancia que es estabilizada preferentemente. La estabilización del reactante o producto puede darse a través de cualquiera de las interacciones no covalentes con el disolvente, tales como el enlace de hidrógeno, interacciones dipolo-dipolo, etc.

Equilibrio ácido-base El equilibrio de ionización de un ácido o una base está afectado por un cambio en el disolvente. El efecto del disolvente no es sólo debido a su acidez o basicidad, sino también a su constante dieléctrica y su habilidad para solvatar preferentemente y entonces estabilizar ciertas especies en el equilibrio ácido-base. Entonces, un cambio en la habilidad de solvatación o constante dieléctrica puede influir en la acidez o basicidad.

50

Efectos del disolvente

51

Propiedades del disolvente a 25oC Disolvente Acetonitrilo

[1]

Constante dieléctrica 37

Dimetil sulfóxido 47 Agua

78

En la tabla anterior puede verse que el agua es el disolvente más polar, seguido por el DMSO y luego el acetonitrilo. Considérese el siguiente equilibrio de disociación ácido: HA

A− + H+,

El agua, al ser el disolvente más polar listado anteriormente, estabiliza las especies iónicas en mayor grado de lo que lo hacen el DMSO o el acetonitrilo. La ionización, y en consecuencia la acidez, será más grande en el agua, y menor en el DMSO y el acetonitrilo, como se puede ver en la tabla siguiente, que muestra los valores de pKa a 25oC para el acetonitrilo (ACN) y dimetilsulfóxido (DMSO) and water.

Valores de pKa de ácidos HA

A− + H+

ACN DMSO agua

Ácido p-toluenosulfónico 8.5

0.9

fuerte

2,4-Dinitrofenol

16.66 5.1

3.9

Ácido benzoico

21.51 11.1

4.2

Ácido acético

23.51 12.6

4.756

Fenol

29.14 18.0

9.99

Equilibrio ceto-enol Varios compuestos 1,3-dicarbonílicos pueden existir en las siguientes formas tautoméricas como se muestra a continuación.

Los compuestos 1,3-dicarbonílicos sufren una tautomerización frecuente entre la forma cíclica enólica (conocida como la forma cis) y la forma diceto. La constante de equilibrio para la tautomerización está dada por:

El efecto del disolvente sobre la constante de equlibrio de tautomerización de la acetilacetona es como sigue:

Efectos del disolvente

52

Disolvente

KT

Fase gaseosa

11.7

Ciclohexano

42

Tetrahidrofurano

7.2

Benceno

14.7

Etanol

5.8

Diclorometano

4.2

Agua

0.23

La forma cis enólica predomina en disolventes de baja polaridad, mientras que la forma diceto predomina en disolventes de alta polaridad. El enlace de hidrógeno intramolecular formado en la forma cis está más pronunciado cuando no hay una competencia para la formación de un enlace de hidrógeno intermolecular con el disolvente. Como resultado, los disolventes de baja polaridad que no forman enlaces de hidrógeno fácilmente permiten la estabilización de la forma cis enólica por enlace de hidrógeno intramolecular.

Efectos en la velocidad de las reacciones Frecuentemente, se esquematizan la reacitividad y los mecanismos de reacción como el comportamiento de moléculas aisladas en el cual el disolvente es tratado como un soporte pasivo. Sin embargo, los disolventes pueden influir realmente en la velocidad de las reacciones y el orden de una reacción química.

Efectos del disolvente sobre el equilibrio Los disolventes pueden afectar las velocidades a través de los efectos del disolvente en el equilibrio, lo que puede ser explicado a partir de la teoría del estado de transición. Esencialmente, la velocidad de las reacciones están influenciada por la solvatación diferencial del material inicial y el estado de transición por el disolvente. Cuando las moléculas del reactante proceden hacia el estado de transición, las moléculas de disolvente se orientan para estabilizar el estado de transición. Si el estado de transición es estabilizado en mayor medida que el material inicial, la reacción procede más rápidamente. Si el material inicial es estabilizado en mayor medida que el estado de transición, la reacción procede más lentamente. Sin embargo, dicha solvatación diferencial requiere una rápida relajación reorientacional del disolvente (de la orientación del estado de transición de vuelta hacia la orientación del estado fundamente). En consecuencia, los efectos del disolvente en el equilibrio se observan en reacciones que tienden a tener barreras altas, y solvntes débilmente dipolares, que se relajan rápidamente.

Efectos friccionales del disolvente La hipótesis del equiilbrio no responde adecuadamente las reacciones químicas muy rápidas, en las que la teoría del estado de transición falla. En tales casos que involucran un disolvente fuertemente dipolar, de relajación lenta, la solvatación del estado de transición no juega un rol significativo en afectar la velocidad de reacción. En su lugar, las contribuciones dinámicas del disolvente (tales como la fricción, densidad, presión interna o viscosidad) juegan un rol más significativo en cómo afectan la velocidad de la reacción.

Efectos del disolvente

53

Reglas de Hughes-Ingold Los efectos del disolvente en las reacciones de sustitución nucleofílica y eliminación fueron estudiados originalmente por Hughes e Ingold. Mediante el uso de un modelo de solvatación simple que sólo consideraba interacciones electrostáticas puras entre los iones o moléculas dipolares, y los disolventes en el estado inicial y de transición, organizaron todas las reacciones nucleofílicas y de eliminación en tipos de carga diferentes (cargados negativamente, positivamente, o neutros). A continuación, Hughes e Ingold elaborarion ciertas suposiciones que podían hacerse acerca del grado de solvatación que podía esperarse en estas situaciones: • un incremento en la magnitud de la carga aumentará la solvatación • un incremento en la deslocalización disminuirá la solvatación • la pérdida de carga disminuirá la solvatación, más que la dispersión de la carga El efecto aplicativo de estas suposiciones generales se muestra en los siguientes ejemplos: 1. Un incremento en la polaridad del disolvente acelera la velocidad de las reacciones donde se desarrolla una carga en el completo activado, a partir de reactantes neutros o ligeramente cargados 2. Un incremento en la polaridad del disolvente disminuye la velocidad de las reacciones donde hay una pérdida de carga en el complejo activado, en comparación a los materiales iniciales 3. Un cambio en la polaridad del disolvente tendrá poco o ningún efecto sobre la velocidad de las reacciones cuando hay poca o ninguna diferencia en la carga entre los reactantes y el complejo activado.

Ejemplos de reacción Reacciones de sustitución El disolvente usado en las reacciones de sustitución determina inherentemente la nucleofilicidad del nucleófilo; este hecho se ha vuelto más evidente puesto que más reacciones son llevadas a cabo en fase gaseosa. Así, las condiciones del disolvente impactan significativamente en el rendimiento de una reacción, con ciertas condiciones de disolvente favoreciendo un mecanismo de reacción sobre otro. Para las reacciones SN1, la habilidad de los disolventes para estabilizar el carbocatión intermediario es de importancia directa para su viabilidad como un disolvente apropiado. La habilidad de los disolventes polares para incrementar la velocidad de las reaccionesSN1 es un resultado de los disolventes polares solvatando a las especies reactantes intermedias, esto es, al carbocatión, con lo que se disminuye la energía intermedia relativa al material inicial. La siguiente tabla muestra las velocidades de solvólisis de cloruro de tert-butilo con ácido acético, metanol y agua. Disolvente Constante dieléctrica, ε Velocidad relativa CH3CO2H

6

1

CH3OH

33

4

H2O

78

150,000

El caso de las reacciones SN2 es algo diferente, puesto que la ausencia de solvatación del nucleófilo incrementa la velocidad de una reacción SN2. En cualquier caso (SN1 o SN2), la habilidad de estabilizar el estado de transición (SN1) o desestabilizar el material reactante inicial ((SN2) actúa para disminuir la energía de activación, incrementando la velocidad de la reacción. Esta relación es acorde con la ecuación ΔG = -RT ln K (energía libre de Gibbs). La ecuación de velocidad para las reacciones SN2 es bimolecular, siendo de primer orden en el nucleófilo, y de primer orden en el reactivo. El factor determinante cuando tanto los mecanismos SN1 y SN2 son viables es la fuerza del nucleófilo. La nucleofilicidad y basicidad están relacionadas, y mientras más nucleofílica se vuelve una molécula, más grande se hace la basicidad del nucleófilo. Este incremento en la basicidad ocasiona problemas a los mecanismos de reacción SN2, cuando el disolvente de elección es prótico. Los disolventes próticos reaccionan con nucleófilos fuertes con buen carácter básico, mediante el esquema ácido/base, con lo que se disminuye o elimina la

Efectos del disolvente

54

naturaleza nucleofílica del nucleófilo. La siguiente table muestra el efecto de la polaridad del disolvente en las velocidades de reacción relativas de la reacción SN2 del bromuro de n-butilo con anión azida, N3 −. Obsérvese el gran aumento en la velocidad de la reacción cuando se cambia de un disolvente prótico a uno aprótico. Esta diferencia surge de las reacciones ácido/base entre los disolventes próticos (que no se da con los disolventes apróticos) y los nucleófilos fuertes. Es importante observar también que tanto los efectos de disolvente como los efectos estéricos impactan en las velocidades de reacción relativas. sin embargo, para los casos mostrados a continuación en la demostración de las velocidades de reacción SN2, los efectos estéricos pueden ser despreciados. Disolvente

Constante dieléctrica, ε Velocidad relativa

Tipo

Metanol

33

1

Prótico

Agua

78

7

Prótico

Dimetil sulfóxido

49

1,300

Aprótico

Dimetilformamida

37

2800

Aprótico

Yoduro de metilo

38

5000

Aprótico

Referencias [1] p. 317–318

Efusión La efusión es el proceso que ocurre cuando un gas que está bajo presión escapa de un recipiente hacia el exterior por medio de una abertura. Se sabe por medio de demostraciones que la velocidad de efusión es directamente proporcional a la velocidad media de las moléculas. El fenómeno de efusión está relacionado con la energía cinética de las moléculas. Gracias a su movimiento constante, las partículas de una sustancia se distribuyen uniformemente en el espacio libre. Si hay una concentración mayor de partículas en un punto, habrá más choques entre sí y que se moverán hacia las regiones de menor número: las sustancias se efunden de una región de mayor concentración a una región de menor concentración.

Descripción La efusión describe el flujo de un gas desde una región de alta presión a una baja presión a través de un orificio pequeño o una abertura. La condición para que haya efusión es que la trayectoria libre media de las moléculas debe ser mayor en comparación al diámetro del orificio. Un ejemplo de efusión se observa que en un globo inflado con helio se desinfla mucho más rápido que uno lleno con aire, la presión del interior del globo es mayor que la presión atmosférica y la superficie extendida del caucho tiene muchos orificios pequeños que permiten el escape de moléculas de gas. Efusión de gases. Ley de Graham: La velocidad de efusión de un gas a través de un pequeño orificio o poro es directamente proporcional a la velocidad media del gas:

También es:

Efusión

La ley de Graham permite determinar masas moleculares y separar gases. La efusión es el proceso por el cual un gas bajo presión escapa de un recipiente al exterior a través de una pequeña abertura. Se ha demostrado que la velocidad de efusión es directamente proporcional a la velocidad media de las moléculas. Se pueden medir los tiempos necesarios para que cantidades iguales de gases efundan en las mismas condiciones de presión y temperatura, demostrándose que dichos tiempos son inversamente proporcionales a sus velocidades. Así, cuanto más pesada es la molécula más tardará en efundir.

Electrodo de referencia El electrodo de referencia es un electrodo que tiene un potencial de equilibrio estable y conocido. Es utilizado para medir el potencial contra otros electrodos en una celda electroquímica. El potencial de unión líquida en estos electrodos es minimizado por el uso de altas concentraciones de cloruro de potasio como solución de llenado, debido a que la velocidad de difusión de estos iones son muy similares. En potenciometría es una semicelda que tiene un potencial de electrodo Eref exactamente conocido e independientemente de la concentración del analitoo de los iones contenidos en la solución que se analiza. Aunque este electrodo puede ser un electrodo normal de hidrógeno, este casi no se usa porque su aplicación y mantenimiento son complicados. Por convención, en las mediciones potenciométricas siempre se maneja el electrodo de referencia igual que el ánodo(electrodo derecho). Los electrodos que se emplean en potenciometría tienen una respuesta muy selectiva hacia los analitos.

Electrolito Un electrolito o electrólito es cualquier sustancia que contiene iones libres, los que se comportan como un medio conductor eléctrico. Debido a que generalmente consisten en iones en solución, los electrólitos también son conocidos como soluciones iónicas, pero también son posibles electrolitos fundidos y electrolitos sólidos.

Principios Comúnmente, los electrolitos existen como disoluciones de ácidos, bases o sales. Más aún, algunos gases pueden comportarse como electrolitos bajo condiciones de alta temperatura o baja presión. Las soluciones de electrolitos pueden resultar de la Electrolito líquido en un proceso de recubrimiento por electrólisis. disolución de algunos polímeros biológicos (por ejemplo, ADN, polipéptidos) o sintéticos (por ejemplo, poliestirensulfonato, en cuyo caso se denominan polielectrolito) y contienen múltiples centros cargados. Las soluciones de electrolitos se forman normalmente cuando una sal se coloca en un solvente tal como el agua, y los componentes individuales se disocian debido a las interacciones entre las moléculas del solvente y el soluto, en un proceso denominado solvatación. Por ejemplo, cuando la sal común, NaCl se coloca en agua, sucede la siguiente reacción:

55

Electrolito

56 NaCl(s) → Na+ + Cl−

También es posible que las sustancias reaccionen con el agua cuando se les agrega a ella, produciendo iones. Por ejemplo, el dióxido de carbono reacciona con agua para producir una solución que contiene iones hidronio, bicarbonato y carbonato. En términos simples, el electrolito es un material que se disuelve completa o parcialmente en agua para producir una solución que conduce una corriente eléctrica. Las sales fundidas también pueden ser electrólitos. Por ejemplo, cuando el cloruro de sodio se funde, el líquido conduce la electricidad. Si un electrólito en solución posee una alta proporción del soluto se disocia para formar iones libres, se dice que el electrólito es fuerte; si la mayoría del soluto no se disocia, el electrólito es débil. Las propiedades de los electrólitos pueden ser explotadas usando la electrólisis para extraer los elementos químicos constituyentes.

Importancia fisiológica En fisiología, los iones primarios de los electrólitos son sodio (Na+), potasio (K+), calcio (Ca2+), magnesio (Mg2+), cloruro (Cl−), hidrógeno fosfato (HPO42−) y bicarbonato (HCO3−). Todas las formas de vida superiores requieren un sutil y complejo balance de electrólitos entre el medio intracelular y el extracelular. En particular, el mantenimiento de un gradiente osmótico preciso de electrólitos es importante. Tales gradientes afectan y regulan la hidratación del cuerpo, pH de la sangre y son críticos para las funciones de los nervios y los músculos, e imprescindibles para llevar a cabo la respiración. Existen varios mecanismos en las especies vivientes para mantener las concentraciones de los diferentes electrólitos bajo un control riguroso. Tanto el tejido muscular y las neuronas son considerados tejidos eléctricos del cuerpo. Los músculos y las neuronas son activadas por la actividad de electrólitos entre el fluido extracelular o fluido intersticial y el fluido intracelular. Los electrólitos pueden entrar o salir a través de la membrana celular por medio de estructuras proteicas especializadas, incorporadas en la membrana, denominadas canales iónicos. Por ejemplo, las contracciones musculares dependen de la presencia de calcio (Ca2+), sodio (Na+), y potasio (K+). Sin suficientes niveles de estos electrólitos clave, puede suceder debilidad muscular o severas contracciones musculares. El balance de electrólitos se mantiene por vía oral o, en emergencias, por administración vía intravenosa (IV) de sustancias conteniendo electrólitos, y se regula mediante hormona, generalmente con los riñones eliminando los niveles excesivos. En humanos, la homeostasis de electrólitos está regulada por hormonas como la hormona antidiurética, aldosterona y la paratohormona. Los desequilibrios electrolíticos serios, como la deshidratación y la sobrehidratación pueden conducir a complicaciones cardíacas y neurológicas y, a menos que sean resueltas rápidamente, pueden resultar en una emergencia médica.

Medición La medición de los electrólitos es un procedimiento diagnóstico realizado comúnmente, ejecutado vía examen de sangre con electrodos selectivos o urinálisis por tecnólogos médicos. La interpretación de estos valores es algo carente de significado sin la historia clínica y frecuentemente es imposible sin una medición paralela de la función renal. Los electrólitos medidos más frecuentemente son el sodio y el potasio. Los niveles de cloruro se miden rara vez, excepto para la interpretación de gas sanguíneo arterial dado que están vinculados inherentemente a los niveles de sodio. Un test importante llevado a cabo con la orina es el examen de gravedad específica para determinar la existencia de desbalance electrolítico.

Electrolito

57

Bebidas deportivas Los electrólitos suelen encontrarse en bebidas deportivas. En terapia de rehidratación oral, las bebidas con electrólitos contienen sales de sodio y potasio restablecen el agua del cuerpo y los niveles de electrólitos después de la deshidratación causada por el ejercicio, diaforesis, diarrea, vómito, intoxicación o hambre. No es necesario reemplazar las pérdidas de sodio, potasio y otros electrólitos durante el ejercicio, dado que no suele suceder una disminución significativa de las reservas corporales de estos minerales durante el entrenamiento normal. Sin embargo, en condiciones de ejercitación extrema por 5 o más horas (por ejemplo: ironman o ultramaratón), se recomienda el consumo de una bebida deportiva compleja con electrólitos. Elizabeth Quinn, (entrenador y profesional de la salud) [1] Los atletas que no consumen electrólitos bajo estas condiciones corren el riesgo de sobrehidratación (o hiponatremia). Debido a que las bebidas deportivas típicamente contienen niveles muy altos de azúcar, no son recomendados para su uso regular por niños. El agua es considerado la única bebida esencial para los niños durante el ejercicio. Hay disponibles sobres medicinales de rehidratación y bebidas para reemplazar a los electrólitos claves perdidos durante diarrea y otros problemas gastrointestinales. Los dentistas recomiendan que los consumidores regulares de bebidas deportivas tomen precauciones contra la caries dental. Las bebidas deportivas y electrólicas pueden ser hechas en casa, usando las proporciones correctas de azúcar, sal y agua.[2]

Electroquímica Cuando se coloca un electrodo en un electrólito y se aplica un voltaje, el electrólito conducirá electricidad. Los electrones solos normalmente no pueden pasar a través del electrólito; en vez de ello, una reacción química sucede en el cátodo, consumiendo los electrones del cátodo, y otra reacción ocurre en el ánodo, produciendo electrones para ser capturados por el ánodo. Como resultado, una nube de carga negativa se desarrolla en el electrólito alrededor del cátodo, y una carga positiva se desarrolla alrededor del ánodo. Los iones en el electrólito se mueven para neutralizar estas cargas para que las reacciones puedan continuar y los electrones puedan seguir fluyendo. Por ejemplo, en una solución de sal ordinaria (cloruro de sodio, NaCl) en agua, la reacción en el cátodo será: 2H2O + 2e− → 2OH− + H2 con lo que burbujeará gas hidrógeno; la reacción en el ánodo es: 2H2O → O2 + 4H+ + 4e− con lo que se liberará gas oxígeno. Los iones sodio Na+ positivamente cargados reaccionarán hacia el cátodo, neutralizando la carga negativa del OH− ahí presente, y los iones cloruro Cl− reaccionarán hacia el ánodo neutralizando la carga positiva del H+ de ahí. Sin los iones provenientes del electrólito, las cargas alrededor de los electrodos harían más lento el flujo continuo de electrones; la difusión de H+ y OH− a través del agua hacia el otro electrodo tomaría más tiempo que el movimiento de los iones de sodio más prevalentes. En otros sistemas, las reacciones de los electrodos pueden involucrar a los metales de los electrodos, así como a los iones del electrólito. Los conductores electrolíticos pueden ser utilizados en dispositivos electrónicos donde la reacción química en la interfase metal/electrólito produce efectos útiles.

Electrolito

58

Electrólito seco Los electrólitos secos son: esencialmente, geles en una estructura molecular cristalina flexible.[3]

No electrolito Son sustancias que cuando se disuelven en agua se separan en sus moléculas: las moléculas tienen movilidad por estar en disolución acuosa pero son eléctricamente neutras (no tienen carga). Por ejemplo, la sacarosa se separa en moléculas cuando se disuelve en agua. Estos líquidos y disoluciones tienen partículas con movilidad pero sin carga; por lo tanto, no son conductores de electricidad.

Referencias [1] http:/ / sportsmedicine. about. com/ cs/ hydration/ a/ aa041103a. htm [2] http:/ / www. webmd. com/ hw/ health_guide_atoz/ str2254. asp?navbar=hw86827 [3] EV World Surveys (http:/ / www. evworld. com/ article. cfm?storyid=933)

Espectroscopia La espectroscopia o espectroscopía es el estudio de la interacción entre la radiación electromagnética y la materia, con absorción o emisión de energía radiante. Tiene aplicaciones en astronomía, física, química y biologia, entre otras disciplinas científicas. El análisis espectral se basa en detectar la absorción o emisión de radiación electromagnética a ciertas longitudes de onda y se relacionan con los niveles de energía implicados en una transición cuántica. Existen tres casos de interacción con la materia: 1. Choque elástico: existe sólo un cambio en el impulso de los fotones. Ejemplos son los rayos X, la difracción de electrones y la difracción de neutrones. 2. Choque inelástico: por ejemplo la espectroscopia Raman. 3. Absorción o emisión resonante de fotones.

Aspectos generales El mecanismo por el cual la materia emite electromagnética es el dominio de la espectroscopia.

radiación

La radiación electromagnética se atribuye a las diferencias de energía en las transiciones de los electrones de unos niveles atómicos a otros. La espectroscopia se relaciona en la mayoría de los casos con la tercera interacción. Estudia en qué frecuencia o longitud de onda una sustancia puede absorber o emitir energía en forma de un cuanto de luz.

Espectro de luz de una llama de alcohol.

Espectroscopia

59

La energía de un fotón (un cuanto de luz) de una onda electromagnética o su correspondiente frecuencia, equivale a la diferencia de energía entre dos estados cuánticos de la sustancia estudiada:

donde

es la constante de Planck,

es la frecuencia del haz de luz u

onda electromagnética asociada a ese cuanto de luz y

es la

diferencia de energía. Esta ecuación es conocida también como la ecuación básica de la espectroscopia. Las diferencias de energía entre estados cuánticos dependen de la composición elemental de la prueba o de la estructura de la molécula, y por eso este método proporciona información importante para astrónomos, físicos, químicos y biólogos.

Luz visible como parte del espectro electromagnético.

Por medio de un espectrofotómetro se mide el espectro de la luz (intensidad de la luz absorbida, reflejada o emitida en función de la frecuencia o de la longitud de onda). Los espectros se diferencian considerablemente de elemento a elemento. En general, se denota como espectro a la distribución de la intensidad en función de la frecuencia o de la longitud de onda. Además de la luz visible, la espectroscopia cubre hoy en día una gran parte del espectro electromagnético, que va de los infrarrojos hasta los rayos gamma. El objetivo de la espectroscopia es obtener información acerca de una prueba o de un cuerpo radiante. Por ejemplo: • La estructura interna o la temperatura (por ejemplo de estrellas) • La composición o la cinética de una reacción química • La espectroscopia analítica identifica átomos o moléculas por medio de sus espectros

Etimología Por analogía con otras palabras que designan ramas de la ciencia, es frecuente «romper» el diptongo final convirtiendo «espectroscopia» en «espectroscopía» (nótese la tilde sobre la i). Tanto la forma con diptongo (ia), como la forma con hiato (ía) acorde con la pronunciación etimológica griega, son aceptadas por la Real Academia Española.

Origen La luz visible es físicamente idéntica a todas las radiaciones electromagnéticas. Es visible para nosotros porque nuestros ojos detectan esta estrecha banda de radiación del espectro electromagnético completo. Esta banda es la radiación dominante que emite el Sol. Desde la antigüedad, científicos y filósofos han especulado sobre la naturaleza de la luz. Nuestra comprensión moderna de la luz comenzó con el experimento del prisma de Isaac Newton, con el que comprobó que cualquier haz incidente de luz blanca, no necesariamente procedente del Sol, se descompone en el espectro del arco iris (del rojo al violeta). Newton tuvo que esforzarse en demostrar que los colores no eran introducidos por el prisma, sino que realmente eran los constituyentes de la luz blanca. Posteriormente, se pudo comprobar que cada color correspondía a un único intervalo de frecuencias o longitudes de onda. En los siglos XVIII y XIX, el prisma usado para descomponer la luz fue reforzado con rendijas y lentes telescópicas con lo que se consiguió así una herramienta más potente y precisa para examinar la luz procedente de distintas fuentes. Joseph von Fraunhofer, astrónomo y físico, utilizó este espectroscopio inicial para descubrir que el espectro de la luz solar estaba dividido por una serie de líneas oscuras, cuyas longitudes de onda se calcularon con extremo

Espectroscopia cuidado. Por el contrario, la luz generada en laboratorio mediante el calentamiento de gases, metales y sales mostraba una serie de líneas estrechas, coloreadas y brillantes sobre un fondo oscuro. La longitud de onda de cada una de estas bandas era característica del elemento que había sido calentado. Por entonces, surgió la idea de utilizar estos espectros como huella digital de los elementos observados. A partir de ese momento, se desarrolló una verdadera industria dedicada exclusivamente a la realización de espectros de todos los elementos y compuestos conocidos. También se descubrió que si se calentaba un elemento lo suficientemente (incandescente), producía luz blanca continua, un espectro completo de todos los colores, sin ningún tipo de línea o banda oscura en su espectro. En poco tiempo llegó el progreso: se pasó la luz incandescente de espectro continuo por una fina película de un elemento elegido que estaba a temperatura menor. El espectro resultante tenía líneas oscuras, idénticas a las que aparecían en el espectro solar, precisamente en las frecuencias donde el elemento particular producía sus líneas brillantes cuando se calentaba. Es decir, cada elemento emite y absorbe luz a ciertas frecuencias fijas características del mismo. Las líneas oscuras de Fraunhofer, que aparecían en el espectro solar, son el resultado de la absorción de ciertas frecuencias características por los elementos presentes en las capas más exteriores de nuestra estrella (espectro de absorción). Aún había dudas: en 1878, en el espectro solar se detectaron líneas que no casaban con las de ningún elemento conocido. De ello, los astrónomos predijeron la existencia de un elemento nuevo, llamado helio. En 1895 se descubrió el helio terrestre. De igual forma que la teoría universal de la gravitación de Newton probó que se pueden aplicar las mismas leyes tanto en la superficie de la Tierra como para definir las órbitas de los planetas, la espectroscopia demostró que existen los mismos elementos tanto en la Tierra como en el resto del Universo.

Relación con el estudio de los astros Los astros, así como la materia interestelar, emiten ondas electromagnéticas; los astrónomos han llegado al conocimiento de cuanto sabemos del ámbito extraterrestre descifrando los mensajes que portan esas ondas cuando llegan a nuestro planeta. Debe advertirse que la emisión y las modificaciones ulteriores experimentadas por esas radiaciones son resultado de no pocos factores: la composición elemental de la fuente que los emite, temperatura, presión y grado de ionización a que se halla la misma, influencia de los campos magnéticos y eléctricos, etc. Por otra parte, como los astrónomos y físicos han reproducido en sus laboratorios esos diferentes estados de la materia y obtenido los espectros correspondientes, éstos sirven de patrones que permiten analizar los espectros de los cuerpos celestes y extraer toda la información que contienen. En el caso de los espectros luminosos, los estudios constituyen el análisis espectral. Además de indicar la composición elemental de la fuente luminosa y el estado físico de su materia, el espectro revela si el cuerpo luminoso y la Tierra se acercan o se alejan entre sí, además de indicar la velocidad relativa a la que lo hacen (efecto Doppler-Fizeau).

Campos de estudio

60

Espectroscopia

61

Espectroscopia atómica Técnica

Excitación

Relajación

Espectroscopia de absorción atómica

UV-vis

Calor

Espectroscopia de emisión atómica

Calor

UV-vis

Espectroscopia de fluorescencia atómica

UV-vis

UV-vis

Espectroscopia de rayos X

Rayos X

Rayos X

Espectroscopia molecular

• • • • • • • •

Técnica

Radiación electromagnética

Espectroscopia de resonancia magnética nuclear

Radiofrecuencias

Espectroscopia de microondas

Microondas

Espectroscopia infrarroja

Infrarrojo

Espectroscopia ultravioleta-visible

Ultravioleta-visible

Espectroscopia de fluorescencia ultravioleta-visible

Ultravioleta-visible

Espectroscopia astronómica Espectroscopia de absorción atómica (AA) Espectroscopia de fluorescencia Espectroscopia de rayos X Espectroscopia de resonancia magnética nuclear Espectroscopia de microondas Espectroscopia infrarroja Espectroscopia ultravioleta-visible

Enlaces externos • Espectrometria.com [1] Información sobre técnicas espectroscópicas. • NIST - Basic Atomic Spectroscopy Data [2] (En inglés) Este libro de bolsillo ha sido diseñado para proveer una selección de los datos de espectroscopia atómica más importantes y frecuentemente usados. • Espectroscopia de nanohilos [3]

Referencias [1] http:/ / www. espectrometria. com [2] http:/ / physics. nist. gov/ PhysRefData/ Handbook/ periodictable. htm [3] http:/ / www. herrera. unt. edu. ar/ nano/ Investigacion_Nanociencia_Nanotecnologia_Argentina_Tucuman_UNT. html#impedance

Espectroscopia de resonancia magnética nuclear

Espectroscopia de resonancia magnética nuclear La espectroscopía de resonancia magnética nuclear (RMN) es una técnica empleada principalmente en la elucidación de estructuras moleculares, aunque también se puede emplear con fines cuantitativos y en estudios cinéticos y termodinámicos. Algunos núcleos atómicos sometidos a un campo magnético externo absorben radiación electromagnética en la región de las frecuencias de radio o radiofrecuencias. Como la frecuencia exacta de esta absorción depende del entorno de estos núcleos, se puede emplear para determinar la estructura de la molécula en donde se encuentran éstos. Para que se pueda emplear la técnica los núcleos deben tener un momento magnético distinto de cero. Esta condición no la cumplen los núcleos con número másico y número atómico par (como el 12C, 16O, 32S). Los núcleos más importantes en química orgánica son: 1H, 13C, 31P, 19F y 15N. Otros núcleos importantes: 7Li, 11B, 27Al, 29Si, 77Se, 117 Sn, 195Pt, 199Hg, 203Tl, 205Tl, 207Pb Se prefieren los núcleos de número cuántico de espín nuclear igual a 1/2, ya que carecen de un momento cuadrupolar eléctrico que produce un ensanchamiento de las señales de RMN. También es mejor que el isótopo sea abundante en la naturaleza, ya que la intensidad de la señal dependerá de la concentración de esos núcleos activos. Por eso, uno de los más útiles en la elucidación de estructuras es el 1H, dando lugar a la espectroscopia de resonancia magnética nuclear de protón. También es importante en química orgánica el 13C, aunque se trata de un núcleo poco abundante y poco sensible. La técnica se ha empleado en química orgánica, química inorgánica y bioquímica. La misma tecnología también ha terminado por extenderse a otros campos, por ejemplo en medicina, en donde se obtienen imágenes por resonancia magnética.

Historia La primera detección de Resonancia Magnética Nuclear debida a la formación de una diferencia en las energías de ciertos núcleos en presencia de un campo magnético fue reportada por Bloch (para el agua líquida) y Purcell (para la cera de parafina) en 1946. La aplicación química de la RMN fue descubierta a principios de los cincuenta, al observarse que la frecuencia de resonancia de un núcleo dependía fuertemente de su entorno químico (chemical shift). A partir de los años setenta, el desarrollo de nuevas técnicas y mayores campos magnéticos (que incrementan tanto la sensibilidad como la resolución de las señales) permitieron estudiar moléculas cada vez más grandes. El advenimiento de la RMN multidimensional y el uso del marcaje 13C y 15N marcó el inicio de la RMN biológica.

Tipos de RMN Espectroscopia de RMN con Onda Continua (CW: Continuous Wave) Desde sus comienzos hasta finales de los 60, la espectroscopia de RMN utilizó una técnica conocida como espectroscopia de onda continua (CW). La manera de registrar un espectro de RMN en el modo de CW era, bien mantener constante el campo magnético e ir haciendo un barrido de frecuencias con un campo oscilante, o bien, lo que era usado más a menudo, se mantenía constante la frecuencia del campo oscilante, y se iba variando la intensidad del campo magnético para encontrar las transiciones (picos del espectro). En la RMN de CW las señales del espectro se registran como señales en resonancia. La espectroscopia CW está limitada por su baja sensibilidad, ya que cada señal se registra una sola vez por cada barrido y la técnica de resonancia magnética nuclear ya es de por sí no demasiado sensible; esto quiere decir que la técnica sufre de una baja relación señal-ruido. Afortunadamente, en RMN es posible mejorar la relación señal-ruido mediante el promediado de señal. El promediado de señal consiste en repetir la adquisición del experimento e ir

62

Espectroscopia de resonancia magnética nuclear sumando los espectros que se obtienen. De esta manera, las zonas del espectro en que existen señales se suman de manera constructiva, mientras que, por su parte, las zonas en que hay ruido, por su carácter aleatorio, se acumula más lentamente que la señal. Mediante el promediado de señal se incrementa la relación señal-ruido en un valor que es la raíz cuadrada del número de espectros que se han acumulado. Esta relación se cumple con espectros de RMN en los que intervienen un sólo tipo de núcleos, por ejemplo, sólo 1H, 13C, etc., también llamados espectros homonucleares.

Espectroscopia de RMN de pulsos y Transformada de Fourier La técnica de RMN con transformada de Fourier (FT-NMR) es la que se utiliza en los espectrómetros actuales. Uno de los pioneros en este campo es Richard R. Ernst, que la desarrolló a partir del año 1966 y por la que fue galardonado con el Premio Nobel de Química en 1991. FT-NMR permite disminuir drásticamente el tiempo que requiere adquirir una acumulación (scan) del espectro completo de RMN. En vez de realizar un barrido lento de la frecuencia, una en cada instante, esta técnica explora simultánea e instantáneamente todo un rango de frecuencias. Dos desarrollos técnicos fueron fundamentales para poder hacer realidad la técnica FT-NMR: ordenadores capaces de llevar a cabo las operaciones matemáticas necesarias para pasar desde el dominio de tiempo al de la frecuencia, es decir, para obtener el espectro; y el conocimiento sobre cómo poder excitar simultáneamente todo un rango de frecuencias. La FT-NMR funciona con la muestra (espines nucleares) sometida a un campo magnético externo constante. Se irradia la muestra con un pulso electromagnético de muy corta duración en la región de las radiofrecuencias. La forma que suele usarse para este pulso es rectangular, es decir, la intensidad de la radiofrecuencia oscila entre un máximo y un mínimo que es constante mientras dura el pulso. Un pulso de corta duración tiene una cierta incertidumbre en la frecuencia (principio de indeterminación de Heisenberg). La descomposición de fourier de una onda rectangular contiene contribuciones de una de todas las frecuencias. El pulso que se genera es por tanto policromático y cuanto más corto sea, es capaz de excitar un mayor rango de frecuencias. La aplicación de un pulso policromático en una región estrecha de la banda de radiofrecuencias (MHz) afecta a aquellos espines nucleares que resuenen en esa región. Un pulso policromático con una anchura en frecuencia de unos pocos kHz puede llegar a excitar simúltaneamente sólo a los espines nucleares de un mismo tipo de núcleo atómico dentro de una molécula, por ejemplo, todos los núcleos de hidrógeno (1H). Antes del pulso el vector de polarización neta de cada uno de los espines nucleares se encuentra en situación de equilibrio alineado en la dirección del campo magnético. Durante el tiempo que se aplica el pulso, el pulso introduce un segundo campo magnético en una dirección perpendicular al campo principal del imán y el vector polarización realiza un determinado movimiento de precesión. Tras cesar el pulso, el vector polarización de todos los espines afectados puede formar un cierto ángulo con el eje del campo magnético principal. En este momento, los espines, comportándose como pequeños imanes polarizados, comienzan a precesionar con su frecuencia característica en torno al campo magnético externo, induciendo una pequeña corriente oscilante de RF en una bobina receptora situada en las inmediaciones de la muestra. A medida que los núcleos van regresando poco a poco a la situación inicial de equilibrio alineados con en el campo magnético principal, la señal detectada va disminuyendo de intensidad hasta hacerse cero. Esta caída de la señal se conoce como caída libre de la inducción (Free Induction Decay) (FID) y da lugar al espectro de RMN.

63

Espectroscopia de resonancia magnética nuclear

64 La FID es una onda que contiene todas las señales del espectro en una forma que es dependiente del tiempo. Esta onda puede convertirse en un espectro de señales en función de su frecuencia. Para ello se utiliza una función matemática conocida como Transformada de Fourier. El resultado es lo que se conoce como un espectro de RMN (espectro de frecuencias).

La señal que se detecta FID (Free Induction Decay) es una señal oscilante que contiene todas las señales del espectro y decae hasta hacerse cero.

RMN Multidimensional

La posibilidad de excitar la muestra con uno o más pulsos de radiofrecuencia (RF), cada uno de ellos aplicado con una potencia, duración, frecuencia, forma y fase particulares, e introducirlos en momentos específicos de tiempo durante el experimento de RMN, generalmente antes de que el sistema haya regresado al equilibrio por relajación, permite diseñar toda una gama de secuencias de pulsos de las que se puede extraer información molecular muy variada. Una secuencia de pulsos es una distribución en el tiempo de alguno o varios de los siguientes elementos: i) un cierto número de pulsos de RF que afectén a uno o más tipos de núcleos, ii) tiempos de espera en los que no se hace nada sino esperar a que el sistema evolucione de una determinada forma. Estos tiempos de espera pueden ser fijos o bien incrementables si su duración se va aumentando a medida que se repite el experimento. iii) gradientes de campo magnético y iv) una etapa final en la que se adquiere la FID. En un experimento de RMN multidimensional la secuencia de pulsos debe constar de al menos dos pulsos y éstos deben separados por un periodo de espera incrementable. La secuencia de pulsos se repite un número de veces adquiriéndose una FID en cada ocasión. La fase de alguno de los pulsos puede alterarse en cada repetición así como incrementarse la duración de uno o más tiempos de espera variables. Si la secuencia de pulsos tiene un tiempo de espera incrementable el experimento tendrá dos dimensiones, si tiene dos será de tres dimensiones, si tiene tres el experimento será de cuatro dimensiones. Aunque en teoría no existe límite en el número de dimensiones de un experimento, experimentalmente hay limitaciones impuestas por la consiguiente pérdida de señal por relajación que conlleva la detección de las distintas dimensiones. Los tiempos de registro de los experimentos de RMN multidimensional se pueden acortar drásticamente con las técnicas rápidas de RMN desarrolladas en la presente década. Los experimentos multidimensionales se pueden clasificar en dos tipos principales: Experimentos de correlación homonuclear: Son aquellos en los que todas las dimensiones corresponden al mismo núcleo. Ejemplos: COSY (COrrelation SpectroscopY), TOCSY (TOtal Correlation SpectroscopY), NOESY (Nuclear Overhauser Effect SpectroscopY). Experimentos de correlación heteronuclear: En este experimentos se obtienen espectros cuyas dimensiones pertenecen a diferentes núcleos. Ejemplos: HMQC (Heteronuclear Multiple Quantum Correlation), HSQC (Heteronuclear Simple Quantum Correlation), HMBC (Heteronuclear Multiple Bond Correlation), HOESY (Heteronuclear Overhauser Effect SpectroscopY). Grosso modo, las interacciones que pueden detectarse por RMN se pueden clasisficar en dos tipos: 1. Las interacciones a través de enlaces se basan en el acoplamiento escalar 2. Las interacciones a través del espacio se basan en el acoplamiento dipolar. En el caso de muestras en disolución, el acoplamiento dipolar se manifiesta como efecto Overhauser nuclear que permite determinar la distancia entre los átomos. Richard Ernst en 1991 y Kurt Wüthrich en el 2002 fueron galardonados con el premio Nobel de Química por su contribuciones al desarrollo de la RMN de 2-dimensiones y multidimensional con transformada de Fourier. Los avances conseguidos por ellos y por otros grupos de investigadores han expandido la RMN a la bioquímica, y en

Espectroscopia de resonancia magnética nuclear particular a la determinación de la estructura en disolución de biopolímeros como proteínas o incluso ácidos nucleicos de tamaño pequeño.

Sólidos La RMN en disolución es complementaria de la cristalografía de rayos X ya que la primera permite estudiar la estructura tridimensional de las moléculas en fase líquida o disuelta en un cristal líquido, mientras que la cristalografía de rayos-X, como su nombre indica, estudia las moléculas en fase sólida. La RMN puede utilizarse también para el estudio de muestras en estado sólido. Si bien en su estado actual queda lejos de poder proporcionar con buen detalle la estructura tridimensional de una biomolécula. En el estado sólido las moléculas están estáticas y no existe, como ocurre con las moléculas en disolución, un promediado de la señal de RMN por el efecto de la rotación térmica de la molécula respecto a la dirección del campo magnético. Las moléculas de un sólido están prácticamente inmóviles, y cada una de ellas experimenta un entorno electrónico ligeramente diferente, dando lugar a una señal diferente. Esta variación del entorno electrónico disminuye la resolución de las señales y dificulta su interpretación. Raymond Andrew fue uno de los pioneros en el desarrollo de métodos de alta resolución para resonancia magnética nuclear en estado sólido. Él fue quien introdujo la técnica de la rotación en el ángulo mágico Magic Angle Spinning (MAS) que permitió incrementar la resolución de los espectros de sólidos varios órdenes de magnitud. En MAS, las interacciones se promedian rotando la muestra a una velocidad de varios kilohertzios. Alex Pines en colaboración con John Waugh revolucionaron también la RMN de sólidos introduciendo la técnica de la polarización cruzada (CP) que consigue incrementar la sensibilidad de núcleos poco abundantes gracias a la transferencia de polarización de los protones a los núcleos más insensibles cercanos, generalmente 13C, 15N o 29Si. A caballo entre la RMN en disolución y en fase sólida, se encuentra la técnica de HR-MAS (High Resolution with Magic Angle Sinning), cuya aplicación fundamental es el análisis de geles y materiales semisólidos. El fundamento del HR-MAS es hacer girar la muestra, al ángulo mágico, a una velocidad muy superior que en sólidos habituales. El efecto conseguido son espectros mono y bidimensionales de gran calidad, próxima a la RMN en disolución. La principal aplicación de esta técnica es el análisis de matrices biológicas y poliméricas, como resinas para síntesis en fase sólida solvatadas.

Sensibilidad Debido a que la intensidad de la señal de RMN, y por tanto, también la sensibilidad de la técnica depende de la fortaleza del campo magnético, desde los inicios de la RMN ha existido gran interés por el desarrollo de imanes más potentes. En la actualidad los imanes comerciales más potentes están en torno a los 22.31 T, o 950 MHz frecuencia de resonancia de 1H. Los avances en la tecnología audio-visual e informática también han mejorado los aspectos de generación de pulsos y la recepción de señal y el procesado de la información. La sensibilidad de las señales también depende de la presencia de núcleos magnéticamente-susceptibles a la RMN y, por tanto, de la abundancia natural de tales núcleos. Para el caso de biomoléculas los núcleos más abundantes y magnéticamente susceptibles son los isótopos de hidrógeno 1H y fósforo 31P. Por el contrario, núcleos como carbono y nitrógeno tienen isótopos útiles a la RMN, 13C y 15N, respectivamente, pero se presentan en baja abundancia natural. Para hacer frente a esta dificultad existe la posibilidad de enriquecer las moléculas de la muestra con estos isótopos (ej. sustitución de 12C por 13C y/o de 14N por 15N) para poder estudiarlos por RMN con la suficiente sensibilidad. Se trata de isótopos perfectamente estables que no producen más que una pequeña variación en la masa molecular de la molécula, sin afectar para nada a otras propiedades estructurales o químicas de la muestra.

65

Espectroscopia de resonancia magnética nuclear

66

Instrumentación en Resonancia Magnética Nuclear: el espectrómetro Un espectrómetro de RMN consta de las siguientes partes fundamentales: • Un imán que genere un campo magnético estable, el cual puede ser de una intensidad variable, definiendo la frecuencia de resonancia de cada núcleo. Generalmente se identifica cada espectrómetro por la frecuencia de resonancia del protón, así en un imán de 7.046 Tesla, los núcleos de 1H resuenan a 300 MHz, y por tanto sería un espectrómetro de 300 MHz. Por el momento el imán de mayor campo magnético del mundo lo ha instalado Bruker en la Unviersiad de ciencia y tecnología Rey Abdullah en Arabia Saudita, de 950 MHz (22.3 Tesla).[1] • Una sonda, que se sitúa dentro del imán, en la que se introduce la muestra y que consta de las bobinas responsables de emitir y recibir las radiofrecuencias (RF). El número de bobinas y su disposición determinan el tipo y las aplicaciones de cada sonda. • Una consola en la que se generan los pulsos de RF y se controla el resto de la parte electrónica del espectrómetro • Un ordenador que sirve de interfaz con el espectrómetro y con el que se analiza toda la información obtenida.

Información obtenida mediante RMN La aplicación fundamental de la espectroscopia de RMN es la determinación estructural, ya sea de moléculas orgánicas, organometálicas o biológicas. Para ello es necesario la realización de diferentes tipos de experimentos de los cuales se obtiene una determinada información. Para la elucidación estructural de moléculas orgánicas y organometálicas los experimentos más utilizados son los siguientes: • Espectro monodimensional de 1H: Da información del número y tipo de hidrógenos diferentes que hay en la molécula. La posición en el espectro (desplazamiento químico) determina el entorno químico del núcleo, y por tanto da información de grupos funcionales a los que pertenecen o que están cerca. La forma de la señal da información de los protones cercanos acoplados escalarmente.

Ejemplo de un espectro 1H de RMN.

Espectroscopia de resonancia magnética nuclear

67

• Espectro monodimensional de 13C: Al igual que en 1 H el desplazamiento químico da información de los grupos funcionales. Dependiendo del tipo de experimento realizado se puede obtener información del número de hidrógenos unidos a cada carbono.

Ejemplo de un espectro APT, un tipo de experimento de 13C.

• Espectros bidimensionales homonucleares: Los experimentos COSY y TOCSY dan información de las relaciones entre los protones de la molécula, por acomplamiento escalar o dipolar (NOESY) • Espectros bidimensionales heteronucleares: Los experimentos HMQC y HSQC indican qué hidrógenos están unidos a qué carbonos. El experimento HMBC permite determinar relaciones entre protones y carbonos a mayor distancia (2 o 3 enlaces) • Experimentos con otros núcleos: Si la molécula posee otros núcleos activos en RMN es posible su medida a través de experimentos monodimensionales o bidimensionales (por detección indirecta) Ejemplo de un espectro COSY.

Referencias [1] Instalaciones científicas de la U.C.T.R.A. (KAUST) (http:/ / www. kaust. edu. sa/ research/ core-imaging. aspx)

Enlaces externos • Artículo sobre espectrometría de Resonancia Magnética Nuclear (http://www.espectrometria.com/ espectrometra_de_resonancia_magntica_nuclear) • www.organicworldwide.net/nmr.html (en) (http://www.organicworldwide.net/nmr.html)

Espín-Orbital

68

Espín-Orbital Este término es empleado en el área de Física Atómica y Molecular o en Química Cuántica. Designa a una función de onda definida en el espacio de una partícula que depende tanto de las coordenadas de posición como del espín de la partícula(la variable

representa simultáneamente las coordenadas de posición y las coordenadas de

espín). Un caso particular de espín-orbital (que, por ejemplo, se suele utilizar al desarrollar matemáticamente el Modelo de Hartree-Fock) es aquel que puede escribirse como un producto de un orbital espacial y una función de espín , es decir:

. Donde

suele elegirse tal que sea autoestado del operador

angular de espín en z). Para ser más precisos, si se definen los estados de espín

y

(momento

como:

(se ha empleado unidades atómicas) entonces suele elegirse

o bien

Referencias • "Modern Quantum Chemistry , Introduction to Advanced Electronic Structure ", de A. Szabo y N. S. Ostlund, páginas 46 -47.

Estado triplete En Química cuántica se denomina triplete a un sistema con tres posibles valores de espín. Puede consistir en un bosón W o Z con espín de valor 1, dos fermiones idénticos con espín 1/2, o más de dos partículas en un estado con espín total 1 (tales como los electrones en una molécula de oxígeno triplete). Un triplete de espín es un conjunto de tres estados cuánticos de un sistema, cada uno con spin total S = 1 (en unidades de ). En física, el espín es el momento angular intrínseco para un cuerpo, a diferencia del momento angular orbital, que es el movimiento de su centro de masa con respecto a un punto externo. En la mecánica cuántica, el espín es particularmente importante para los sistemas a escala atómica, tales como átomos individuales, protones o electrones. Tales partículas, además de otros sistemas mecánico-cuánticos poseen varias características poco comunes o no clásicas, y para tales sistemas, el momento angular de espín no se pueden asociar con la rotación, sino que en su lugar, se refiere sólo a la presencia de un momento angular. Casi todas las moléculas que se encuentran en la vida diaria existen en un estado singlete, pero el oxígeno molecular es una excepción. A temperatura ambiente, el O2 existe en un estado triplete, lo que requeriría la transición prohibida a un estado singlete antes de que una reacción química pudiese comenzar, lo que hace que sea cinéticamente no reactivo a pesar de ser termodinámicamente un oxidante fuerte. La activación fotoquímica o térmica puede ponerlo en estado singlete, que es fuertemente oxidantes también cinéticamente.

Estado triplete

69

Dos partículas de espín 1/2 En un sistema con dos partículas de spin-1/2 - por ejemplo, el protón y el electrón en el estado fundamental del hidrógeno, medido sobre un eje dado, cada partícula pueden o bien girar hacia arriba o hacia abajo, por lo que el sistema tiene cuatro estados básicos en total:

Usamos los espines de cada partícula para etiquetar los estados básicos, donde la primera y segunda flecha en cada combinación indican la dirección de giro de la primera y la segunda partícula respectivamente. Más rigurosamente:

y puesto que para partículas de espín 1/2, los estados básicos estados básicos

abarcan un espacio de dimensión 2, los

abarcan un espacio de dimensión 4. Ahora el giro total y su proyección

sobre el eje definido previamente se pueden calcular utilizando las reglas para sumar momento angular en mecánica cuántica utilizando los coeficientes de Clebsch-Gordan. En general:

Sustituyendo en los cuatro estados básicos:

Se obtienen los valores posibles de spin total dados junto con su representación en la base . Hay tres estados con spin total del momento angular igual a 1:

Y un cuarto con el momento angular de espín total de 0.

Referencias • Griffiths (2004). Introduction to Quantum Mechanics (2nd ed.). Prentice Hall. ISBN 0-13-111892-7. • Levine (2001). Química cuántica (5ª Ed.). Pearson Educación. ISBN 84-205-3096-4. • Shankar (1994). «chapter 14-Spin». Principles of Quantum Mechanics (2nd ed.). Springer. ISBN 0-306-44790-8.

Factor de van't Hoff

Factor de van't Hoff El factor de van't Hoff (por Jacobus Henricus van't Hoff) es un parámetro que indica la cantidad de especies presentes que provienen de un soluto tras la disolución del mismo en un solvente dado. Se lo denomina " ".

Muchos solutos al disolverse se disocian en dos o más especies, como en el caso de los compuestos iónicos. Entonces la concentración de especies en disolución no coincide con la del soluto, necesitamos un factor que al multiplicarlo por la concentración del soluto nos dé la concentración total de especies en disolución. Este dato es particularmente importante para la propiedades coligativas como los fenómenos de ósmosis, ya que la presión osmótica depende de la concentración de especies en la disolución y no de la concentración del soluto. Si se disuelve, por ejemplo, 1 mol de NaCl en 1 litro de agua (sin llegar a la saturación) se puede decir que la concentración de NaCl es 1 M (1 molar). Pero al disolverse se generaran dos iones: un sodio monopositivo y un cloruro, por lo que la concentración de iones en el agua es el doble que la concentración de cloruro sódico. Aquí el por tanto se aproxima a 2. Decimos que se aproxima sin llegar a ser 2 porque quedan aún moléculas completas de cloruro sódico sin disociar, aunque en muy pequeña proporción al ser éste muy soluble en agua y la concentración relativamente pequeña. Para una solución de Na2SO4, da un factor de 3 aproximadamente (dos cationes Na+ y un anión SO4-2, sulfato [VI]). La solución de un compuesto orgánico afín al agua, como la glucosa, no genera iones eléctricamente cargados, por lo tanto el factor de Van't Hoff se aproxima a 1, pues no se da ninguna disociación. En el caso de solutos que se disocian parcialmente, es necesario conocer la constante de disociación y calcular la concentración de cada especie en disolución, que sumadas nos dará la concentración total de las especies en disolución. Si queremos calcular el factor de van´t Hoff tendremos que dividir la concentración total de las especies en disolución entre la concentración de soluto. En los cálculos, si no se dispone del valor real, se puede realizar la aproximación antes mencionada.

Referencias

70

Femtoquímica

Femtoquímica La femtoquímica (en inglés: Femtochemistry) es el área de la química física que estudia las reacciones químicas en escalas de tiempo extremadamente cortas, de aproximadamente 10−15 segundos (un femtosegundo, de ahí el nombre). Los pasos en algunas de las reacciones se producen en esa escala de tiempo de femtosegundos —y a veces en escalas de tiempo aun menores, de attosegundos,— y pueden formarse productos intermedios. Estos productos intermedios no siempre se pueden deducir a partir de la observación de los productos de partida y los finales. La femtoquímica permite la exploración de que reacciones químicas tienen lugar, y permite investigar por qué se producen algunas reacciones y otras no. Muchas publicaciones han discutido la posibilidad de controlar las reacciones químicas con este método, pero esto sigue siendo polémico.[1] En 1999, Ahmed H. Zewail recibió el Premio Nobel de Química por su trabajo pionero en este campo.[2] La técnica de Zewail utiliza destellos de luz láser que duran unos pocos femtosegundos.

Espectroscopia de bomba-sonda El enfoque más simple y todavia una de las técnicas más comunes que se conoce es la espectroscopia de bomba-sonda. En este método, se utilizan dos o más pulsos ópticos con retardo de tiempo variable entre ellos para investigar los procesos que ocurren durante una reacción química. El primer pulso (bomba) inicia la reacción al romper un enlace o excitando uno de los reactivos. El segundo pulso (sonda) se utiliza para conocer el progreso de la reacción un cierto período de tiempo después de la iniciación. A medida que progresa la reacción, la respuesta del sistema de reacción a la sonda de pulso va a cambiar. Al escanear continuamente el retardo de tiempo entre los pulsos de la bomba y de la sonda y observando la respuesta, los investigadores pueden seguir el progreso de la reacción en tiepo real.

Notas [1] Femtochemistry. Past, present, and future (http:/ / iupac. org/ publications/ pac/ 72/ 12/ 2219/ ) review of the development of femtochemistry [2] The 1999 Nobel Prize in Chemistry (http:/ / nobelprize. org/ chemistry/ laureates/ 1999/ press. html), article on nobelprize.org

Referencias • Esta obra deriva de la traducción de Femtochemistry de la Wikipedia en inglés, publicada por sus editores (http:// en.wikipedia.org/wiki/Femtochemistry?action=history) bajo la Licencia de documentación libre de GNU y la Licencia Creative Commons Atribución-CompartirIgual 3.0 Unported.

Bibliografía Andrew M. Weiner (2009). Ultrafast Optics (http:/ / www. wiley. com/ WileyCDA/ WileyTitle/ productCd-0471415391.html). Wiley. ISBN 978-0-471-41539-8.

Enlaces externos • Controlling and probing atoms and molecules with ultrafast laser pulses (http://uf.catalog.fcla.edu/permalink. jsp?20UF003090907), PhD Thesis

71

Fenómenos cuánticos macroscópicos

72

Fenómenos cuánticos macroscópicos Los fenómenos a los que llamamos fenómenos cuánticos macroscópicos son macroscópicos por dos razones: 1. Los estados cuánticos están ocupados por un gran número de partículas (normalmente el número de Avogadro). 2. Los estados cuánticos involucrados son de tamaño macroscópico (hasta de tamaño kilométrico en hilos superconductores). Los efectos cuánticos macroscópicos están entre los fenómenos más elegantes de la física. El capítulo 21 de "Feynman Lectures on Physics" empieza tratando este tema con "Esta lección es sólo para entretenerse."[1] En el período transcurrido desde 1996 a 2003 se han otorgado cuatro premios Nobel por trabajos relacionados con los fenómenos cuánticos macroscópicos.[2] Los fenómenos macroscópicos cuánticos pueden observarse en el helio superfluido, superconductores,[3] gases cuánticos diluidos y en luz láser. Aunque estos medios son muy diferentes, su comportamiento es muy similar ya que todos muestran un comportamiento cuántico macroscópico.

Condensado de Bose-Einstein En esta sección se debatirá el llamado condensado de Bose-Einstein y se derivará una expresión para la temperatura TB del condensado por debajo de la cual aparecen estados cuánticos macroscópicos. Consideraremos un sistema de un mol de pariculas, tal que el número de partículas es igual al número de Avogadro NA y el volumen es igual al volumen molar Vm. La llamada densidad de estados[4] D(E) está definida por la relación (1)

Aquí δn es el número de estados cuánticos mecánicos en la banda de energía desde E hasta E+δE. Para un gas ideal con partículas de masa m y spin 0 la densidad viene dada por (2)

Donde h es la constante de Planck. En las estadísticas de Bose-Einstein el número medio de partículas que ocupan un estado cuántico viene dado por (3)

Donde μ es el potencial químico por partícula y k es la constante de Boltzmann. En las ecuaciones (1), (2), y (3) NA viene dado por (4)

Para evitar la divergencia de la integral en el intervalo de energía de 0 a ∞ se requiere que (5)

En la Eq.(4) el potencial químico μ puede calcularse como función de T. A altas temperaturas se espera que μ sea
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF