Estany, Anna - Introducción a La Filosofía de La Ciencia

April 5, 2020 | Author: Anonymous | Category: Ciencia, Teoría, Sociología, Filosofía de la Ciencia, Conocimiento
Share Embed Donate


Short Description

Download Estany, Anna - Introducción a La Filosofía de La Ciencia...

Description

|=;«|¬m 1 ›uCCIC'2N II 1; ÍJSOFIA - IINCIA

In.- 2_1_1-.¬-_n-m.-›-i-_ ¢_±

Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del copyright, bajo las sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografla y el tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos. Cubierta: Enric Satué sobre un trabajo artesanal, en pan, de Eduardo Crespo © 1993: Anna Estany, Bareelona © 1993 de la presente edición para España y América: CRÍTICA (Grijalbo Comercial, S.A.), Aragó, 385, 08013 Barcelona ISBN: 84-7423-S38-X

Depósito legal: B. 17.432-l993 Impreso en España 1993. - NOVAGRÁFIK, Puigcerdà, l27, 08019 Barcelona

A Carlos, a Ivan

,\ \

je me suis imposé la loi de ne proceder jamais que du connu à l'i|-rcormu, de ne déduire aucune conséquence qui ne derive immédiatement des expériences et des

observations, et d'enchaïner les faits et les vérítés chimiques dans l'ordre le pà prope à en faciliter l'intelligence aux commençants. Il était impossible qu'en m'assujettissant à ce plan je ne m'écartasse pas des routes ordinaires. C'est en effet un défaut commun à tous les cours et à tous les traités de chimie, de supposer, dès les premiers pas, des connaissances que l'éleve ou le lecteur ne doivent acquérir que dans les leçons subséquentes. Anromrz-LAURENT Lnvolsnan, «Discours Préliminaire», Tìvité Elémenraire de Chimie (considerado el primer libro de texto de quimica) The transmission of scientific knowledge has now become quite uniform. lt relies heavily on the advan-

ced lextbook. Until beginning dissertation research most scientists in most fields learn what theory they know from textbooks -in conjunction with lectures

that also follow a textbook format. If we wish to leam what a theory is from the standpoint of scientists who use that theory, one way to proceed is by examining the textbooks from which they learned most of what they know about that theory. This is obviously not the only way to learn what theories are to scíentists themselves. I would not even claim that it is necessarily the

best way to proceed. But it is a good way, and one that is accessible to someone like me whose training has been prímarily in science and phílosophy. RON/n_n N. Gnalua, Explaining Science. A Cognitive Approach

PRÓLOGO Este libro pretende ser una introducción a la filosofía de la ciencia. No es pues un ensayo aunque pueda, en algunos temas o partes, tomar un carácter ma's interrogativo y problematizante propio de este tipo de literatura. Tampoco es la exposición de una investigación temática sobre un determinado contenido aunque en varios apartados sea resultado de investigaciones realizadas por la autora. Como introducción comporta una serie de caractehísticas propias de este tipo de publicaciones. El libro trata los tenias de modo general en lugar de analizarlos exhaustivamente. Es posible también que muchas veces se sacrifiquen el desarrollo más completo de algún tema o la disquisi-

ción sutil de algún problema que podrian ser interesantes, en aras de la sencillez y de la claridad a fin de no perder la perspectiva general y la finalidadpedagógica propias de una introducción. Lo que se persigue, en definitiva, es proporcionar al neófito en esta materia las categorias conceptuales básicas para que, por un lado, pueda adentrarse, si es su deseo, en temas especificos o en autores concretos y, por otro, pueda también realizar análisis de las ciencias particulares a par-

tir de la filosofia. Aunque como libro de texto pretende dar respuesta a las cuestiones filosóficas básicas, con todo, el libro también plantea problemas a los que no se da, necesariamente, una respuesta definitiva. Y ello, fundamentalmente, debido a la propia naturaleza inquietante de la filosofía. Cuando uno se plantea escribir un libro de introducción para no iniciados en una materia determinada, se pueden presentar varias posibilidades. Al menos en filosofía las introducciones suelen ser casi siempre aproximaciones históricas. Sin embargo, desde el principio me propuse hacer un texto más bien temático y no histórico. Una de las razones, entre otras, es porque existen ya publicaciones satisfactorias

12

m1-rLn=1cAcióN DE Amtmos Pnonucros 'nsórucos DE cnaucms 1›An-ricuiuuas QUE PUEDEN sen Mo-nvo DE .miusis rrtosórico Psicologia Sobre el psicoanálisis. ¿Cual es el estatus epistemológico del psicoanálisis?, ¿tiene razón Popper cuando dice que no es una ciencia porque es irrefutable?, ¿se trata de una ciencia ya refutada?, ¿hasta qué punto los excesos explicativos de Freud (que a veces hacen irrefutable el psicoanálisis) han de ser parte integrante del psicoanálisis o son sólo accidentes y sigue siendo posible tomar el psicoanálisis como una teoria dentro de una teoría? Sobre las representaciones. Nuestras representaciones mentales y los algoritmos con los que realizamos todo tipo de funciones cognitivas ¿son representaciones y algoritmos explícitos o bien trabajamos con ellos de forma inconsciente y sólo tienen un poder representativo implícito? Dicho en otras palabras, ¿trabajamos de forma similar a un ordenador tipo Von Neuman con reglas y representaciones explícitas o bien nuestra forma de trabajar es radicalmente distinta, y más similar a una red neuronal? Este problema tiene claras implicaciones en cuestiones de inteligencia artificial y de filosofía de la mente, pero también interviene en muchas cuestiones de filosofía del lenguaje, especialmente de semántica y de la forma en que el lenguaje representa el mundo externo. ' Matemáticas Sobre la ontología del cálculo infinitesimal. En la primera formulación del cálculo infinitesimal (Leibniz, Newton) se defendía la existencia de números infinitesimales. Pero estos números conllevaban una serie importante de paradojas (Berkeley tiene algunos escritos en los que ataca el paradigma newtoniano basándose en estas contradicciones ligadas al concepto de infinitésimo). Más tarde, con la formulación de Cauchy, se da una nueva fundamentación del cálculo, quedando así inatacable por las paradojas. Sin embargo, las matemáticas actuales han recuperado la noción de infinitésimo para construir una base ontológica alternativa del análisis matemático, de tal manera que evite las paradojas que la versión antigua comportaba. Diversos pro-

INTRODUCCION A LA Fn.osoFlA DE LA CIENCIA blemas filosóficos muy específicos surgen en este punto: ¿tiene sentido plantearse -filosóficamente hablando- cuál de las dos ontologías (la que suponía infinitésimos y la que no) es correcta?, ¿está libre de paradojas la nueva noción de infinitésimo?, ¿en que sentido puede hablarse de «existencia›› cuando hablamos de infinitésimos? Sobre constructivismo vs. axiomatización. ¿Cuál es el valor de una demostración matemática por reducción al absurdo? Los matemáticos defensores del constructivismo afirman que un ente matemático sólo tiene sentido si se puede especificar totalmente la forma de ser construido de manera recursivamente numerable (es decir, sin implicar una cantidad infinita de pasos). Por esto, consideran que no puede afirmarse la existencia de un objeto matemático si tan sólo tenemos como prueba una demostración por reducción al absurdo. Así, algunos matemáticos niegan la realidad de los números transfinitos ya que sólo puede demostrarse su existencia a partir de demostraciones por reducción al absurdo, como la prueba diagonal de Cantor. Además, según el axiomatismo, para el cual la matemática es un puro ejercicio deductivo a partir de unos axiomas previamente fijados, la demostración por reducción al absurdo no tiene ningún tipo de problema y tiene el mismo valor que cualquier otra demostración. Biología Sobre las leyes en biología. Evidentemente, la bioquímica acoge todo tipo de leyes y lo mismo podemos decir de discipli-

nas como la genética de poblaciones. El problema es si podemos formular leyes estrictamente biológicas. Determinados autores (no siempre de tipo vitalista, algunos, como Ruth Millikan, son naturalistas) consideran que no es posible ya que el hecho biológico sea el resultado de un proceso de evolución por selección natural. Se trata, por tanto, de un proceso histórico resultado del azar y por tanto (como la historia, la psicología y otras ciencias sociales) tiene un estatus distinto al de las ciencias «duras›› como la física o la química. No se trata sólo de que no puedan formularse leyes estrictas sin cláusulas ceteris paribus sino que ni siquiera puede conseguirse la más mínima regularidad estadística. Pensemos en el caso de un espermatozoide: está claro

CUESTIONES PRELIMINARES

que su función es fecundar un óvulo, pero no hay ninguna regularidad estadística en la base de esta función, de los miles Y miles de espemiatozoides que se generan, sólo uno llega al óW1l0Sobre el reduccionismo en biología. La cuestión de si una determinada disciplina científica es reducible a otra más básica, o no, es una pregunta general que puede plantearse para cualquier ciencia, pero históricamente la biología ha sido la disciplina que más problemas filosóficos ha generado respecto a este tema, que está relacionado tanto con problemas epistemológicos como con problemas éticos, religiosos, etc. El problema del reduccionismo en la biología puede plantearse de diversas formas y tiene multitud de cuestiones asociadas: ¿pueden ser todas las leyes y propiedades biológicas traducibles al lenguaje de la física o hay algunas que son irreductibles? (emergentismo). Si una reducción completa no es posible, ¿se sigue entonces la existencia de un principio vital irreductíble a mera materia?, etc. Lingüística Sobre la posibilidad de una gramática universal. Chomskl' afirma que con la pobreza del estímulo que recibe un niño CS imposible generar unas reglas sintácticas como las que poseemos. La única forma de entender esto es postular la existencia de una gramática universal programada en nosotros de forma genética, la cual necesitaría para funcionar sólo unos peqll¢fi0S «parámetros›› que serían lo único que realmente nos pr0D0l'C¡0' naría la experiencia. Chomsky se enfrenta a toda una escuela filosófica (Lewis.

Grioe y otros) que defiende que el lenguaje se fundamenta en un tipo especial de convención. Una de las cuestiones eD¡S1¢m°' lógicas que surge en este punto es cuál es el objeto de estudio de la lingüística: el lenguaje externalizado, nuestra habla (idealizada) ta] como se ha hecho tradicionalmente, y como actualmente defienden Lewis o Grice, o bien las reglas psicolingüísticas, programadas genéticamente que utilizamos para gene”-I sentencias tal como afirma Chomsky. Sobre la existencia de un lenguaje del pensamiento. 5981311 determinados filósofos nuestro pensamiento está fuertemente estructurado. Fodor, que es el más representativo, afirma que un lenguaje de este tipo ha de ser, en sus conceptos más básicos,

iN'rRoDuCcIóN A LA FiuosoFiA DE LA c|ENciA innato, ya que si no, sería absolutamaite imposible aprender cualquier cosa. A pesar de ser un tema que roza la psicología, tiene una gran importancia en psicolingüística y en semántica ya que plantea toda una serie de cuestiones sobre cómo articular nuestros conceptos, en qué se fundamentan y cómo explicamos la actividad cognitiva de los niños y de los animales. Física Sobre la naturaleza de las partículas subatómicas. La interpretación de Copenhague de la mecánica cuántica ha generado, en el mundo filosófico, una serie de paradojas de difícil solución que chocan frontalmente con el sentido común. Una de las más complejas es, sin lugar a dudas, el hecho de que es necesario considerar que las partículas subatómicas son un paquete de ondas que indican distribuciones de probabilidades. Esto plantea una serie de complicados problemas tanto de tipo ontológico como epistemológico. Algunos filósofos y científicos han utilizado la física cuántica para defender posturas idealistas (Wegener con su defensa de la conciencia como bloqueadora del paquete de ondas es un buen ejemplo) mientras que otros filósofos de tipo más materialista afirman que hay algo de incorrecto en la interpretación de Copenhague y que hace falta rehacer totalmente la interpretación de la física cuántica. Temas clásicos como la naturaleza de la materia y del tiempo o la perturbación que la observación experimental introduce en la realidad observada han tenido un replanteamiento radical con la mecánica cuántica. Sobre la reducción a la microfísica. Dejando de lado de-

terminados casos paradìgmáticos, como los choques entre objetos rígidos (verbigracia, las bolas de billar) parece que para estar seguros de la realidad de una ley científica y conocer la forma en que opera, es decir, para explicar la ley, hemos de reducir los componentes que la forman a otros más básicos hasta llegar a una ley de tipo microfísico. Si podemos llegar, o al menos pensamos que hay en principio una forma de llegar, entonces daremos por buena la ley; en caso contrario, la ley estará bajo sospecha. Así, las leyes de la herencia no quedarían realmente clarificadas y explicadas hasta que no pudieran ser reducidas a leyes bioquímicas, y la bioquímica no quedaría realmente clara

cuEs'rIoNEs PRELIMINARES

23

hasta que no hubiéramos bajado al nivel de la química cuántica. ¿Es realmente necesaria tal reducción? Evidentemente, en un sentido pragmático no es necesaria; un bioquímico que hace un estudio concreto sobre ADN no tiene ninguna razón para intentar una reducción; además, trabaja con la seguridad de que otros por él han demostrado la posibilidad de la reducción. ¿Cuál es la razón por la que se pretende esta reducción? ¿Es acaso la de encontrar el fundamento último en los elementos más básicos para garantizar la verdad? ¿La mayor generalidad de las leyes de tipo microfísico, que no se encuentran atrapadas en cláusulas ceteris paribus sino que realmente son universales?, ¿o quizás es sólo un puro criterio metodológico de tener el máximo de leyes fundamentadas a partir de un mínimo de hipótesis, además de tener garantizados unos criterios de reducción de una disciplina a otra cuando esto sea necesario? Sociologia Sobre individualismo vs. holismo metodológico. ¿Cuáles son las unidades de análisis de la sociología: los individuos o las colectividades? El problema que se plantea es dónde reside lo significativo en sociología. Sobre comprensión vs. explicación. ¿Es posible explicar los fenómenos sociales o sólo podemos llegar a comprenderlos a través de una cierta empatía? Se plantea el problema del potencial teórico de la sociología. Sobre interferencia del investigador en los experimentos. ¿Son posibles los experimentos neutrales en sociología? En caso de que haya interferencia, ¿puede ser controlada?

2.

LA cIENcIA como onrE'ro DE Es'rUDIo DE LA 1=II.oso1=iA

La ciencia puede ser objeto de estudio de otras disciplinas, analizándola desde otras perspectivas, a saber: politica, sociológica, ética y psicológica. Esta diversidad de enfoques en el análisis de la ciencia ha sido y sigue siendo motivo de debates entre filósofos de la ciencia. Nos detendremos en la perspectiva del externalismo vs. internalismo ya que en la mayoría de los casos se ha planteado en dichos términos.

24

INTRODUCCION A LA I=II.osoI=lA DE LA CIENCIA

Se suele atribuir a los internalistas el no tener en cuenta las influencias políticas, sociales, etc. (extemas a la ciencia) sobre la ciencia, mientras que a los extemalistas, el considerar que la ciencia es producto del contexto cultural, político y sociológico. Se trata de posturas extremas (versiones ingenuas) aunque podríamos encontrar otras menos radicales en uno u otro sentido (versiones sofisticadas). Como ejemplos de estas dos tendencias tenemos a dos autores que han sido considerados representantes de una y otra postura, C. Hempel como internalista y P. Feyerabend como externalista. Sin embargo, la dicotomía internalista/externalista, en función del tener o no en cuenta la influencia de los factores externos (sociales, políticos, etc.) en la ciencia, es un planteamiento confuso. Si lo que quieren decir los extemalistas es que el análisis de la ciencia no se agota en su aspecto filosófico podría haber acuerdo general, pero esta argumentación es trivial. ¿Cómo puede negarse que los presupuestos que el Estado dedica a la investigación científica no repercutirán en el desarrollo de la ciencia, que determinadas líneas de investigación plantean problemas éticos, o que los cientificos constituyen un grupo social y, por tanto, reproducen las pautas de comportamiento que los sociólogos atribuyen a cualquier grupo humano? Esto no lo negaría ningún autor considerado internalista. Ni Hempel ni la tradición del empirismo lógico del Círculo de Viena (considerado por muchos extemalistas como el exponente máximo del internalismo) negarían estas influencias que recibe la ciencia. Si, por el contrario, lo que afimran los externalistas es que no es posible separar conceptualmente la filosofía, la psicología, la sociología y la ética de la ciencia, entonces lo que sostienen los externalistas sería,

simplemente, erróneo. Un binomio que quizás se adecuaria mejor a la diferencia entre

los dos enfoques que hemos analizado sería holismo vs. fragmentacionismo. Los extemalistas, probablemente, se considerarían holistas, pero si tenemos en cuenta algunas de las manifestaciones extemalistas actuales -me refiero al llamado sociologismo- vemos que está tan lejos del holismo como podría estarlo el positivismo lógico de los años cuarenta. El sociologismo es una variante del monismo metodológico como el que podía practicar el Círculo de Viena pero, a diferencia de éste, no tiene como modelo la física sino la sociología. Además el sociologismo tiene un ingrediente determinista (determinismo sociológico) y reduccionista (reducción a lo sociológico). Ya hemos tenido su-

CUESTIONES PRELIMINARES

ficientes intentos de explicación unilateral como para resucitar ahora el determinismo sociológico. Unas reflexiones de Moulines sobre el «sociologismo metacrentrfico» me parecen adecuadas para cerrar un tema que hoy día suscita tanto debate. Aunque el sociologismo metacientífico está muy en boga hoy día, no por ello es más correcto. Es simplemente una forma especialmente bárbara de empirismo nominalista, de desconfianza primitiva hacia «entidades abstractas». A éstas. el sociologista quizás esté dispuesto a admitirlas a regañadientes en el ámbito de las ciencias naturales, porque no puede negar el éxito que ha tenido en ellas la aplicación de las matemáticas (una empresa de producción de entidades abstractas en gran escaIa); pero se niega rotundamente a admitir cualquier abstracción, cualquier «universal››, en las ciencias de la cultura, y en particular en

las ciencias de la ciencia (Moulines, |99|:73). El adjetivo «metacientífico›› con el que Moulines califica este enfoque puede entenderse como el intento de diferenciarlo de la sociolo gra de la ciencia, tan válida como cualquier ciencia empírica.

Enam>I.n=IcAcróN DE I=ENómaNos cIENríI-'Icos QUE PUEDEN sEIz onrE'ro DE Esrumo DE o-nus DIscIr>I.INAs Política dela ciencia. ¿No debería apoyarse la divulgación de las ciencias entre el público, ya que nos encontramos en un

mundo muy interconectado con la ciencia? ¿Qué cantidad del PIB debería dedicarse a la investigación empírica? ¿Debe apoyarse la investigación fundamental o pura, sin utilidad práctica a corto plazo, o sólo se ha de apoyar la investigación de utilidad inmediata? Sociología de la ciencia. ¿Cómo influye la extracción social de un científico en los resultados de su investigación? ¿Cuáles son los sentimientos generales de la población con relación a las nuevas tecnologías: las ven como una panacea o como un peligro? ¿Por qué no hay prácticamente ninguna mujer que haya logrado destacar en matemáticas?

26

rN1'RoDuccroN A LA F|uosoFrA DE LA c|ENc|A Psicología de la ciencia-

¿Influyen las creencias religiosas

5

de un cosmólogo a la hora de aceptar o rechazar la teoría del Big Bang? ¿Cuál es, en términos generales, la edad a la que un investigador es más productivo? ¿Los matemáticos utili-_ zan imágenes visuales de algún tipo para ayudarse en sus calculos? Ética de la ciencia. ¿Es éticamente correcto que un científico trabaje en el desarrollo de ai-mas dg demuççión masiva? Puesto que no tiene el menor valor científico, ¿sería ético prohibir la publicación y práctica de la astrología? ¿Sería ético crear híbridos tomando el ADN de un ser humano introduciéndole genes de otras especies animales?

3.

ÁSPECTOS FUNDAMENTALES DE LA REFLEXIÓN FILOSÓFICA SOBRE LA ClENCIA2 METODOLÓGICO, ONTOLÓGICO Y LÓGICO-SEMANTICO

Una VCZ d€1ÍmÍlfld0 10 que entendemos por filosofía de la ciencia, demarcándola al mismo tiempo de otros campos de conocimiento que comparten su objeto de estudio y comparándola con otros campos del conocimiento que están, al igual que la filosofia de la ciencia, en el mismo nivel de conceptualización, vamos a especificar a continuación en qué consiste el análisis filosófico de la ciencia. Si revisamos la literatura en el campo de la ñlosofía de la ciencia encontramos denominaciones como «metodología de la ciencia» o «ló-

gica de la ciencia». Sobre todo en los comienzos de su institucionalización con el Círculo de Viena, la filosofía de la ciencia se entendió como lógica de la ciencia, en el sentido de reconstrucciones de las teorías científicas con estructuras formales. También, sobre todo con relación a las ciencias empíricas, a veces se ha entendido la filosofía de la ciencia como metodología de la ciencia, en el sentido del establecimiento del método científico. Ambos sentidos son pertinentes para el análisis de la ciencia pero parciales si se toman unilateralmente. Podemos distinguir tres aspectos fundamentales de la reflexión metacientífica, a saber: el metodológico, el ontológico y el lógico-se. mántico.

cuEs'rroN|as r|ua|.1M|NARBs 3.1.

27

Cuestiones metodológicas'

En la literatura de los filósofos de la ciencia y de los cientificos encontramos continuas referencias a «método›› o términos afines como «metodologia››, pero no siempre hay unanimidad en cuanto al significado. Por tanto, una cuestión previa al análisis del papel de la metodología en la investigación cientifim es acotar el ámbito de las cuestiones metodológicas. No vamos a dar una definición de método, en el sentido de dar condiciones suficientes y necesarias ya que no sería viable debido a la complejidad del término, sino a precisar conceptualmente el uso que se hace de este término en la literatura científica y filosófica. , Partamos, para comenzar, de una idea muy general sobre el contenido de la metodología, a saber: la metodología como abastecedora de guías para elaborar ciencia. Dentro del campo semántico de «metodología››, el rasgo «guías›› sería el común denominador más general de todas las variedades de dicho campo semántico. Veamos pues las principales categorías que pertenecen al campo semántico de «metodologla». Distinguiremos tres categorias que pretenden captar los diferentes sentidos de metodologia en su utilización en el campo científico y filosófico. i) Metodología de primer orden (Ml).2 La Ml está constituida por las técnicas, 0 parte instrumental, de una disciplina.” A veces se la denomina «técnicas de investigación» o «técnicas de análisis». Estas técnicas de investigación pueden ser tanto empíricas como formales (por ejemplo, matemáticas), es decir, pueden referirse tanto al aná-

lisis de la composición de una substancia o a las técnicas de encuesta l. En mi comunicación sobre el papel de la metodologia en los modelos de cambio cientifico, presentada en el congreso intemacional (Uppsala, agosto de 1991) se trata ampliamente la importancia de la metodologia. 2. En el apartado (1) de este capítulo hemos introducido la ciencia como teorización de primer orden y la lìlosofía de la ciencia como teorización de segundo orden. También hemos considerado la capacidad recursiva de los humanos y la posibilidad de teorìzación de tercer orden. U eategorimción de la metodología presentada en este aparlado es la aplicación de la capacidad recursiva a las cuestiones metodológicas. 3. No hay que confundir la parte instrumental de una disciplina con los instrumentos propiamente dichos como los utilizados en los laboratorios.

28

INTRODUCCION A LA |=rLosoFIA DE LA crENc|A

como a las matemáticas utilizadas en la investigación cientifica, desde el análisis multivariable en sociología hasta los espacios de Hilbert en física de altas energias.

EJEMPLLFICACIONES DE LA METODOLOGÍA DE PRIMER ORDEN

~

l) ¿Qué criterio o criterios hemos de seguir en lingüística para decidir si, en una determinada sentencia, una partícula tiene un papel temático (es decirƒejerce una función semántica) o no? Por ejemplo, el sujeto (eliptico) de «parece que Pedro no vendrá» ¿tiene asignado algún papel temático?, ¿y el de «it's raining››? La Ml nos indica qué propiedades debemos atribuir a dichos objetos. 2) Si tenemos un estudio estadístico en una población sobre la intención de voto en unas próximas elecciones, ¿hemos de tener en cuenta el problema de la «profecla autodestructiva››? Es decir, se trata del hecho de que, una vez las encuestas están en la calle, se produzca el fenómeno del voto útil al decidir, una parte de la población, apoyar a un candidato y, menos afin a su ideología, en lugar de votar a z que, en principio tenia previsto, a fin de evitar que salga ganador el candidato x. La Ml indica los criterios para decidir sobre un aparato matemático de estadística. 3) ¿Cómo organizar un experimento en biología que nos permita confirmar (0 refutar) que una determinada mutación sería beneficiosa para una población X en unas condiciones Y?

La Ml indica las condiciones para plantear un experimento de forma correcta. ii) Metodologia de segundo orden (M2). La M2 es la metodologia propiamente dicha y se entiende como equivalente a la filosofia de la ciencia. Si consideramos la filosofía de la ciencia como una reflexión de segundo orden sobre la ciencia, desde su aspecto justificativo. esto sería la M2! Entre las muchas cuestiones que forman parte 4. Hay que señalar que es más adecuado hablar de filosofía de la ciencia que de metodologia de la ciencia, ya que el análisis de la ciencia tiene otros aspectos además del metodológico.

CUESTIONES PRELIMINARES

29

de la M2 están las siguientes: tipos de conceptos científicos, características de una definición, la distinción entre teórico y observacional, los modelos de explicación científica, las características de las leyes de la naturaleza y la estructura de las teorías cientificas. Este nivel metodológico constituye el objeto de estudio central de los filósofos de la ciencia y de los científicos con preocupaciones epistemológicas.

EIEMPLIFICACIONES DE LA METODOLOGÍA DE SEGUNDO ORDEN

l) ¿Las leyes de una teoria lingüística, por las que damos cuenta de los elementos de una frase que tienen asociado un papel temático y cuáles elementos no, han de restringirse a un idioma determinado (por ejemplo el catalán) o se han de poder aplicar, en principio, a cualquier lengua humana? La M2 analiza cuál ha de ser el grado de generalidad de las leyes de la lingüística. 2) ¿Cuáles son los valores epistemológicos que exigimos a las construcciones teóricas? ¿En que consiste el valor epistemológico de la simplicidad? La M2 proporciona criterios de evaluación de la práctica científica. 3) ¿Qué criterios hemos de pedir a un experimento para que sus resultados sean significativos a la hora de dar por buena o refutar una teoria?, ¿estos criterios son generales o dependen de la ciencia concreta a la que nos estemos refiriendo? La M2 analiza la relación entre teoría y experimento.

iii) Metodología de tercer orden (M3). En este nivel metodológico hay que hacer una distinción. Por un lado, está la metafilosofia (M3F), entendida como la evaluación de la maquinaria conceptual ofrecida por la filosofía de la ciencia y por otro, está la metafísica (M3M), entendida como aquellos principios no comprobables empiricamente que están en el sustrato de la investigación científica. Estas dos vertientes de la M3 forman una unidad porque ambas se sitúan en un nivel conceptual superior ala M2. Sin embargo, existen diferencias relevantes entre ambas, ya que mientras la M3F es una consecuencia de la capacidad recursiva del ser humano, la MSM es una consecuencia

30

INTRODUCCIÓN A LA F|Loso|=IA DE LA crENc|A

de las incursiones del entendimiento humano más allá de lo puramente empírico, aunque no en contradicción con lo empíricof

EmMi›r.n=1cAcróN DE cvasrromas M1a'rAi=rLosóFrcAs l) ¿Existen criterios metodológicos generales que nos permitan decir cuál ha de ser el grado de generalidad de una ley? La M3F plantea los criterios metodológicos para valorar, desde el punto de vista cognitivo, cuestiones como la generalidad de las leyes. 2) ¿Existen unos criterios metodológicos generales que nos permitan decir qué aparato estadístico necesitará una teoría concreta? La M3F plantea los criterios metodológicos que hay que tener en cuenta para decidir qué aparato matemático es más conveniente para una teoría científica determinada. 3) ¿Qué grado de generalidad debería tener una teoría filosófica del experimento para que pudiera indicar qué tipo de experimento necesita cada teoría, cuál será entonces su grado de refutabilidad, etc.? La M3F plantea los criterios metodológicos para decidir la importancia de los requisitos de un buen experimento.

EnsMPLn=rcAcróN DE cUEs'rroNEs ME'rA1=ísrcAs l) ¿Se llega a las leyes científicas por un proceso de inducción 0 de deducción? El llamado «problema de la inducción»,

que consiste en decidir sobre el estatus epistemológico de las leyes científicas, constituye una cuestión de la metafísica de la ciencia.

5. la filosofía no tiene por que atarse las manos a las últimas investigaciones empíricas, pero no puede hacer caso omiso de ellas. Por ejemplo, en la última década, la neurociencia ha experimentado un desarrollo espectacular que posiblemente tendrá consecuencias importantes en los presupuestos filosóficos (tanto en la M2 como en la M3) que forman el sustrato de la ciencia. Es decir, la filosofla de la mente no puede establecerse a espaldas de cómo funciona el cerebro y esto no nos lo dirá la lilosofia.

CUESTIONES PRELIMINARES

31

2) ¿Por qué son verdaderas las matemáticas?, ¿por qué son tautologias (Ayer)? ¿Por qué la estructura del mundo «real››, inteligible, es también matemática (Platón)? Otra cuestión de la metafísica de la ciencia es la justificación de las verdades matemáticas. 3) ¿La relación entre la condición antecedente y la condición consecuente de una ley es una relación causal? ¿Las leyes causales son también deterministas, o puede haber causalidad sin determinismo? Las cuestiones sobre causalidad y determinismo de las leyes científicas pertenecen a la MSM.

El tratamiento dela metodología en la literatura cientifica y filosoffica En la literatura científico-filosófica encontramos cuestiones que se enmarcan en los distintos niveles metodológicos aquí presentados. Esto no significa que los autores que han tratado este tema tengan en cuenta dichos niveles a la hora de discutir sobre cuestiones metodológicas, pero no cabe duda de que esta categorización clarifica enormemente los problemas planteados por los científicos y filósofos que han hecho aportaciones en el aspecto metodológico de la ciencia. A continuación analizaremos algunos textos sobre la caracterización del método científico a la luz de las categorías relacionadas con cuestiones metodológicas. P. Suppes (Suppes, l984b) hace reflexiones metodológicas desde los tres niveles. En su ensayo Probabilzlrtic Metaphysics hay consideraciones de tipo metafísico, que proponen un cambio de supuestos me-

tafísicos a raíz del estado de la ciencia actual. La metafísica tradicional tenía, entre otros, los siguientes supuestos: «(1) El futuro se encuentra determinado por el pasado. (2) Cualquier evento tiene una causa determinante suficiente» (Suppes, l984b:2). Suppes considera que estos principios metafísicos están poco acordes con la ciencia contemporánea, por lo cual propone sustituirlos por otros de caracter probabilístico, tales como: «(1) Las leyes fundamentales de los fenómenos naturales son esencialmente probabilistas, más que de carácter determinístico. (2) Nuestra concepción de lo que es la materia ha de contener un elemento probabilístico intrínseco» (Suppes, l984b:l0). Suppes sostiene que no hay una metafísica de la ciencia que se de de una

32

INTRODUCCIÓN A LA FILOSOFIA DE LA CIENCIA

vez por todas sino que los supuestos metafísicos varían (o al menos pueden variar) con los cambios científicos. Los cambios afectan también -según Suppes al método, defendiendo el pluralismo frente al monismo metodológico. Dice Suppes: Ta.I y como he remarcado antes, es especialmente en los métodos

experimentales de las diferentes ramas de la ciencia donde encontramos formas radicalmente diferentes. No es una exageración afirmar que los manuales del método experimental de una disciplina resultan ser generalmente ilegibles por expertos en otra disciplina (y la definición de «disciplina›› puede ser bastante estrecha aquí). Los físicos que tra-

bajan en física del estado sólido no pueden leer de forma inteligible las detalladas explicaciones del método de otras partes de la física. Esto es cierto incluso en ciencias menos desarrolladas, como la psicología. Los psicólogos fisiologistas usan un conjunto de métodos experimen-

tales que son ajenos a los psicólogos especializados, por ejemplo, en teoría de los tests educacionales y, de la misma forma, los intrincados detalles de la metodología de la construcción de tests resultarán desco-

nocidos para cualquier psicólogo fisiologista (Suppes, l984b:l24). Los textos de Suppes aquí presentados son importantes para el tema que nos ocupa, 'tanto para analizar los distintos niveles metodológicos como para demostrar la pertinencia de esta distinción. Los ejemplos que Suppes da de métodos diferentes para argumentar a favor del pluralismo metodológico se refieren a la metodología en el sentido de Ml. Suppes plantea el problema del monismo vs. pluralismo metodológico, cuestión muy debatida entre los filósofos de la ciencia, pero el debate puede ser absolutamente estéril si antes no fijamos a qué nivel metodológico nos referimos. En la obra de Suppes

subyace una concepción pluralista del método científico, pero no es lo mismo mantener este pluralismo en la Ml, en la M2 o en la M3. Suppes presenta los siguientes ejemplos de pluralismo metodológico: los métodos utilizados por los físicos del estado sólido frente a los utilizados por los físicos de partículas elementales; o los métodos utilizados por la psicología fisiológica frente a los utilizados por la psicologia de la educación. Este tipo de pluralismo, posiblemente, sería compartido por la mayoria de filósofos y científicos. El cambio de principios metafísicos -a saber: de la metafísica neotradicional a la metafísica probabilista-, ya sería más discutible y tiene implicaciones epistemológicas más profundas. Suppes plantea la posibilidad del

CUESTIONES PRELIMINARES

33

pluralismo en todos los niveles, pero en los ejemplos aquí expuestos hay una diferencia importante entre el pluralismo en el nivel de la Ml y el del nivel de la M3. En el nivel de la Ml la pluralidad es sincrónica, cs decir, en un tiempo t coexisten diversos métodos en una misma disciplina; en cambio, en el nivel de la M3, la pluralidad es diacrónica ya que unos principios metafísicos sustituyen a otros. El pluralismo propugnado por Suppes no tiene nada que ver con el propuesto por Feyerabend con su máxima del «todo vale». El pluralismo propugnado por Feyerabend (Feyerabend, 1974) en Contra el método, va dirigido, fundamentalmente, a la M2. Toda la discusión en las ciencias sociales en torno a la explicación vs. la comprensión o bien el debate entre los secesionistas y los centralistas -es decir, entre aquellos que dicen que las ciencias sociales (cc.ss.) son cualitativamente distintas de las ciencias naturales (ccnn.) y aquellos que sostienen la unidad de la ciencia- respecto al método científico en las cc.ss. es, en realidad, un debate en torno a la posibilidad de pluralismo en la M2 y, en caso afirmativo, de cuál es su alcance. Vemos, pues, que es absolutamente necesaria la categorización conceptual de la metodología si queremos que el debate sobre pluralismo metodológico sea clarificador y fructífero. W. Newton-Smith (Newton-Smith, 1987) presenta ideas interesantes para la caracterización del método científico. Newton-Smith aboga por el pluralismo metodológico presentando, como argumento delinitivo a favor del pluralismo, el hecho de que incluso en la matemática hay divergencias metodológicas. Como veremos a continuación el pluralismo de Newton-Smith se sitúa, fundamentalmente, en la M2, aunque descartando cualquier enfoque irracionalista a lo Feyerabend. La

cuestión del método científico es compleja -asegura Newton-Smith-; prueba de ello es que, incluso en la matemática, existe cierta controversia sobre qué se entiende por prueba; por ejemplo, los intuicionistas no aceptan la ley del medio excluso. A partir del estado de la matemática Newton-Smith concluye: «Así, si las matemáticas, cuyos resultados son ampliamente acumulativos, carecen de tales principios orientadores, no debiera sorprendernos encontrar que los métodos de la ciencia no puedan especificarse en un conjunto exhaustivo de principios rectores» (Newton-Smith, l987:234). Según Newton-Smith las diferencias metodológicas en la matemática se manifiestan más en las distintas escuelas o tradiciones que en cambios sucesivos radicales, y concluye que si la matemática tampoco se salva de los cambios y dife-

34

INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA

rencias metodológicos, no podemos esperar patrones metodológicos atemporales y uniñcados. Newton-Smith insiste en la posibilidad de encontrar guías, criterios, principios que nos digan qué teoría es la mejor o, simplemente, cuál es mejor que otra. Una posibilidad, que él no comparte, es la de tomar como criterio de selección de teorías el cálculo de probabilidades. Newton-Smith no pone en duda el valor epistemológico de dicho cálculo, pero se muestra escéptico en el uso del cálculo de probabilidades para la elección de teorías. Desde las categorías metodológicas aquí presentadas, podemos decir que Newton-Smith considerarla adecuado el uso de la teoría de la probabilidad como parte instrumental de la Ml pero no como criterio metodológico de segundo o de tercer orden. Veamos la propuesta de Newton-Smith para lo que puede considerarse el último test a la hora de decir que una teoría es mejor que otra. Dice Newton-Smith: «A largo plazo, pues, la comprobación definitiva de la superioridad de una teoría sobre otra es el éxito observacional» (Newton-Smith, 1987:243). Por tanto, «necesitamos otros factores que nos orienten y que sirvan como indicadores falibles del probable éxito observacional a largo plazo» (Newton-Smith, 1987:244). El papel de estos factores es función de la metodología científica. Entre estos factores Newton-Smith cita los siguientes: «anidamiento observacional, fertilidad, historial, apoyo interteorético, adaptabilidad, consistencia intema, compatibilidad con creencias metafísicas bien fundadas, simplicidad». Estos factores entran de lleno en la M2. Sin embargo, una discusión en torno al peso de estos factores en el proceso de investigación, y a una posible jerarquización del valor de estos valores en caso de conflicto entre ellos, sería una cuestión que corres-

pondería a la M3F. Entre los filósofos de la ciencia hay aportaciones a la M3 en el sentido de formular criterios para la evaluación de las construcciones conceptuales de la M2. Uno de los que plantean de forma explícita la evaluación de sistemas filosóficos es I. Lakatos, quien critica el falsacionismo y el inductivismo por ser doctrinas que no pueden ayudarnos a evaluar los distintos modelos de cambio científico y propone la Metodología de los Programas de Investigación Científica como criterio evaluativo de tercer orden (Lakatos, l983). El trabajo de Lakatos sobre la comparación crítica de las metodologías corresponde a criterios de tercer grado. Dice Lakatos:

CUESTIONES PRELIMINARES

35

La idea básica de esta crítica es que «todas las metodologías funcionan como teorías (o programas de investigación) historiográficas (o metahistóricas) y pueden ser criticadas criticando las reconstrucciones históricas racionales a las que las teorías conducen». Esta versión normativo-historiográfica de la metodología de los programas de investigación cientifica proporciona una teoría general de cómo comparar lógicas del descubrimiento rivales en las que (en un sentido que hay que especificar cuidadosamente) «la historia puede ser vista como un "test" de su reconstrucción racional» (Lakatos, 19832159).

Lakatos critica tanto el falsacionismo como el inductivismo como criterios para comparar «lógicas de descubrimiento rivales», proponiendo como alternativa la metodología de los programas de investigación. La propuesta de Lakatos es aplicar su propio modelo de cambio científico a dos niveles distintos, a saber: a nivel filosófico y a nivel metafilosófico. Popper critica la «metodología naturalista», llamada también «teoría inductiva de la ciencia», que considera la metodología como una ciencia empírica que estudia el comportamiento real de los científicos y los procedimientos efectivamente empleados en la «ciencia››. Esta concepción de la filosofia de la ciencia encaja con una propuesta reciente de Laudan sobre la investigación en el campo de la dinámica científica. En síntesis, la propuesta de Laudan dice que cualquier afirmación sobre el funcionamiento de la ciencia hay que contrastarla con la historia de la ciencia. Dice L. Laudan junto con A. Donovan y R. Laudan: En ese proyecto buscamos establecer un diálogo entre la investigación de la ciencia teórica y la empírica. Como muestra la práctica científica, la fundamentación de los enunciados teóricos y el significado de los datos empíricos pueden determinarse sólo yendo y viniendo constantemente de la teoría a la observación y experimentación y viceversa. Tomamos la analogía entre ciencia y estudios sobre la ciencia seriamente y no vemos razones para que la ciencia no pueda ser estudiada científicamente. Las investigaciones empíricas no agotan las actividades de los científicos pero forman un contrapunto clave para la articulación de

las teorías (Laudan et al., l988:7-8). En cambio Popper defiende el convencionalismo. Dice al respecto:

36

|N'rRoDuccroN A LA FlLosoFíA DE LA cl|aNc|A Consideramos las reglas metodológicas como «convenciones››: las podríamos describir diciendo que son las reglas de juego de la Cienfiífl empírica... Daremos dos ejemplos sencillos de reglas metodológicas, que bastaran para hacer ver que sería bastante inoportuno colocar un estudio metodológico al mismo nivel que otro puramente lógico: l. El juego de la ciencia, en principio, no se acaba nunca. Cualquiera que decide un día que los enunciados científicos no requieren ninguna contrastación ulterior y que pueden considerarse definitivamente verificados, se retira del juego.

2. No se eliminará una hipótesis propuesta y contrastada y que haya demostrado su temple, si no se presentan «buenas razones» para ello. Ejemplos de «buenas razones››: sustitución de la hipótesis por otra "WS 00l'IU'2Sl2lb1€› falsación de una de las consecuencias de la hipótesis (Popper, 1967252).

Creo que quedan claras las diferencias entre Laudan y Popper, pero los dos aportan criterios de tercer orden. La contrastación con la historia real dela ciencia propuesta por Laudan y las «buenas razones» de Popper pueden englobarse en este tipo de criterios. P. Thagard (Thagard, 1988) critica dos mitos metodológicos, a saber: el mito hipotético-deductivo y el mito inductivo. En este caso el modelo de explicación hipotético-deductivo y el modelo inductivo forman parte dela M2, pero la evaluación de los modelos de explicación forma parte de la M3. U. Moulines (Moulines, l982) propone un principio metafilosófico, «Principio de la Relevancia de las Distinciones Graduales», que puede ser considerado una guía metodológica de tercer orden. Dicho

principio reza así: «Son filosóñcamente relevantes las distinciones conceptuales que atienden sólo a diferencias de grado y no a diferenCifi$

absolutas en el objeto o dominio de estudio. Son filosóficamente peligrosas, y frecuentemente perniciosas, las distinciones conceptuales tajantes que pretenden determinar supuestas diferencias absolutas en el objeto o dominio de estudio» (Moulines, 1982232). Las referencias de los científicos a cuestiones metodológicas se enCufinlfflll, fulldflflìellïfllmcllïe, en las ciencias menos desarrolladas. Actualmente, en los programas de los estudios de física apenas encontramos asignaturas sobre métodos y técnicas, en cambio en psicología y en sociología los métodos y técnicas constituyen una parte esencial en el conjunto de los estudios. No sólo esto sino que, cuanto mCn0S

cuEsr1oN1=_s P|usL|M1NA|tras

37

madura es una disciplina científica, más importancia adquiere la formación metodológica y, dentro de ella, cuanto menos madura más alto es el nivel de la metodología. Es decir, la M2 será más importante para los practicantes de una disciplina inmadura que para los de una madura. Dicho de otra forma, el orden de la metodología que es pertinente para una disciplina es inversamente proporcional a su grado de madurez. Helge Kragh (Kragh, 1989) en Introducción ala historia dela ciencia plantea los siguientes problemas: i) historia anacrónica vs. historia diacrónica; ii) el papel de las fuentes en la investigación histórica; iii) la evaluación de las fuentes; iv) la prosopografía (utilización de biograflas colectivas); v) la historiografía cientimétrica (utilización de técnicas cuantitativas). Los i), ii) y iii) pueden considerarse como M2 ya que se refieren a la utilización de determinadas técnicas, en cambio iv) y v) son Ml, es decir, técnicas de investigación. En el campo dela arqueología, la obra de Clive Orton (Orton, 1988) cs un trabajo de técnicas de investigación para arqueólogos. En el prólogo del libro nos dice Orton: «Las matemáticas pueden ser un instrumento para organizar nuestros pensamientos y los datos que poseemos» (Orton, l988:ll). En este sentido las matemáticas constituirían parte del aspecto instrumental de la arqueología. Siguiendo en el campo de la arqueología la obra compilada por Don Brothwell y Eric Higgs puede ser considerada también como de técnicas de investigación, en este caso para la datacìón. En el prólogo queda patente la importancia de las técnicas de investigación: La interpretación correcta de los datos aportados por los científicos a través de los materiales que, a primera vista, parecen poco prometedores dependen aún en gran medida del genio, la perspicacia y el halo de simpatía del investigador; pero el alcance de la información sobre la que se basan sus conclusiones estará limitado por los medios técnicos de que dispone (Brothwell y I-Iiggs, 198010).

El objetivo fundamental del establecimiento de niveles metodológicos es precisar y clarificar la utilización del campo semántico construido alrededor del método. La literatura sobre cuestiones metodológicas no siempre deja clara la delimitación entre dichos niveles, es decir, cn un mismo texto podemos encontrar cuestiones que afectan a varios niveles metodológicos; sin embargo, creo que conceptualmente puede

38

|N'rRonuccróN A |.A |=|LosoFtA DE LA cnaNc|A

hacerse esta distinción, y plasmarla en una terminología adecuada puede ayudarnos en el análisis del papel de la metodología en el conjunto de la filosofía de la ciencia.

3.2.

Cuestiones ontológicas

Continuamente, tanto en la vida cotidiana como en las ciencias empíricas, tomamos compromisos ontológicos y, para que estos compromisos sean auténticos y firmes, «es necesario que las categorías ontológicas posean un grado razonable de claridad, precisión y aplicabilidad» (Moulines, l982:327). Estas exigencias adquieren especial importancia cuando nos referimos a la ontología de la ciencia. A continuación vamos a ver cómo se plasman en el aspecto ontológico los tres niveles de teorización que hemos distinguido (teorizaciones de primer, segundo y tercer orden) en líneas anteriores. i) Ontología de primer orden (01). Consiste en determinar las unidades mínimas sobre las que se construyen las leyes y las teorías. Vamos a plantear algunas cuestiones concretas.

EnsMPLn=1cAcróN DE LA oN'roLooíA De PRIMER ORDEN l) La naturaleza de la ecuación de Schrödinger. Según la interpretación estándar (nos referimos ala interpretación de Copenhague) de esta ecuación por parte de los físicos, el estatus

ontológico del electrón es el de un mero «campo de probabilidades». ¿Es ésta la última palabra o bien hay descripciones más «realistas›› y «con sentido común» de las partículas elementales? Delimitar la Ol de la física significa poder señalar los elementos del mundo real de los que habla la teoría. 2) ¿Es necesario utilizar una nueva matemática (tipos fractales, matemática del caos) para reformular las teorías de determinadas ciencias especiales (por ejemplo la meteorología o la física de los fluidos)? En este caso la Ol delimita los recursos matemáticos que se utilizan en una teoría. 3) ¿Pueden utilizarse científicamente los datos que nos da

CUESTIONES PRELIMINARES

l

3

la introspección para constatar una teoría psicológica? Aquí la Ol delimita los elementos sobre los que se construirán las teorías psicológicas.

ÍÍ) Ontología de segundo orden (02). Explicita las categorías UC el filósofo de la ciencia va a utilizar para estu d'rar ls o p roductos científicos. l

E.rEm›r.mcAcróN DE LA oN'ror.oGíA DE sEoUN|>o o|u›EN l) ¿Todo elemento teórico de una teoría científica ha de te ner una contrapartida en el mundo real -si la teoría es verdadera- tal como consideran los epistemólogos realistas?, ¿o bien tienen razón los instrumentalistas como Van Fraassen cuando afirman que sólo la parte empírica de una teoría tiene contrastación real 0 que, en toda teoría, podemos encontrar conceptos puramente teóricos con un valor sólo «instrumental›› de los cuales no tendría sentido hablar de una posible contrapartida en el mundo real? Uno de los problemas planteados a raíz de la 02 es si todas y cada una de las unidades teóricas que forman la O2 tienen una posible contrapartida en el mundo real, es decir, si las partículas elementales representan elementos del mundo real. 2) ¿Cómo modifica la introducción de una determinada

construcción matemática el estatus ontológico de una teoria? A veces la nueva construcción matemática sólo será un instrumento para hacer cálculos secundarios (por ejemplo la introducción de la estadística para evitar los posibles errores en la lectura de un instrumento en un experimento). Otras veces puede significar un cambio total, que modifica la metodología detratamiento, los objetos de los que habla, la forma de hacer y contrastar predicciones (por ejemplo, la introducción de la matemática fractal en una disciplina como la meteorología). La O2 nos plantea la cuestión de hasta qué punto un cambio en las construcciones matemáticas cambia la ontologla de una teoria estableciéndose en este caso una relación entre O2 y M2.

INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA

3) ¿Cuáles son las categorías conceptuales con las que aprehendemos cada una de las secuencias de la historia de una ciencia particular?, ¿son las teorías (Moulines), los paradigmas (Kuhn), los programas de investigación (Lakatos), los mapas conceptuales (Toulmin y Thagard) o las tradiciones de investigación (l_audan)? La O2 determina las metacategorías conceptuales con las que captamos los cambios cientiñcos.

iii) Ontología de tercer orden (03). En el caso de la ontologia más que hablar de ontologia de tercer orden, lo que cabe es pensar en cuestiones epistemológicas y metafisicas de la ontología, es decir, en aquellos aspectos de los sistemas filosóficos que tienen consecuencias en el plano ontológicofi Por tanto, en este tercer nivel de teorización existe una interrelación entre la 03 y la M3.

EJEm=1.ri=rcAc1óN ma LA ouromois mi rtmccn oiwcn 1) Realismo vs. instrumentalismo. ¿Cómo podemos decidir entre una de estas metahipótesis (realismo científico 0 instrumentalismo científico?, ¿a que criterios podemos recurrir para decidir si la empiricidad de un concepto científico es parcial 0 es total? Se trata de un problema de metafilosofía, pero con implicaciones ontológicas de tercer grado, a saber: buscar la onto-

logía general de las teorías científicas averiguando si tienen un estatus realista o bien puramente instrumental. 2) ¿Cuál es la utilidad de las matemáticas para la ciencia?, ¿cómo contribuyen en la creación de una disciplina cualquiera?, ¿se limitan a ofrecer un sistema deductivo general por el cual suministren verdades y obtengan nuevas verdades que, a pesar 6. Para algunos autores, como M. Bunge. que identifican metafísica con ontolo gía, puede parecer reiterativo hablar de metafisica de la onlología, pero yo no comparto esta identificación, y los niveles ontológicos expuestos en este trabajo -siguiendo en algunos puntos a Moulines (Moulines, 1982 y 1992)- abogan por una complejidad mayor del campo ontológicoš

cussriomas PRELtM1N/mias

41

de ser obvias (tautológicas) no nos lo parezcan por nuestra capacidad lógica limitada?, ¿o quizás lo que nos ofrecen es una forma ordenada de construcción de las teorias cienttficas?, ¿son las matemáticas un aspecto imprescindible para la ciencia o podría haber en principio ciencia sin matemáticas? La 03 plantea la relación entre ciencia y matemáticas, en el sentido de si la ontologia de la ciencia tiene que tener su correspondencia en el mundo de la matemática. 3) ¿Cómo interactúa un experimento con una teoría cientifica?, ¿se construyen las teorías cientificas de forma lógica a partir sólo de la evidencia empírica pura de los experimentos (por ejemplo el solipsismo metodológico de la Auflmu) o bien las teorías tienen un estatus aparte de la evidencia empírica y son creaciones lógico-matemáticas, a las cuales el experimento sólo puede -hasta cierto punto- refutarlas, pero nunca darles un fundamento, como diria Popper? Se refiere al problema del estatus del experimento en el conocimiento cientiñco y, por ende, de la construcción de la ontología de segundo orden.

El tratamiento de la antología en la literatura cienttfica y fllosofica La literatura sobre ontología de la ciencia es menor que la que podemos encontrar sobre metodología, al menos respecto a referencias explícitas; otra cuestión es el tratamiento de la ontología a través de algunas de las cuestiones filosóficas, siendo en este sentido mucho más

abundante.” Uno de los autores que de forma explícita hace referencia a la ontologia de la ciencia es U. Moulines, que representa la postura de la concepción estructuralista. Para la concepción estructuralista (Stegmüller, Sneed, Moulines, entre otros) la ontología de segundo orden está compuesta de unas entidades llamadas «teorías›› y la pregunta clave es ¿qué clase de entidades son las teorias cientificas? 7. La selección de autores y textos no pretende ser exhaustiva y se ha hecho con el criterio de que abarcaran todos los aspectos aquí planteados, desde la Ol a la 03, haciendo especial hincapié en las cuestiones filosóficas relacionadas con la ontología, a saber: relativismo, patsimonia y realismo ontológico.

42

INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA

No cabe duda de que el establecimiento de categorias ontológicas de segundo orden pueden tener consecuencias para la ontología de primer orden, pero puede darse el fenómeno inverso, es decir, que la ontologia de primer orden tenga consecuencias para la de segundo orden. Esta interacción es posible y deseable siempre que no partamos ni de una filosofía de la ciencia apriorística ni de una filosofia de la ciencia encerrada en los estrechos márgenes de la investigación empírica más inmediata. Este tour de force entre ontología de primer y segundo orden está ejemplificado en las teorías sobre la materia que plantean la cuestión de «lo que hay» en general y que es un problema que conecta ciencia y filosofía. Según Moulines (Moulines, 1982) el análisis del concepto de materia pertenece a esta clase de problemática. Este problema es especialmente importante para el tema que nos ocupa porque uno de los esquemas conceptuales sobre la materia que determina la ontología de «lo que hay» es el atomismo. Dice Moulines: La idea de que la materia es una realidad numéricamente distinta

y fácticamente indivisible se retrotiae a los atomistas griegos. Ha sido y es probablemente la concepción de materia más articulada y más influyente en el desarrollo de la filosofía de la ciencia (Moulines, 19821352). El dilema metodológico que se nos plantea es que, por un lado, pretendemos un concepto de materia (noción ontológica fundamental) «que sea lo más resistente posible ante los resultados empíricos concretos», es decir, queremos un concepto de materia que resista los embates del desarrollo científico pero, por otro lado, pretendemos un «concepto de materia que sea no una pura elucubración sin contenido empírico, ajena a las teorías científicas vigentes». Esto -dice

Moulines- sería hacer mala ontología. Seguir demasiado fielmente las teorias científicas del momento es suicida (además de acrítico); no seguitlas en absoluto es estéril. Este es el dilema del ontólogo. Por supuesto, la resolución de esta tensión

estaría en seguir alguna vía media. El problema consiste en averiguar cuál es esa vla en términos concretos (Moulines, l982:347).

Respectoa las consideraciones de Moulines, hay que señalar que este distanciamiento de las teorías a la hora de construir la ontología

CUESTIONES PRELIMINARES

43

variará en función de si se construyen ontologias de primer o de segundo orden. Otro autor que ha proporcionado una ontologia de segundo orden es Frege Su ontosemántica es la propuesta de un sistema con el objetivo de fijar la ontologia de la lógica y de la filosofía de la matemática. Las unidades de la ontologia fregeana son objeto/función y sentido/referencia. Moulines aplica la ontosemántica de Frege al problema dela identidad de las teorías, es decir, tenemos las teorías como categorías básicas de la 02 y la ontosemántica de Frege nos ayuda a definir la naturaleza de dichas entidades. Respecto al aspecto ontológico de las teorizaciones de tercer orden nos centraremos en tres cuestiones: a) el relativismo ontológico, que consiste en la dependencia entre ontologia y esquema conceptual; b) la parsimonia, que consiste en no multiplicar las categorías más allá de lo estrictamente necesario; y c) el realismo ontológico, que sostiene la existencia de las entidades teóricas. a) Relativismo ontológico. Quine es uno de los representantes del relativismo ontológico según el cual «las discrepancias en la ontología suponen siempre una discrepancia en los esquemas conceptuales» (Quine, l962:43). Una de las tesis más representativas del relativismo ontológico es la de la «inescrutabilidad de la referencia», sostenida por Quine y, aunque con diferencias, también por Davidson. Del pensamiento de Quine, puede deducirse que no es concebible ningún cambio cientifico sin un cambio a nivel ontológico. Si Quine tuviera razón entonces no sería posible que hubiera cambios en la ontologia sin que los hubiera en el esquema conceptual co-

rrespondiente. Pero hay casos en la historia de la ciencia que constituyen contraejemplos a esta idea. Lo que supuso de novedoso la obra

de Dalton para la química se encuentra en la ontologia. Si comparamos la teoría atómica de Dalton con la obra de químicos como Lavoisier, Proust, Richter y Berthollet está claro, desde el punto de vista histórico, que la teoría atómica supuso un cambio radical en la caracterización de «lo que hay» y que afecta a la teoría de la materia, pero, ¿quién se atrevería a decir que los supuestos teóricos de estos químicos eran distintos?" 8. En mi ponencia sobre la revolución ontológica de Dalton, presentada en el Congreso Internacional Louis Proust (Segovia, mayo de 1992), se desarrollan estas cuestiones.

44

|NTRoDucci0N A LA Fltosorta DE LA ci1aNci,\

b) Parsimonia. La parsimonia está ligada al nominalismo. N. Goodman es uno de los autores actuales que ha recogido (aunque marcando las diferencias) la antorcha de Occam. Goodman analiza la relación entre nominalismo y sistemas atómicos y afirma: «Mi criterio de nominalismo puede aplicarse sólo a sistemas atómicos›› (Goodman, l972:152).° He dicho que el nominalista insiste en describir el mundo como compuesto de individuos, en describirlo como constituido de entidades en que no hay dos que tengan el mismo contenido, y que por tanto, esto es describirlo por medio de un sistema para el que no hay dos entidades distintas que tengan exactamente los mismos átomos (Goodman, l972:l63). Según Goodman sólo los sistemas atomistas pueden seguir las instrucciones nominalistas. 0 sea, si un sistema es nominalista entonces es atomista. Pero de esto no se desprende que todos los atomistas sean nominalistas. Además -según Goodman- el nominalismo es una condición necesaria (pero no suficiente) para que un sistema filosófico sea aceptable. Según este esquema podríamos concluir que el que sea un sistema atomista es una condición necesaria para que un sistema filosófico sea adecuado. Sin embargo, el nominalismo no nos preserva de escoger un mal material de base. El nominalismo nos dice que escojamos átomos pero no nos dice cuáles son buenos y cuáles no. Dice Goodman: El nominalismo es más una condición necesaria que una condición suficiente para que un sistema filosófico sea aceptable. Para construir correctamente tenemos que tener mucho cuidado en la elección de la materia prima. La elección de átomos por parte de un filósofo determinado puede muy bien estar guiada por actitudes o principios que se asocian al nominalismo por temperamento o por tradición; pero estos principios son independientes del nominalista tal como lo he definido.

El nominalismo no nos protege de empezar con átomos absurdos. Nos protege de fabricar baratijas de buenos átomos por medio de los cono cidos recursos del platonismo. En otras palabras, el nominalismo es una 9. Sin embargo, cita dos articulos de alumnos suyos que han analizado la compatibilidad o incompatibilidad del nominalismo con sistemas atómicos. Véanse Yoes (1967) y Schuldenfrei (I969).

cuEs'ri0NEs PRELIMINARES

45

regla restrictiva de procesar, que no seleccionará la materia prima ni fabricará buenos productos de malos productos pero, si tenemos buenos productos nos ayudará a no sacar malos productos (Goodman, l972:165). Los problemas planteados por Goodman pertenecen a la ontologia de segundo orden a la que hacía referencia Moulines. Sin embargo, hay que señalar que el «principio nominalista» en sí mismo, es decir, tomado como principio metafísico a tener en cuenta al hacer ciencia, habría que considerarlo como metodología de tercer orden. Supongamos que el mundo está formado por individuos, la siguiente cuestión es: ¿qué es un individuo? El nominalismo de Goodman no implica rechazar entidades abstractas sino que lo que se admita como entidad se construya como un individuo. Cualquier filósofo (nominalista o no) puede imponer muchas restricciones sobre lo que admite como entidad, pero estos requisitos (estén o no fundamentados y estén más o menos asociados con el nominalismo tradicional) son independientes del nominalismo tal y como lo entiende Goodman. El nominalismo rechaza una variación de entidades sin distinción de contenido. La definición de elemento atómico que da Goodman aclara algunas ideas sobre lo que entiende por atomismo: Un elemento atómico -o átomo- de un sistema es simplemente un elemento del sistema que no contiene otros elementos del sistema. Dependiendo del sistema, un electrón, 0 una molécula o un planeta podrian ser tomados como un átomo (Goodman, 19722158).

El principio nominalista es como el principio de no-contradicción

en lógica, no hay que probarlos, son requisitos para que un sistema filosófico este bien fundamentado. Lo pertinente para nuestro caso es que -según Goodman- sólo los sistemas atomistas pueden preservar el principio nominalista. Rescher (Rescher, 1987) critica el criterio de parsimonia a la hora de fijar la ontologia, asociando la economía ontológica a posturas antirrealistas (en su variante instrumentalista). Dice Rescher: El problema con un instrumentalismo fenomenológico es que trata la economia ontológica como el primer bien -un bien que vale la pena adquirir incluso a un considerable coste, incluso en términos de un sentido más amplio de economía que incluye también la economía de los

46

INTRODUCCIÓN A LA FIIDSOFIA DE LA CIENCIA

principios. La economía ontológica está muy bien cuando está libre de

cargas -o al menos es barata. Pero quizás se compre a un precio demasiado alto si requiere que paguemos costes substanciales en términos de satisfacciones intelectuales de explicación y comprension (Rescher, 1972153). Sin embargo, a partir de la concepción de Goodman sobre nominalismo, no está justificada la crítica de Rescher. El nominalismo de Goodman no se compromete ni con el realismo ni con el instrumen-

talismo. c) Realismo ontológico. En lo referente al realismo es relevante la distinción de I. Hacking: i) realismo de entidades, según el cual muchas de las entidades teóricas existen, cosa que el antirrealismo lo niega; ii) realismo de teorías, según el cual las teorías científicas son verdaderas o falsas, independientemente de lo que conozcamos, cosa que el antirrealismo niega. Desde el punto de vista ontológico, sólo es pertinente el realismo de entidades. El problema con la polémica sobre realismo/antirrealismo es que dicha polémica es estéril, e incluso confusa, si antes no establecemos la ontologia, lo cual significa determinar qué se entiende por real. La

concepción sobre lo real está en función de cómo se establezca la relación entre «mente›› y «mundo real». En este punto es pertinente la distinción de Rescher de tres alternativas respecto a la relación entre «mente›› y «mundo real››: i) materialismo ontológico; ii) idealismo ontológico; y iii) interaccionismo. El componente ontológico del realismo científico nos dice que hay un mundo real independiente de la mente. Rescher critica tanto i) que considera que parte de una concepción fisicalista, como ii) que lo asocia a una concepción platónica. Apuesta por iii), que caracteriza en los términos siguientes: «lnteraccionismom En el conocimiento humano hay acuerdo entre operaciones mentales y la realidad extramental a través de acomodación mutua, engendrando un proceso de una interacción de toma y daca, en el curso de la cual nuestras concepciones se coordinan con las formas de realidad extramental a través de la operación del proceso evolutivo (Rescher, l987:98).

En referencia al realismo se nos plantea hasta qué punto el atomismo está comprometido con el realismo o con el antirrealismo. Además también está la cuestión de hasta qué punto el atomismo implica

CUESTIONES PRELIMINARES

una toma de posición respecto a la relación entre mente y mundo real. Tradicionalmente el atomismo griego ha sido considerado (y muchas veces rechazado por ello), pero habría que hacer un análisis del concepto de materia para sacar conclusiones fundadas sobre la relflC¡Ón entre atomismo (griego o daltoniano) y materialismo. Finalmente, veamos el caso de dos científicos sociales, Gordon R. Willey y Philip Phillips, que en su obra Method and Theory in American Archaeology, hacen reflexiones metateóricas que encajan con 10 que aquí hemos denominado «aspecto ontológico de primer, segl1¡1d° y tercer orden». En el capítulo primero, «Archaeological unit Concepts», se analiza cuáles son las unidades arqueológicas básicas a fin de estab1€C€l` las entidades sobre las que, a posteriori, construirán sus teorías. ESI@ actividad es la del ontólogo de primer orden. Según estos aut01'eS ¡HS «unidades arqueológicas básicas» son la phase, que definen en los términos siguientes: Preferimos describir el concepto [se refieren afase] como una unidad arqueológica que posee rasgos suficientemente característicos Pam distinguirla de todas las otras unidades concebidas de forma similar (Willey y Phillips, l958:22). También encontramos ejemplos de reflexiones sobre la economía ontológica, es decir, hasta qué punto estos científicos se guían DO' el principio de parsimonia en la construcción de teorías para la af" queología. Mientras este uso tiene la aparente virtud de la economía a travéS de la eliminación de la diferencia conceptual entre tipo y unidad» 11050' tros preferimos mantener estos conceptos distintos, porque pensamos que los conceptos unidad tienen ciertas características no cornpartid&S por los tipos artefacto y esto tiene importantes consecuencias metodológicas (Willey y Phillips, 1958112). Por último una referencia al realismo ontológico: Afortunadamente, existe un acuerdo general entre los arqueóloS0S norteamericanos sobre lo que constituye un tipo artefacto, aunque aún hay alguna disputa sobre lo que significa en términos de la realidad básica que hemos postulado como el sujeto de la arqueología. la diferencia

43

iN'rizoDuccióN A LA Fitosori/t Dia LA ciiaNci›. Principal puede ser enunciada como la oposición entre HQUCUOS Que Cree" que los tipos existen en la naturaleza y aquellos que creen que el clasificador los «descubre›› (Willey y Phillips, 1958213).

Las referencias a cuestiones ontológicas, tanto por parte de filósofos como científicos, y tanto en el plano de la Ol como en el plano de la 03, nos llevan a concluir la importancia de la ontologia, no sólo para la investigación empírica más inmediata sino también para clarificar algunos de los debates que la filosofía de la ciencia tiene planteados a nivel epistemológico y metafísico.

3.3.

Cuestiones lógico-semánticas

El análisis lógico (sintáctico y semántico) no se aplica necesariamente a una clase privilegiada de teorías sino que puede aplicarse a todo discurso racional, siempre que éste sea suficientemente sistemático y riguroso (Dalla Chiara, l976:139). Este planteamiento supone el análisis y la reconstrucción de los postulados científicos con estructuras formales. Para llevar a cabo este objetivo se ha tomado la estructura axiomática como la más apropiada para reconstruir las teorias formalmente. Desde el punto de vista semántico tenemos las categorías introducidas por Frege y Tarski que contribuyen enormemente al desarrollo de este aspecto de la filosofía de la ciencia.

Así como en el caso de la ontologia y la metodología hemos distinguido varios niveles, lo primero que cabe preguntarse es si también en el caso de la lógica (sintaxis y semántica) podemos hablar de lógica

de Primer, Segundo y tercer orden. En primer lugar hay que señalar que «lógica de primer orden» y «lógica de segundo orden» tienen un significado muy concreto, a saber: lógica en que se cuantifican las variables y lógica en que se cuantìfican predicados, respectivamente. Independientemente de estos significados concretos, en el caso de las cuestiones lógico-semánticas, lo que podemos señalar es cómo la relación entre ciencia y lógica afecta a los distintos niveles de teorización. i) Relación entre lógica y teorizaciones de primer orden. La lóSrfiâ. entendida como el estudio de la estructura deductiva de los discursos racionales suficientemente rigurosos, es un instrumento poderoso para la ciencia. En este caso la cuestión estaría en si es posible

CUESFIONES PRELIMINARES

abordar estos discursos con una sola lógica, por ejemplo, con la lógica clásica o hay que recurrir a las llamadas lógicas no estándar para determinados discursos, en los que se viola alguno de los principios de la lógica clásica (tal es el caso de la física cuántica que recurre a la lógica cuántica) o porque el grado de complejidad del discurso en cuestión exige una lógica polivalente (tal es el caso de las ciencias jurídicas que requieren la lógica modal). Este aspecto del análisis lógico está dentro de los límites del primer grado de teorización.

Eri1Mi>i.ii=icAcióN DE LA iu3LAcióN iaNi'ius LóGicA Y cnaNciA l) ¿Cuál ha de ser la forma lógica de las oraciones del lenguaje natural?, ¿una extensión de la lógica de primer orden o bien una abstracción de las reglas concretas de la teoría de reacción y lazos, como afirma el propio Chomsky? Este problema se plantea en la lingüística y hace referencia a los elementos de los que habla la teoria. 2) ¿Para trabajar con la mecánica cuántica necesitamos una nueva lógica (por ejemplo la lógica cuántica) o bien es suficiente la lógica clásica? Este problema se plantea en fisica y química y hace referencia a los recursos lógicos de una teoria. 3) ¿Cuál es el significado, el valor veritatìvo de la evidencia empírica recogida por Lyell en sus Principios de geología para demostrar que la Tierra em mucho más antigua de lo que la gente creía hasta entonces? Se trata de una cuestión de tipo semántico sobre la significatividad de las evidencias en geología.

ii) Relación entre lógica y teorización de segundo orden. La cuestión que se nos plantea es la estructura formal de las teorías cientificas. En este sentido las posturas pueden ir desde la prescripción de que sólo la estructura axiomática es válida para reconstruir las teorias cientificas, y además se toma la posibilidad o no de esta reconstrucción como criterio de demarcación entre ciencia y pseudociencia, hasta el considerar que no tienen ningún valor epistemológico estas reconstrucciones a las que se considera un puro juego fomial. Una postura intermedia es proponer una gama más amplia de estructuras

50

INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA

formales (por ejemplo, la teoría de conjuntos) para reconstruir las teorías científicas.

EJ1zi.iPLri=icAcióN Dia LA iuai.AcióN isurnn i.óoicA Y i=iLosoi=íA DE LA cirsNciA i>i1oi›i_AM1sN'ria i:›icn.A l) ¿Una teoria general sobre el isomorfismo entre una parte del mundo (como el lenguaje natural) y una teoria cientifica (la lingüística generativista), ha de ser sólo lógica o ha de tener también en consideración presupuestos empíricos de cómo está efectivamente articulado el mundo (como sugiere Ruth Millikan)? Se trata de un problema filosófico sobre la relación entre lenguaje y realidad, planteado en términos de isomorfismo por Wittgenstein; un problema, por lo demás, que puede rastrearse hasta los griegos. 2) ¿Son todas las lógicas equivalentes -y en principio es suficiente la lógica clásica para trabajar con cualquier cienciao bien algunas son más útiles que otras para un determinado objetivo? Se trata de una cuestión sobre la utilidad de las diversas lógicas en la ciencia. 3) ¿Cómo se computa el grado de significatividad de la evidencia empírica de una teoria dada? ¿Podemos decir que el significado de una teoría depende única y exclusivamente de la evidencia empírica que posee o bien hay parte que no y que depende de los presupuestos meramente lógicos o instrumentales? Se trata de un problema sobre el significado de una teoría cien-

tífica.

iii) Relación entre lógica y teorizaeiones de tercer orden. Una primera cuestión es si hay que entender la lógica sólo desde el aspecto sintáctico (concepción sintáctica de las teorias) o bien reforzar el aspecto semántico (concepción semántica de las teoi-ias).'° Otra cuestión importante es si existen criterios para evaluar las distintas lógicas con IO. En el capitulo sobre teorias se expondrán las principales tesis de estas dos concepciones.

cues-riomas i›iusi.iMiNAiuss

Sl

las que reoonstruimos formalmente los discursos científicos. Finalmente, existe la cuestión de hasta qué punto las estructuras lógicomatemáticas reflejan la realidad. Este viejo problema se remonta a Platón y fue expuesto por Galileo, concretándose en la máxima de que «la naturaleza está escrita en lenguaje matemático».

Errar/i1›Li1=icAcióN Dia LA iuai.AcróN iauriua LÓGICA, Pon UN LADO, Y MiarAFísicA Y MiarAi=ri.osoi=iA, Pon omo l) ¿Es factible una teoría general sobre el isomorfismo entre teoría y mundo o bien tienen razón los filósofos como Putnam cuando afirman que podemos inventar cualquier construcción lógica ya que siempre encontraremos un isomorfismo entre esta construcción y el mundo real? Se trata de un problema filosófico básico en filosofía del lenguaje o de la ciencia. 2) ¿Cómo se calcula el contenido semántico, informacional, veritativo de una lógica dada a la hora de aplicarla a una ciencia concreta? Se trata de un problema de metalógica, de carácter técnico pero muy desarrollada y con resultados muy interesantes. 3) ¿Cuál es la mejor forma de expresar el contenido semántico de una teoría dada: axiomatizándola mediante la lógica de primer orden (como intentaron determinados representantes del Círculo de Viena) o mediante la lógica más la teoria de conjuntos (como se hace desde el estructuralismo) o mediante una teoría de tipo semántico como la de Van Fraassen? Se trata de un problema sobre cuáles han de ser los criterios de una meta-

metateoría para decidir qué metateoría filosófica es la mejor a la hora de teorizar sobre la práctica científica.

El tratamiento de las cuestiones lógico-semánticas en la literatura cientifica y ƒilosóflca Hay una forma de ver la relación entre lógica y filosofía de la ciencia y es considerar la lógica como un instrumento de análisis conceptual. Respecto a esta cuestión las divergencias vienen, fundamental-

52

rN'rnoDUccioN A LA i=iiosorIA De LA cnaNciA

mente, a la hora de sopesar determinados instrumentos de análisis. Los métodos formales han sido siempre utilizados por los filósofos de la ciencia, la cuestión está en el peso que damos a dichos métodos dentro del conjunto y la exclusividad de los mismos. La utilización de instrumentos formales de análisis conceptual está relacionada con la manera de entender la reflexión filosófica de la ciencia (cuestión tratada en los párrafos anteriores). Mientras unos consideran los métodos formales como los únicos instrumentos conceptuales de análisis filosófico, otros los consideran un puro juego formal que en nada contribuye a la comprensión de la ciencia. Nadie puede dudar de que el análisis lógico es una actividad legítima de la filosofía de la ciencia. Lo único discutible es su exclusividad. En el análisis lógico vemos dos direcciones: «uno puede intentar tratar con diferentes tipos de teorías empíricas con la esperanza de que ciertas ideas generales surgirán de resultados parciales. Pero también, uno puede proceder en dirección opuesta; empezando con algunos presupuestos generales, uno puede intentar ajustarlos a las peculiaridades de teorias distintas» (Wojcicki, en Przelecki et al., l976:9). Wojcicki dice que estos dos enfoques pueden complementarse. El análisis lógico puede limitarse a las teorías matemáticas, sin embargo se ha intentado aplicar la teoría de modelos fuera del estrecho marco de las teorías matemáticas. En especial debemos a P. Suppes, J. Sneed y M. Przelecki el desarrollo sistemático de una semántica de las teorías fisicas en el cuadro conceptual de la teoría abstracta de modelos (Dalla Chiara, 19761140). Respecto a la teoria de modelos dice Dalla Chiara: Un análisis de este tipo demuestra, a un tiempo, la vasta aplicabilidad de las ideas generales de la teoría de modelos y, sin embargo, la necesidad de ir adaptando poco a poco sus instrumentos a las caracteristicas peculiares de las distintas situaciones teóricas consideradas. His-

tóricamente, Ios teóricos de los modelos fueron siempre matemáticos, obviamente preocupados, de modo especial, por las aplicaciones de tipo matemático. Con toda probabilidad la tendencia contemporánea a abrir la teoria también hacia las problemáticas de las ciencias empíricas, des-

pertará nuevos interrogantes de interés para la misma teoría pura de modelos (Dalla Chiara, l976:l42).

El problema que plantea Dalla Chiara es si el análisis lógico tiene que contar sólo con la lógica clásica o, a la vista del desarrollo de las

cUEs'rroNras PRELIMINARES

53

Hamaqaf «iågicas no estándar», dicho análisis debe apostar no por ¡H «umcidad›› de la lógica sino por la «multiplicidad››. Uno de los Pr0hlemas es la conmensurabilidad o inconmensurabilidad de las distintiis lógicas. Dice Dalla Chiara: Prešuntémonos ahora si resulta admisible que un mismo ser inteligente emplee lógicas distintas en diferentes situaciones, manten¡er1d0 “" °0mDortamiento racional coherente. La respuesta sería obviamente rieåfltiva Siempre que se pretendiera identificar un ser pensan te con un unico sistema formal. No obstante, son muchos los argl-Im¢rIl0S que ¡W ducen a asimilar la actividad racional de un ser inteligente, a un sistema múltiple de sistemas formales parciales mucho más que 21 un IÍIDÍCO sistema formal (Dalla Chiara, l976:l50). Supuesta la no exclusión de sistemas formales para el análisis de las teorias científicas, la cuestión está en si hay una lógica preferente. La respuesta de Dalla Chiara es que la superioridad histórica de la lóSica clásica tiene un significado práctico y psicológico. ' Pero no sólo D0rqUe es práctico y psicológicamente satisfactorio sino también POr' rlue es la iógica más potente. Sin embargo, lo que interesa es cómo valorar las siguientes lógicas en su papel de instrumento para la comDrensión de la ciencia. Si la lógica clásica, por muy potente que sea. n_o tiene modelos en una ciencia particular, de poco sirve para esta cienCla. En el campo de la ciencia como en el de la filosofía de la ciencia nos movemos en el ámbito de lo posible, no en el ámbito de lo que deberia ser, sobre todo si este «deber ser» no guarda relación con lo que «Puede ser».

Ademåfi, hay cuestiones en filosofía de la ciencia de las que tenemos un tratamiento formal y otro no formal. Mientras no sostengamos la exclusividad en uno u otro sentido, en principio, no tienen por Clllé ser incompatibles ambos tratamientos. Por ejemplo, la te0r1'3 de la definición y la caracterización del concepto de determinismo han recibido tratamiento formal y no formal. P. Suppes (Suppes, l984a) ha elaborado una teoría de la definición formal, en cambio P. Achinstein (Achinstein, 1971) de la no formal. En cuanto al determinismo, R; M°m3BUe Qvlontague, 1974) ha establecido una tipología de determinismo e indeterminismo con un tratamiento formal; por 0tl'0 1flCi0. J. Earman (Earman, 1986) y P. Fevrier (Fevrier, 1955) han construido una ÚP0iogia de determinismo/indeterminismo sin recurrir ' a méto-

54

mrrtoouccrón A LA FiLosoi=tA DE LA ciENcrA

dos formales. El análisis lógico es un instrumento muy importante para el análisis de las teorias científicas pero que no agota el análisis conceptual.

4.

CoN'rEx'ro DE LA iUs'rn=icAcióN Y coN'rEx'ro DEL DEscUBiuMrEN'ro

La filosofia de la ciencia tiene dos vertientes, una sincrónica y otra diacrónica. La primera analiza la ciencia como producto y la segunda la ciencia como proceso. En este sentido la polémica se ha centrado en la disyuntiva entre contexto (o lógica) de la justificación -fundamentación de la ciencia sin tener en cuenta la variable temporaly contexto (o lógica) del descubrimiento -explicación del desarrollo de la ciencia- siendo este último cuestionado por muchos filósofos como posibilidad de análisis racional. Dentro de la tradición neopositivista procedente del Círculo de Viena, la distinción entre contexto de la justificación y contexto del descubrimiento ha servido para concluir que no es posible la lógica del descubrimiento. La irrupción historicista en la filosofia de la ciencia en la década de los sesenta sacó de su letargo a la lógica del descubrimiento pero no supuso el más mínimo acercamiento a una posible interrelación entre ambos contextos, si cabe, creció el abismo entre ellos. Desde el contexto del descubrimiento, y a la vista del trabajo metateórico realizado sobre la dinámica científica, nadie puede negar la existencia de este campo de conocimiento. Sus resultados pueden considerarse más o menos potentes desde el punto de vista explicativo pero no puede negársele entidad propia.

Lo que en estos momentos es más discutible es hasta qué punto el contexto del descubrimiento debe recurrir al contexto de la justificación para construir sus propios modelos. La conclusión va en la dirección de que es necesario recurrir a la lógica de la justificación para completar los modelos de cambio científico. Esto supone la posibilidad de interrelación entre el contexto de la justificación y el contexto del descubrimiento. En este sentido, T. Nickle tiene razón al afirmar: Es también probable que comparta mi creencia en que sus análisis de casos históricos (principios de razonamiento y justificación) no son

sino las dos caras de una misma moneda (Nickle, en Suppe, l979:

629-639).

55 cuEsrioNEs i>nELiMrNAREs

ntexto

ço En cuanto al papel del contexto de la justificación en eìøs riV9Jes _ . . . _, teorl . (al el descubrimiento, los criterios para la eleccion entre _ n¡;íf1¢05 _ propuestos por los autores de las teorias sobre cambioš “ete çonfictê menos los de Kuhn, Lakatos y Laudan) están directarflen r¿fer6l1c'_a dos a problemas de los fundamentos del conocimiento- La ¡¡-¡fi-odllclr al contexto de la justificación también se hace necesaria *fl ¿_ En este aspectos normativos en los modelos de dinámica cienffl-¡ire ¢¡_1ál es caso tenemos que introducir normas que nos orienterl so ue los r'Il0' el mejor modo de hacer progresar la ciencia, si queremas ncia, Sìnø delos no sólo sean una descripción del desarrollo de la me que también nos digan la mejor manera de hacerla. de cal-¡¡biO Finalmente señalemos que aunque desde los mod61°5 tre ambos científico se explicite y analice la necesaria interrelación en ¡mr toda contextos, ello no implica que dichos modelos tengan qilc apoocimienla obra metateórica que necesita la fundamentación dfil con b¡e¡¡¡áti-

d

to. Lo único que queda claro es que es imposible eludir la prïmelos de ca del contexto de la justificación a la hora de aplicar 105 m do to¿0 cambio científico a la historia real de la ciencia, apro*/echan u1a_ el armazón metateórico que la lógica de la justificación ha acum do a través del tiempo.

5.

LA i=ii.osoi=iA DE LA ciENcLA ENTRE LA DESCRIPCIÓN Y LA PitEscrirPcróN

Todos los filósofos de la ciencia aceptarían el componênte desenlativo del análisis filosófico, aunque negaran la exclusividad de la función descriptiva. Sin embargo, no ocurre lo mismo con el Componerfte normativo, ya que hay una corriente en filosofía de la Gieflcia que ¡nega todo carácter normativo a la filosofia de la ciencia, U0 Sólo c°m° su único carácter, sino también como uno de sus componentes- Esta negación puede producirse por diversas razones. Hay varias formas de negar (o sustituir) el uiráctel' n01'maIÍV0 de la filosofia de la ciencia. Negarlo significa introducir e1ern6l”ll0S anarquizantes y relativistas en la dinámica cientifica. Sustïituirlo in'lD1ÍCa tomar alguna de las skuientes altemativas: i) Reducción de la epistemología a la psicología. U na Versión Concreta de esta postura está en la «epistemología naturalizada» de Quine.

56

innzooucclon A LA |=nosoFI›. DE LA ciENci.«

ii) La reducción de la epistemología a la sociología de la ciencia. Esta alternativa es sustentada por B. Barnes y D. Bloor (entre otros) pertenecientes a la llamada Escuela de Edimburgo. Í) EH noxiMAcioN ms1ó|ucA

67

cial el nacimiento del método científico. Los comentarios de Cohen abundan en este sentido: El método resultó de importancia fundamental durante la Revolución Científica porque el aspecto más novedoso de la nueva ciencia o la nueva filosofia era la combinación de la matemática con el experimento. En épocas anteriores el conocimiento era sancionado por las escuelas, los consejos, los sabios, y la autoridad de los santos, la revelación y las Santas Escrituras; en cambio, en el siglo xvn se sostenía que la ciencia se basaba en cimientos empíricos y en el buen sentido.

Cualquiera que comprendiese el arte de realizar experimentos podía poner a prueba las verdades científicas, y este factor introducía una diferencia fundamental entre la nueva ciencia y el conocimiento tradicional, fuese la ciencia antigua, la filosofía o la teología. Además, el método, fácil de aprender, permitía a cualquiera realizar descubrimientos o hallar nuevas verdades. Fue, pues, una de las fuerzas democratizadoras mas poderosas de la historia de la civilización. El descubrimiento de la verdad había dejado de ser una gracia concedida a unos pocos

hombres y mujeres de dotes espirituales o mentales singulares. En la presentación de su método, Descartes dijo: «Jamás he presumido de poseer una mente más perfecta en ningún sentido que la de un hombre

común». Ningún aspecto de la ciencia del siglo xvn fue tan revolucionario como el método y sus consecuencias (Cohen, 19892140).

Además del aspecto estrictamente metodológico, en la revolución científica vuelve a surgir la polémica entre dos tradiciones: por un lado la de «salvar las apariencias» defendida por Osiander y Belarmino y, por otro, la de los pitagóricos defendida tímidamente por Copérnico y abiertamente por Galileo.

No vamos a exponer con detalle todas las cuestiones que surgieron en los siglos xvr y xvn y que pertenecen, sin lugar a dudas, al campo de la filosofía de la ciencia. Señalemos, únicamente, algunas contribuciones que constituyen, o bien reconstrucciones de la ciencia, o bien guías para la investigación. Entre estas aportaciones podemos citar las siguientes: el método experimental de Francis Bacon, la metodología de Descartes y los principios regulativos de Newton a los que llamo «reglas de razonamiento en filosofía». Bacon, Descartes y Newton trabajaron, fundamentalmente, en el aspecto metodológico de la filosofía de la ciencia y, aunque en sus obras se encuentran reflexiones sobre todos los niveles, podemos decir que

68

|N1'RoDucc|oN A LA F|Losoi=lA DE LA crraNciA

cada uno de ellos se centró en un nivel determinado. Así Bacon se preocupó más por la Ml, Newton por la M2 y Descartes por la M3. La propuesta de Bacon tiene consecuencias inmediatas para la investigación pragmática de los científicos. El método axiomático propuesto por Newton establece las restricciones a las que los científicos tienen que atenerse. El Discurso del Método de Descartes constituye un ejemplo de guías metafilosóficas y principios metafísicos que subyacen a la empresa científica. Culminada con Newton la revolución científica, su influencia se deja sentir muy especialmente en las teorias sobre el método científico. La implantación de lo que a partir de los siglos xvr y xvn se entendió por método científico, no sólo tuvo consecuencias inmediatas para la física y la astronomía, sino que las sucesivas revoluciones que tuvieron lugar en otras ciencias particulares tomaron como modelo de revolución lo que ocurrió en la física y en la astronomía durante estos siglos.

5.

LA TEORÍA DE LA CIENCIA DURANTE LOS SIGLOS XVIII Y XIX

A partir de Newton, con la nueva ciencia y una teoría del método científico, empieza una nueva etapa en esta reflexión de segundo orden. Vamos a detenernos en algunas de las más importantes aportaciones a la filosofia de la ciencia durante los siglos xvrrr y xrx. John Locke (1632-1704) abordó la posibilidad de conocer la naturaleza especificando las condiciones para un conocimiento necesario. Defendía el atomismo pero sostenía que ignoramos las configuracio-

nes y movimientos de los átomos. Según estas ideas, la ontologia teórica de la ciencia natural estaba formada por átomos. En cuanto a la metodología, Locke recomendó para la ciencia una metodología baconiana de correlación y exclusión, basada en la compilación de vastas historias naturales (Losee, 1985:100). Las relaciones entre ciencia y metafísica fueron ampliamente tratadas por Gottfried Wilhelm Leibniz (1646-1716). Comparado con Locke, Leibniz tenía una visión más optimista de lo que la ciencia puede conseguir y, por tanto, de las posibilidades de unas relaciones necesarias en la naturaleza. Losec comenta que Leibniz «estableció un tráfico de ida y vuelta entre las teorías científicas y los principios metafísicos. No sólo apoyo sus principios metafísicos en argumentos analógicos

APRox|MAcróN r-nsro|ucA

69

basados en teorías cientificas; también empleó los principios metafísicos para dirigir la búsqueda de leyes científicas» (Losee, 1985). Estas relaciones que establece Leibniz no son ajenas a la problemática actual respecto a la relación entre ciencia y filosofia de la ciencia. Cualquier criterio que se establezca para guiar estas relaciones estará en el plano de lo que hemos denominado metafísica o metafilosofía. Otra cuestión importante es el aspecto ontológico de la filosofía de Leibniz. Para Lcibniz la ontologia está formada por mónadas, sobre las que podemos preguntarnos si son unidades teóricas o metateóricas, es decir, si son elementos de la física o de la metafísica. En sentido estricto, las mónadas son las unidades de la metafísica, pero debido a la interrelación entre ambos campos (físico y metafísico) las mónadas tendrian su correlato en el mundo fenoménico o empírico. Dice Losee: «por necesidad, las substancias individuales (mónadas) se despliegan de acuerdo con un principio de perfección que asegura su interrelación armónica; y podemos estar seguros de que esta actividad monádica “subyace” en los fenómenos» (Losee, l985:lO9). Lo que no hace Leibniz es decir que estos principios deben, necesariamente, ser ejemplificados en el nivel fenoménico. David Hume (l7ll-1776) es una figura importante en el contexto histórico de la filosofía de la ciencia. Planteó muchos de los problemas que aún hoy siguen debatiéndose. La tónica general que subyace en todo su pensamiento es el escepticismo que se manifiesta en distintos planos y que afecta tanto a la teoría del conocimiento como a la filosofía de la ciencia. La idea que podría resumir el escepticismo de Hume es que no es posible un conocimiento necesario de la naturaleza. Pero hay dos temas que afectan directamente a la filosofía de la ciencia: el problema de la inducción y el problema de la causalidad.

Respecto a la inducción, Hume supone que el argumento inductivo es un argumento por enumeración. Las inferencias inductivas son habituales tanto en la vida cotidiana como en la actividad científica, de aquí la importancia de las dudas de Hume y de los esfuerzos para rebatirlo y encontrar alternativas. Siendo la inducción, como es, un método utilizado por los cientificos en la investigación, no hay duda acerca de la preocupación de Hume por las cuestiones metodológicas de la ciencia. El otro tema importante de Hume es la causalidad. Siguiendo su vena escéptica, reduce la fuerza causal a una mera sucesión de acontecimientos. Hume es un punto de referencia para los autores del Círculo de

70

|N1'RODucc|oN A LA mosorip. DE LA cuaNc|A

Viena y es considerado como un precursor de las corrientes de pensamiento que atacaron la metafísica. En Investigación sobre el entendimiento humano, dice Hume: Cuando persuadidos de estos principios recorremos las bibliotecas, ¡qué estragos deberíamos hacer! Tomemos en nuestra mano, por ejemplo, un volumen cualquiera de teología o de metafísica escolástica y

preguntémonos: ¿Contiene algún razonamiento abstracto aoerca de la cantidad y el número? ¿No? ¿Contiene algún razonamiento acerca de los hechos y oosas existentes? ¿Tampoco? Pues entonces arrojémoslo a la hoguera porque no puede contener otra cosa que sofismas y enga«

ño (Hume, en Ayer, 1965215). Con este comentario Hume introduce el problema de la demarcación entre ciencia y pseudociencia tan debatido a raíz de las tesis del positivismo lógico. \ Frente al escepticismo de Hume, Immanuel Kant (1724-1804) mantiene que hay conocimiento y que el empirismo de Hume tiene que ser falso; por tanto, el conocimiento no consiste únicamente en recibir impresiones sensibles. No vamos a extendernos en la teoría del conocimiento de Kant, sólo señalar la repercusión que tuvo en el campo de la filosofia de la ciencia. Uno de los puntos más controvertidos de la filosofía de Kant es todo lo que se refiere a los juicios sintéticos-a priori. En dichos juicios el predicado dice algo sobre el sujeto que no está contenido en éste, pero es necesariamente verdadero. Kant se propuso justificar este tipo de juicios en la ciencia. Se planteó las siguientes preguntas: «¿Cómo son posibles los juicios sintéticos a priori en la matemática?››, «¿Cómo son posibles los juicios sintéticos a priori en la física?››, y «¿Cómo son posibles los juicios sintéticos a priori en la metafisica?››. A ellas respondió en sus obras Estética transcendental, Analítica transcendental y Dialéctica transcendental, respectivamente. Hume es considerado como uno de los precursores de la tradición analítica. Sin embargo, no ocurre lo mismo con Kant, a quien se considera completamente ajeno a la tradición analítica y positivista. Con todo, y sin ánimo de entrar en esta polémica, vamos a referirnos a algunas voces que atribuyen a Kant un papel mucho más importante en la gestación de la filosofia de la ciencia del que normalmente se le atribuye. Moulines es una de ellas:

APnox1M›.cioN Hlsrómcø.

71

Su posición [la de Camap] respecto a Kant y los neokantianos es ambivalente. En algunos pasajes valora positivamcntc los impulsos epis_ temológicos procedentes de la tradición kantiana, pero en otros casos su actitud es de clara discrepancia. Es difícil decir qué momento pre_ domina en Carnap con respecto a Kant, si el de aceptación 0 el de re_

chazo (Moulines, l982:221-222). independientemente de la polémica, lo que si es razonable aceptar es que Carnap tiene en cuenta a Kant y además -según Moulines` Kant es citado por los autores de la tradición del empirismo lógicq, más que otros autores que tradicionalmente se han considerado den_ tro de dicha tradición como Hobbes, Locke, Hume, Comte y Mill_ Coffa (Coffa, 1982) también relaciona la tradición analítica con Kant. Coffa presenta el «conceptualismo›› -al que define como el mot vimiento que incluye la rigorización del cálculo, las teorías de la arit_ mética de Frege y Russell y el convencionalismo geométrico de Poin_ caré y Hilbert- con un enemigo, un objetivo y una estrategia. E1 enemigo era Kant, el objetivo era la eliminación de la intuición pura del conocimiento científico y la estrategia era la creación de la semán_ tica. A propósito de la tradición analítica antikantiana, dice Coffa; Esta ampliamente aceptado que una de las caracteristicas de la tra_ dición analítica antikantiana es el rechazo del conocimiento sintéticq a priori. Por el contrario, prácticamente todos los miembros de la tra_ dición semántica que estamos considerando aqui, desde Bolzano, Fre_ ge y Russell hasta los primeros miembros del Circulo de Viena, recono_ cieron la existencia y el significado decisivo de los juicios sintéticos q priori en el sentido que los definía Kant. No fue hasta que Quine em_

pezó su «Larga Marcha» hacia J. S. Mill que la tradición analítica se cuestionó la posibilidad de conocimiento necesario que no es analítico en el sentido de Kant (Coffa. 19821683). Ambos autores, Moulines y Coffa, desde perspectivas distintas mat nifiestan una postura parecida respecto al papel de Kant en la tradi_ ción analítica y quienes fueron los precursores del positivismo lógico. Finalizaremos este breve repaso histórico sobre la filosofia de la ciencia poniendo de relieve algunos de los autores del siglo iux que hicieron aportaciones a la filosofía de la ciencia dignas de tenerse en cuenta. Los autores aquí citados son sólo una muestra de la continui¬ dad de la preocupación de cientificos y filósofos por la fundamenta_

72

INTRODUCCIÓN /\ LA FILDSOFÍA l)Iš LA CIENCIA

ción de la ciencia. Más o menos explícitamente, siempre podemos encontrar en 1a obra de los cientificos alguna reflexión de segundo grado sobre lo que están haciendo; sin embargo, vamos a centrarnos solamente en aquellos autores que su preocupación por cuestiones epistemológicas es más evidente. John Herschel (1792-1871), astrónomo, escribió Preliminary Discourse on Natural Philosophy, que puede considerarse como una de las obras más importantes de filosofía de la ciencia de su época. Entre sus estudios destaca el referente a la distinción entre el contexto de la justificación y el contexto del descubrimiento, insistiendo en que el procedimiento usado para formular una teoria es estrictamente irrelevante para el problema de su aceptabilidad. William Whewell (1794-1866) realizó estudios sobre el progreso de la ciencia, construyendo un patrón de descubrimiento científico, por lo que puede ser considerado como un precursor de la dinámica científica. Whewell comparó el desarrollo evolutivo de una ciencia con la confluencia de los afluentes que van formando un río, lo que nos hace pensar que tenía una concepción acumulativa del desarrollo de la ciencia. John Stuart Mill (1806-1873), economista, historiador y filósofo, es conocido por su defensa del inductivismo frente a una visión hipotético-deductiva de la ciencia, diferenciando cuatro tipos de métodos inductivos, a saber: método del acuerdo, de la diferencia, de las variaciones concomitantes y de los residuos. También trató el tema de la causalidad, refiriéndose a la causalidad múltiple como la que se da cuando hay involucrada más de una causa en la producción de un efecto y distinguiendo diferentes tipos de causalidad. Mill trató también la

cuestión de la causalidad múltiple en su obra System of Logic (l86S).° Ya en el último tercio del siglo xix y los primeros años del siglo xx, podemos citar a otros autores representativos de diversas concepciones sobre la investigación cientifica. Henri Poincaré (1854-1912) desarrolló vigorosamente los principios generales de una visión convencìonalìsta de la ciencia: «el que una verdad se considere necesaria es sólo por estipulación [convención] de los cientificos». Sin embargo, sería simplista atribuir a Poincaré la opinión de que las leyes cientificas generales no son sino convenciones 3. D. Bohm (1980) reconsidera la cuestión de la causalidad múltiple a raíz de la polémica sobre la compatibilidad entre causalidad y probabilidad.

Ai>RoxtMAci0N Htspóklc/1

73

que definen conceptos científicos fundamentales, hasta el punto de 1°; ner un conocimiento científico sin fundamento. Respecto a las ¡CW Poíncaré comentó: [Las leyes] se nos presentan bajo dos aspectos diferentes. POI' U" 1333: son verdades basadas en la experimentación y aproximadamflltelvdo

ñcadas en lo que concierne a los sistemas casi aislados. Por 0U'° “má son postulados aplicables a la totalidad del universo y consideiad0S C01 1) rigurosamente ciertos (Poincaré, 1905, en Losee, 1985, nota 10. WP* ^ Queda claro que Poincaré tenía en cuenta los dos aspectos delas leyes científicasQ pero esto no le exime su inclusión en la con¢¢P°'Ón convencionalista. _ . Pierre Duhem (1861-1916) sc interesó por la historia de la ciencia e intentó que fueran compatibles la historia y la filosofía de ¡fl UÉÍÉ' cia. También realizó estudios sobre la estructura de las teorias cientificas y sobre el papel de la inducción en la investigación cientifica: P¢f° quizás su aportación más conocida está relacionada con la lógica de la refutación. Supongamos el siguiente esquema explicativ0ï L (leyes) C (condiciones iniciales) S (supuestos auxiliares) E (fenómeno que tratamos de explicar) Si el razonamiento es válido, entonces, si las premisas SGH verda' deras, la conclusión tiene que ser verdadera. Supongamos Cl'-le la com clusión es falsa, entonces alguna de las premisas tiene que 3°' falsa

pero -según Duhem- no necesariamente las leyes, ya QI-1° P0dfía serlo alguna de las premisas. Es decir, la observación de que n0 0¢“_"° E no refuta, por si sola, a L. Este problema planteado por D\1h¢f""m°_ duce un elemento de incertidumbre en la lógica de la refutaClÓ" pm" que, llevado hasta sus últimas consecuencias, el planteamient0_d° pu' hem pone en entredicho una parte importante de la invcstlgflclón científica: la refutación de hipótesis. . Émile Meyerson (1859-1933) es conocido por sus trabfl.i05 °n_ qm' mica y en historia y filosofia de la ciencia. Es interesante su clasificación de las leyes en empíricas y causales, considerando 1215 Pflmems las que especifican cómo se altera un sistema cuando se modifican las

74

iN'rizopuccioN A LA Fii.osoi=lA DE LA c||2Nc|›.

condiciones apropiadas y, las segundas, las que estipulan que hay algo que permanece a través del cambio. Meyerson pensaba que, mientras el conocimiento de las leyes empíricas satisface nuestras exigencias de previsión, solamente el conocimiento de las leyes causales satisface nuestro deseo de comprensión. Es interesante señalar que la filósofa de la ciencia N. Cartwright (Cartwright, 1983) hace también una clasificación de las leyes de la naturaleza, distinguiendo entre leyes de asociación y leyes causales, con muchas similitudes con la clasificación de Meyerson. Después de estos autores ya nos situamos en los años veinte de nuestro siglo, década en la que surge el Círculo de Viena y con ello la filosofia de la ciencia con entidad propia, como una actividad independiente de los científicos y como una especialidad dentro de la filosofía.

6.

LA iNs'riTucioNAi.izAcióN DE LA Fii.osoi=iA DE LA ciiaNciA

Desde 1895 en que E. Mach ocupó la cátedra de filosofia de las ciencias inductivas, hubo en la Universidad de Viena una larga tradición de filosofía empirista que se ocupaba principalmente de las ciencias naturales. En 1922 M. Schlick pasó a ocupar la cátedra. Al igual que sus predecesores procedía de la física pero, a diferencia de ellos, tenía un conocimiento profundo de la filosofía. Schlick aglutinó a filósofos y cientificos interesados por la filosofía. Entre sus colegas podemos citar a R. Carnap, V. Kraft, F. Kaufmann, H. Hahn, K. Gödel, y alumnos como E. Zilsel, H. Feigl, O. Neurath, F. Wassmann, entre los más conocidos. En 1929 la Sociedad Alemana de Física, la Asociación de Matemáticos Alemanes y la Sociedad de Filosofía Empírica de Berlín organizaron un congreso sobre gnoseologia de las ciencias exactas. Al mismo tiempo se publicó un estudio programático Wissenschaftliche Weltauffassung con el que el Circulo de Viena, y con él la filosofia de la ciencia, tomaba forma institucional. En 1930 Carnap y Reichenbach convertían los Annalen der Philosophie en la publicación del Círculo bajo el título de Erkermtnis. El Circulo de Viena se extendió rápidamente en los medios académicos de Europa. La designación de Carnap como profesor extraordinario de la facultad de ciencias naturales de la Universidad de Praga

/\i›RoxiMAcióN i-iisiónicx

75

contribuyó en la formación de un grupo que compartía las principales tesis del Círculo. La anexión de Austria a Alemania supuso la disolución definitiva del Círculo, pero no la muerte de sus ideas. Estas se divulgaron rápidamente sobretodo por los Estados Unidos e Inglaterra. Puede parecer paradójico que sea en Alemania donde menos difusión tuvo el Círculo de Viena a pesar de que éste había surgido en un contexto cultural y científico germano. Una de las razones es que en la época en que surgió el Círculo de Viena imperaban en el ámbito alemán las tendencias metafísicas y las co strucciones dogmáticas. El Círculo de Viena 20 era un grupo de alumnos alrededor de un maestro sino un conjunto de filósofos y científicos que partian de una base común pero que diferían a la vez en muchas cuestiones. V. Kraft, uno de los fundadores, resume la orientación fundamental común del modo siguiente: Existía una orientación fundamental común: la cientificidad de la filosofia. Las rigurosas ørigencias del pensamiento cientifico han de valer también para la filosofía. La claridad unívoca, el rigor lógico y la fundamentación suficiente son imprescindibles en ella, como lo son en las

restantes ciencias. Las afirmaciones dogmáticas y las especulaciones incontroladas, lan extendidas todavía hoy en la filosofia, no deben pre-

sentarse en ella. Con ello venia dada también la oposición contra toda metafísica dogmático-especulativa (Kraft, |966:23-24). El Círculo de Viena se ocupó de la ciencia pero tomó posición respecto a los problemas fundamentales que tenía planteados la filosofia, aunque la solución no estuviera de acuerdo con la filosofía predominante en el ámbito alemán.

El desarrollo de la lógica durante la segunda mitad del siglo xix influyó decisivamente en la configuración de los presupuestos teóricos del Círculo de Viena. La denominación de «empirismo lógico» es quizás la que mejor expresa la confluencia de dos tradiciones: el empirismo en tanto que los juicios sintéticos no pueden tener otro fundamento que la experiencia, y el racionalismo en tanto se reconoce la validez apriorística de la lógica y de la matemática. Sobre el papel de la lógica y la matemática dice Kraft: La salida del dilema: abandono del empirismo o interpretación errónea de la lógica y de la matemática, fue el Círculo de Viena el primero

76

iN'rizot›uccioN A LA i=ii.osoi=iA DE LA ciiaNciA en señalarla: la lógica y la matemática no enuncian nada sobre la realidad experimentable La lógica no contiene ningíui conocimiento, no proporciona los principios del ser, sino los fundamentos del orden de los pensamientos (Kraft, 1966131).

La nueva lógica se convirtió en el instrumento más preciado de la teoría de la ciencia hasta el punto que, en los círculos próximos al empirismo lógico, a la filosofía de la ciencia se la designó «lógica de la ciencia». Otra característica es el interés por el análisis lógico del lenguaje ya que el conocimiento se expresa en formulaciones lingüísticas. Dice Kraft: Si la investigación de los hechos, es decir, de aquello que se presenta mediante el lenguaje, corresponde a las ciencias particulares, el análisis lógico se orienta hacia cómo se representan en el lenguaje los he-

chos mediante conceptos y enunciados. El análisis del lenguaje constituye el campo propio de la lógica de la ciencia (Kraft, 1966139). Hay que señalar que de las diferentes funciones del lenguaje, sólo la informativa es pertinente para expresar el conocimiento científico.

Carnap en Der Iogische Aufbau der Welt (1928) esbozó en lineas generales la construcción de los conceptos, entendiendo por «construir» establecer una regla según la cual hayan de sustituirse todos los enunciados que contienen este concepto por enunciados que contengan otros conceptos. Carnap basó la construcción de conceptos en lo vivencialmente dado. Dice Kraft a raiz de la postura de Carnap respecto a lo vivencialmente dado: El Circulo de Viena centró su análisis en los enunciados significativos. Fijar el significado supone tener un criterio de demarcación de lo que se puede o no conocer. Así como la explicación de los conceptos empíricos se realiza mediante su reducción a lo vivencialmente dado, la explicación del contenido y validez de los enunciados empíricos se llevó a cabo mediante su reducción a enunciados elementales (Kraft, 1966:131). Uno de los criterios de significado fue la posibilidad de verificación. Con ello se excluían del campo significativo todos los enunciados de la metafísica. Carnap se pregunta por qué, a pesar de que las proposiciones de la metafísica carecen de sentido, ha habido tantos

Ai>RoxiMAcioN HisróRicA

77

hombres, y algunos tan eminentes, que se han dedicado con tanto fervor y energía a esta actividad. Dice Carnap: Estas dudas están justificadas, ya que la metafísica posee un conte-

nido -sólo que éste no es teorético. Las (pseudo)proposiciones de la metafísica no sirven para la descripción de relaciones objetivas, ni existentes (caso en el cual serían proposiciones verdaderas), ni inexistentes (caso en el cual -por lo menos- serían falsas), ellas sirven para la

expresión de una actitud emotiva ante la vida (Carnap, en Ayer, 1965185). El Círculo de Viena propugnhba una ciencia unificada y un lenguaje universal, que coincidió con el de la física, de aquí su denominación de «fisicalismo››, en el sentido de considerar los enunciados de las ciencias naturales como los que tienen significado ya que son enunciados sobre relaciones espacio-temporales, debiendo poder traducirse los enunciados de todos los demás campos a dichos enunciados. El Círculo de Viena también trató las cuestiones de valor aunque sólo en la medida en que son accesibles a una investigación empírica. Por último, su concepción de lo que es la filosofía puede resumirse en que está debe proceder científicamente. Esto no significa que la filosofia sea una ciencia particular, sino que es lógica de la ciencia, entendida la lógica tanto en el aspecto sintáctico como semántico. En la institucionalización de la filosofía de la ciencia con entidad propia hay que incluir la obra de algunos autores que fueron predecesores de la filosofia científica y desarrollaron su actividad en la tradición analítica, aunque algunos nunca compartieron las tesis del Círculo de Viena. Frege, Russell, Wittgenstein y posteriormente Popper, son algunos de los nombres que no pueden olvidarse al hablar de la constitución de la filosofía de la ciencia. A lo largo del libro haremos

referencia a ellos por sus aportaciones a cuestiones concretas de la filosofía de la ciencia.

7.

LA riuu.ii>c1óN DE LA i-iis1'oiuA EN LA i-'n.osoi=iA DE LA ciiaNciA

La filosofía de la ciencia surgida alrededor del Círculo de Viena discurrió en el plano sincrónico. La irrupción de la historia de la ciencia significó el paso al plano diacrónico. Estos dos planos en los que se mueve la filosofía de la ciencia corresponden a las expresiones in-

78

INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA

troducidas por Reichenbach (1938), de «contexto de la justificación» (plano sincrónico) y «contexto del descubrimiento» (plano diacrónico), diferenciando el modo cómo se justifica un resultado cientifico o matemático del modo por el cual se llega a dicho resultado. Para Reifihenbflch, ¡OS problemas que caen dentro del contexto del descubrimiento son competencia de la psicologia y de la historia, no de la filosofía, que se ocupa sólo del contexto de la justificación. Esta fue la tesis defendida por la concepción fraguada alrededor del Círculo de Viena que luego se denominó Concepción Heredada (CH). La irrupción de la historia en la filosofía de la ciencia se cristalizó en la llamada «nueva filosofía de la ciencia» (NFC), cuyas principales figuras en la década de los sesenta fueron T. Kuhn, S. Toulmin, N. R. Hanson, P. Feyerabend y 1. Lakatos. Al tratar de exponer las líneas maestras de esta nueva corriente filosófica, hay que distinguir dos aš pectos: i) el desarrollo de teorías y modelos sobre el contexto del descubrimiento; ii) la crítica de las principales tesis de la CH. Esta distinción es importante, sobre todo a la hora de valorar las aportaciones de los autores de la NFC, evitando cierta confusión cuando se emiten juicios generales sobre dicha corriente. Veamos algunos de los resultados concretos de ambas vertientes. El aspecto i) dio lugar a las construcciones metaconceptuales a fin de reconstruir y explicar la historia de la ciencia. Podemos incluir en esta vertiente los «paradigmas›› de Kuhn, los «programas de investigación» de Lakatos, el modelo de «evolución de 108 COI1Ceptos›› de Toulmin, los estudios sobre la carga teórica de Hanson, la máxima del «todo vale» de Feyerabend o, ya más 1'0¢i¢flI¢m€l1ì¢. ¡OS «problemas empíricos y conceptuales» de Laudan. Í-DS ¢i¢mlI>¡°S ¢¡ïad0S 110 pretenden ser equivalentes en cada uno de los autores, son sólo algunas de sus más conocidas aportaciones.

El flS1>¢0Í° ¡¡) Se cristalizó en la crítica a algunas de las principal¢S tesis de la CH. Por tanto, hay que señalar que, aunque la NFC se desarrolló fundamentalmente en el contexto del descubrimiento, también se definieron sobre cuestiones que pertenecen al contexto de la justifiCHCÍÓII- Shapere expone las tesis compartidas por los autores de la NFC que se contraponen a otras tantas de la CH: Resllllfli PUES. que hay al menos las siguientes tesis sostenidas por algunos de los proponentes de la «nueva filosofia de la ciencia» (incluyendo, como veremos, a Feyerabend): a) Una supuesta teoría del significado: el significado de todos los

APRoxlMAcióN Hlsrokrc/t

79

términos cientificos tanto si son «factuales›› («observaciona1es››), como «teóricos››, están determinados por la teoria o paradigma o ideal de orden natural'que subyace a dichos términos o en la que estan inmersos. b) Una supuesta teoria de los problemas que definirán el dominio de la investigación cientifica, y de lo que puede considerarse una expli-

cación como respuesta a aquellos problemas. c) Una supuesta teoria de la pertinencia de los hechos para la teoria, de los grados de pertinencia (por ejemplo, de la importancia relativa de los diferentes hechos) y, en general, de la aceptabilidad o inacep-

tabilidad relativa de las diferentes conclusiones científicas (leyes, teorias, predicciones) (Shapere, en Hacking, 1981137).

La tesis (a) se opone al punto de vista del empirismcšilógico de que hay una relación absoluta e independiente teóricamente entre «términos teóricos» y «términos observacionales». La tesis (b) se opone al intento de Hempel de hacer un análisis nomológico-deductivo y estadístico del concepto de explicación cientifica. Finalmente, la tesis (c) se opone a la posibilidad de una «lógica inductiva» formal en sentido carnapiano. Una vez hecha esta distinción se plantea el problema de si el asentir en el aspecto i) implica comprometerse con el aspecto ii), es decir, si la aceptación de que la historia de la ciencia es importante para la filosofia de la ciencia implica el compromiso con las críticas a las principales tesis de la CH tal como indica Shapere. La respuesta es no, pero con matices. No hay duda de que si se acepta el papel de la historia dela ciencia en la filosofia de la ciencia hay que abandonar la tesis de la CH que sostiene que el contexto del descubrimiento no es com-

petencia de la filosofía sino de la sociología y de la psicología. Pero hay otras muchas tesis en las que uno no queda comprometido ni a favor ni en contra. Una prueba de ello es que, a pesar de unas caracteristicas comunes, los autores de la NFC difieren en cuestiones importantes.” Además, estas diferencias se han ido acentuando a medida que han ido surgiendo nuevos trabajos en el campo de la dinámica cientifica. En cuanto a los que podrían ser los precursores de la NFC depende de si nos referimos al aspecto i) o ii)_ Desde el aspecto i) los precursores hay que buscarlos en el campo de la historia de la ciencia, bien 4. En este sentido podemos señalar el estudio de Newton-Smith (1987) en que expone los diferentes enfoques de estos autores, desde los racionalistas a los anárquicos.

80

mrlzooucción A LA Ficosorbx DE LA cuaNc1A

entre historiadores interesados por la filosofia de la ciencia, bien entre filósofos de la ciencia con una buena formación histórica. En realidad, los más importantes iniciadores de esta filosofía fueron reconocidos historiadores como Kuhn y Toulmin o, al menos, grandes conocedores de la historia de la ciencia como Hanson y Feyerabend. En cuanto a un precursor inmediato, del que el propio Kuhn reconoce la influencia, hay que señalar a Ludwik Fleck. Dice Kuhn: pude descubrir la monogmfía casi desconocida de Ludwik Fleck Entslehung und Entwicklung einer wissenschnft/ichen Thtsache (Basilea,

1935), un ensayo que anticipaba muchas de mis propias ideas. Junto a una observación de otro Junior Fellow, Francis X. Sutton, la obra de Fleck me hizo comprender que esas ideas podian necesitar ser establecidas en la sociología de la comunidad científica (Kuhn, l97l:ll).

La idea central del pensamiento de Fleck es que la mayoría de los contenidos cientificos están condicionados y pueden explicarse por factores históricos y sociológicos. Dice Fleck: En la historia del conocimiento cientifico no existe ninguna relación lógico-formal entre las relaciones y sus pruebas: las pruebas se acomodan a las concepciones tan a menudo como las concepciones a las

pruebas. Después de todo, las concepciones no son sistemas lógicos, por más que siempre aspiren a serlo, sino unidades fieles a un estilo que o bien se desarrollan como tales, o bien se funden junto con sus pruebas en otras unidades. Al igual que las estructuras sociales, cada

época tiene concepciones del conocimiento dominantes, residuos de las del pasado y gérmenes de las del futuro. Una de las tareas primordiales de la teoría comparativa del conocimiento seria investigar cómo las concepciones y las ideas confusas pasan de un estilo de pensamiento a otro, cómo emergen como preideas generales espontáneamente y cómo se mantienen, gracias a una especie de armonia de ilusiones, como estruc-

turas persistentes y rígidas. Sólo por medio de esa comparación e investigación de las relaciones podemos empeur a comprender nuestra

época (Fleck, 1936163-75).

Fleck ejemplifica estas ideas a través de un caso de la historia de la medicina: la investigación sobre la sífilis. Según Fleck fueron las especiales connotaciones de dicha enfermedad (asociación con las relaciones sexuales) las que determinaron el desarrollo de la investigación.

APRox|MAc1óN Hlsroiuc».

81

Además de Fleck, Kuhn estuvo influido por A. Koyré, É. Meyerson, H. Metzger y A. Meier. En cuanto al aspecto ii), los precursores hay que buscarlos en la evolución del análisis sobre elcontexto de la justificación y que -como dice Echevarría- «a partir de los años cincuenta comienza a producirse una serie de criticas concretas sobre diversas afirmaciones de la concepción heredada: así la de Quine y Putnam sobre la distinción analítico/sintético; las de Chisholm y Goodman en torno a los condij cionales contrafácticos y a la tesis de la extensionalidad de las leyes cientificas; las de Rapoport, Kaplan y Achinstein en relación con la axiomatización de las teorías científicas; las de Putnam y Achinstein nuevamente, pero esta vez con respecto al problema clave de la oposición entre lo observacional y lo teórico, 0 la de P. Suppes al analizar la noción de reglas de correspondencia» (Echevarría, l989:24). Entre otras razones, la importancia de la obra de Kuhn reside en que es un eslabón más en las criticas a la CH y, al mismo tiempo, la culminación de varios intentos de relacionar la historia y la filosofia de la ciencia. La corriente filosófica iniciada por Kuhn ha recibido varias denominaciones además de «nueva filosofia de la ciencia». A veces se la conoce como «revolución historiografica››f o otras como «la rebelión contra el positivismo››;° sin embargo, aunque ambas denominaciones expresan un aspecto de lo que fue esta corriente, ninguna es totalmente adecuada. Refiriéndonos a los dos aspectos de la NFC, es difícil hablar de revolución en el aspecto i), ya que entre las tesis de la CH no hay ninguna que se reñera a la explicación de la evolución científica. Las teorías sobre el cambio científico proporcionadas por la NFC

no sustituyen a ninguna teoría anterior. Podría argüirse que la CH tenla una tesis sobre el cambio de teorias, a saber: la imposibilidad de que pueda haber tales cambios de teorías. A lo sumo seria una tesis negativa, por tanto, es mejor no tenerla en cuenta. Hay que señalar que fue arriesgado, por parte de los autores de la CH, decir que era imposible la explicación racional de la evolución de la ciencia. Sobre un campo de conocimiento puede decirse que, por el momento, no hay modelos explicativos o que los que hay son poco potentes teóricamente, pero es difícil predecir hasta dónde pueden llegar los modelos 5. 6.

Véase Diez Caluda (1989). Véase Shapcre en Hacking (l98l).

82

|N'r| Dx) G.4 Vx ((Cx A Ax) -› Hx). Y la deducción, utilizando el cálculo de J. Mosterin, sería la siguiente; 1) ?Vx(CxAAx->Dx) 2) '! Cx A Ax -> Dx 3) Cx A Ax Supuesto 4) Vx (Cx -› Mx) Premisa

LAs rEonlAs c1ENríF1cAs 5) 6) 7) 8) 9) 10) ll) 12)

vx (Mx A Ax -› Dx) Cx -› Mx Mx A Ax -t Dx Cx Mx Ax Mx A Ax Dx

191 Premisa EG, 4 EG, 5 EC, 3 MP, 6-8 EC, 3 IC, 9, 10 MP, 7, ll

Entre las ventajas filosóficas de este tipo de estructuración están las siguientes: a) Evitar la verbosidad excesiva así como todas las falacias y trampas a las que nos puede conducir el lenguaje natural. b) Acabar con la formulación ambigua de leyes y términos científicos. c) Facilitar el descubrimiento de errores (al efectuar deducciones no estrictamente justificadas) así como facilitar el cálculo deductivo.

3. LA concepción ras-rrtuc1¬imA1. DE LAs rEoniAs La concepción estructural puede considerarse como una revisión de la Concepción Heredada en cuanto critica sus tesis, pero no es una alternativa radicalmente opuesta a la tradición analítica del empiris-

mo lógico. J. Sneed, uno de los fundadores de esta corriente, publica su obra The Logical Structure of Mathematical Physics en 1971, influido por la Escuela de Stanford a través de P. Suppes. W. Stegmüller es el iniciador en Europa de esta corriente a la que han contribuido

notablemente U. Moulines, W. Balzer y W. Diederich, entre otros. Vamos a presentar esta concepción de las teorías cientificas de la mano de U. Moulines, uno de los filósofos más representativos de esta corriente. Moulines (Moulines, 1991) considera que las teorías cientificas son el objeto de estudio del filósofo de la ciencia, del mismo modo que las especies constituyen el objeto de estudio del zoólogo. Siguiendo con esta analogía, al ñlósofo de la ciencia le interesan tanto los aspectos de índole «morfológica›› -es decir, la identificación de los diversos componentes estructurales que constituyen cada objeto y sus inter-

192

1N'rnoDuccioN A LA r=n.oso|=lA DE LA cnaNc1A

conexiones- como los de índole «fisiológica›› -es decir, el estudio del funcionamiento de las entidades examinadas. Moulines recurre a la ontosemántica de Frege para esclarecer el estatus ontológico de las teorías cientificas? La forma general de la designación adecuada para las teorías científicas no es, en mi interpretación, una forma del tipo «la teoria tal-y-

cual», sino más bien una designación funcional, tal como la previó el propio Frege para los conceptos. Es decir, la designación apropiada para las teorias no debe empemr con un artículo determinado, sino que debe

ser una expresión de tipo predicativo: «... es un P». Esta idea se halla, por cierto, en concepciones metateóricas de Tarski, Bourbaki y otros investigadores de fundamentos en matemáticas, asi como de manera mas explícita en la obra de filósofos de la ciencia contemporáneos que se han ocupado de teorías empíricas, tales como Suppes, Adams, Sneed, Stegmüller, Van Fraassen, Przelecki, y muchos otros. De acuerdo a esta concepción, la designación adecuada para las teorías seria un predicado (conjuntista) del tipo «es un grupo», «es un sistema clásico-mecánico», etc. Bajo tal interpretación, es natural admitir que el sentido de una designación de este tipo, es decir, aquello a través de lo cual alcanzamos el conocimiento del objeto referencial, son, como ya hemos insinuado, los axiomas que uconstituyen» cada teoria, los cuales ahora aparecerán bajo la forma de condiciones de definición del predicado que designa la teoría. Sabemos que, dentro del sistema conceptual fregeano, la referencia de una expresión predictiva es una función (o sea, un objeto no-saturado), y cuando la expresión predicativa se reduce a un predicado monádico, sabemos que se retìere a un concepto. Así pues, si admitimos la designación de las teorías mediante predicados conjuntistas, llegaremos al resultado de que una teoria cientifica es un coji-

cepto (en el sentido de Frege). AI conocimiento de este concepto podemos llegar a través de diversos sentidos (en su terminología), o sea. en este caso, a través de diversos sistemas axiomáticos, cada uno de los cuales constituye un posible sentido. Ello concuerda de manera natural con la ontosemántica fregeana general. Ahora bien, los conceptos, en cuanto funciones fregeanas, son entidades no-saturadas. Ellas tienen que ser completadas mediante un determinado tipo de objetos, y la totalidad dará lugar a un nuevo objeto, a saber, un valor veritatìvo: la verdad o la falsedad, según si el objeto en cuestión cae bajo el concepto dado o no. Esta idea también tiene 2. Véase el prólogo de J. Mosterin a la obra de Frege Estudios sobre semántica, para un estudio de las categorias semánticas de Frege.

LAs rBonlAs c|ENrtr=|cAs

193

su traducción natural en nuestro caso. La diferencia con la tradición

fregeana original estriba solamente en el nivel de complejidad de los objetos contemplados. En efecto, los ejemplos usuales que Frege tenía en mente al hablar de objetos que completan una función, consistían en objetos relativamente «simples» tales como personas, cuerpos fisicos o números, los cuales completan funciones designadas por expresiones del tipo «es español», «es rojo» o «es divisible por dos». En cambio, en nuestro caso, los objetos que saturan las funciones llamadas teorias son estructuras altamente complejas, abstractas, a saber: modelos en el sentido formal de la teoría matemática de modelos. Pero esta diferencia no significa ninguna ruptura con el esquema general de Frege, puesto que las estructuras, por complejas que sean, también son objetos en el sentido de Frege (Moulines, 19911209-210). Vamos a hacer algunas consideraciones sobre la concepción estructural a fin de situarla en el marco general de las entidades teóricas: a) Moulines aboga por el uso del método axiomático como metodología general para emprender una morfología de las teorías científicas, sin embargo, hay que señalar que lo que entiende por «axiomatizable» no es lo mismo que entienden los lógicos. Dice lo siguiente: Las teorías empíricas pueden axiomatizarse en el sentido de que indiquemos ciertos principios que caracterizan los conceptos básicos de la teoría y sus conexiones mutuas. En una palabra, se trata de axiomatizar en el sentido de determinar distintos componentes estructurales de cada teoria. Según el grado de complejidad con que haya que hacer tal axiomatización, tendremos distintos tipos de teorias empíricas (Moulines, l99l:2l9).

En el caso de que consideráramos la posibilidad de axiomatizar las teorias empíricas en el sentido de Moulines como criterio de demarcación entre ciencia y pseudociencia (cosa que Moulines no hace) el campo de las disciplinas que formarían parte de la ciencia se ampliaría respecto de la Concepción Heredada. Sin embargo, Moulines admite que es posible que haya teorías empíricas que no sean axiomatizables, pero considera que el conjunto de teorías axiomatizables es suficientemente amplio y diverso como para tener garantía de que la naturaleza delas teorías según la concepción estructural es adecuada. La concepción estructural tiene en su haber la reconstrucción de teoIS.--unuv

194

iwrnonuccióu A LA rrLosoFiA Dr: LA cn¿Nc1A

rías físicas, económicas, fisiológicas, biológicas, psicológicas, lingüísticas y hasta literarias.” b) Frente a la complejidad de la morfología y fisiología de las entidades teóricas, Moulines se decanta por tener en cuenta el principio nominalista a la hora de establecer la ontologia de segundo orden, considerando un solo tipo de entidades teóricas básicas, a saber: las teorías científicas. Pero Moulines es un filósofo que tiene en cuenta la complejidad de la ciencia, que considera que la filosofía de la ciencia no tiene que ser apriorística y que no hace caso omiso de la historia de la ciencia. Todo esto hace que no cierre las puertas a los dominios de los que en este momento no tienen una información suficientemente sistematizada para reconstruir sus productos teóricos con esquemas conceptuales demasiado rígidos. Por tanto, la apertura a estos campos nuevos se produce a través de una tipología adecuada de los axiomas de una teoría científica. En este punto, sólo me queda repetir lo dicho en líneas anteriores: la distinción entre ampliar la ontologia de segundo orden con nuevas entidades que no sean las teorías científicas y construir una tipología de teorias científicas no es importante desde el punto de vista epistemológico.

EIrsMPLu=rcAcróN DE LA REcoNsTnUc(:ióN Fon/¡AL sec-ÚN LA coucisrcróu Esriwc'ruRAL DE LAs 1-EoRiAs ciEN1'írrcAs

\

Vamos a tomar la estructura de la estequiometría daltonia-

na analizada por Balzer, Moulines y Sneed en «The structure ¿gt daltonian stoichiometry» (Erkenntnis, 1987). 3. La concepción estructuralista ha reconstruido teorias de diversas ciencias particulares. A titulo de ejemplo, podemos citar las siguientes: A. García de la Siena, «Elementos para una reconstrucción lógica de la teoria del valor de Marx», Crítica, 12, l980:7l-96; W. Balzer y H. Göttner, «A Theory of Literature Logically Reconstructed: Roman .lakobson», Poelics, 12, l983:489-510; H. Westmeyer, E. Friedhelm, W. Winkelmann y V, Nell, «A Theory of Behavior Interaction in Dyads: A Structuralist Account», Metnmedicine, 3, 19821209-232; J. Koster y E. Schoten. 4(l`he Logical Structure of Rhythmies», Erkennmis, 18, l982:269-281; U. Moulines, «A Logical Reconstruclion of Simple Equilibrium Thermodynamics», Erkennlnis, 9, 19751101-130; .l. D. Sneed, dl'he Logical Structure of Bayesian Decision Theory», en W. Stegmüller er al., eds., Philosophy of Economics, Berlin, Springer, 19822209-232.

LAs rrsontAs c1EN'rt1=|cAs

195

La estequiometría daltoniana (a partir de ahora ED) parte tlc la idea básica de que existe una serie de elementos básicos que se combinan formando diferentes substancias al participar cn reacciones químicas. Más en concreto, esta disciplina se encarga de estudiar las relaciones entre los pesos de diversas substancias químicas. Asimismo, la teoria permite asignar diversos coeficientes delante de la ecuación de una reacción química para igualar la reacción de manera que las proporciones en las que las diversas substancias participan en ella sean las convenientes. En un análisis estructural lo que hacemos es modelar la teoría, en este caso, la ED, especificando un grupo de estructuras conjuntistas que sirvan como modelo de la teoría. El proceso sería, resumido, el siguiente: En primer lugar, consideramos la tetratupla (C,7,`R,w) donde C es un conjunto no vacío finito, formado por las diversas substancias compuestas que participarán en las reacciones que se han de estudiar (agua, metano, plata, etc.), T es el conjunto formado por los tiempos I, y t,, donde t, indica «antes de la reacción» y I, «después de la reacción». R es simplemente el conjunto de los números reales y w es una función con valores reales no negativos sobre C X 11 tal que w(s,t) = a, en donde a es la cantidad de gramos de la substancia s presente en el momento I. Esto nos da una primera estructura para trabajar con las reacciones químicas pero aún no es suficiente. Necesitamos también un sistema de representación de las ecuaciones químicas, donde se nos indique las cantidades relativas de cada substancia así como los componentes básicos de cada substancia compuesta que aparezca en la reacción. Por ejemplo, que en nuestra teoría

se puedan afirmar cosas como que el agua es H10. Asignar los coeficientes no representa ninguna dificultad especial, tan sólo necesitamos una nueva función k sobre C >< T que asigne un número natural, o un cero, indicando en ese caso que la substancia s no está presente en el tiempo t. Sin embargo, no es suficiente con conocer las cantidades relativas de las diversas substancias complejas que participan en la reunión. Así mismo también necesitamos conocer las masas relativas de los átomos y las moléculas de las diferentes substancias, en relación con la masa de un átomo de hidrógeno que tomaremos como unidad. Para ello definiremos una función m que será una apli-

196

INTRODUCCION A LA FiLosoFlA DE LA c1ENc1A

cación del conjunto de fórmulas químicas, al que llamaremos E a los números reales positivos R*. El último paso del proceso es definir el conjunto F de fórmulas químicas. La forma más sencilla es imaginar que las fórmulas químicas son cadenas de simbolos, formadas a partir de la iteración de los elementos de un conjunto de fórmulas elementales E(n). Estas fórmulas serán finalmente asignadas a substancias quimicas elementales, es decir, a los elementos (hidrógeno, azufre, oxígeno, etc.) que, al combinarse, constituyen todas las substancias químicas complejas que conocemos. Las fórmulas serán asi cadenas de simbolos del alfabeto latino, simbolos que en química representan a los diversos elementos (H, S, O, C, Li, etc.) junto a números arábigos. Para crear las cadenas usaremos la operación de concatenación (*). Así, el ácido sulfúrico (SO,H,), sería el resultado de concatenar S*O*O'O*O*H*H. Evidentemente, no es igual que el sistema estándar de representar las fónnulas químicas, pero cumple igualmente su función. Después de todo, H con el subindice 2 cumple la misma función que poner dos H y que es la de indicar que dos átomos de hidrógeno forman parte del compuesto. Asi podemos definir el conjunto de las fórmulas químicas como la estructura siguiente: F = (F, *,E(n)), que técnicamente es un monoide n-dimensional, hecho que nos asegura que cada fórmula química sólo tendrá una única representación como concatenación de elemento de E(n). Cada fórmula G perteneciente a F podrá asi codificarse como h(l,G)e,' h(n,G)e,,, donde los e, son los elementos que componen G y h(i,G). Estos son enteros positivos e indican las cantidades relativas de cada elemento 'en la composición de la fórmula. Tenemos asi la estructura conj untista claramente formalizada. Sin embargo, el número de fórmulas y reacciones posibles que podemos generar con nuestro modelo son muchísimo más grandes que las reacciones que se dan realmente en la naturaleza. Por tanto, hemos de constreñir el modelo, añadiéndole algunos principios que nos permitan eliminar las reacciones no deseadas. Para ello primero definimos la categoría de los potenciales modelos de la ED para añadirle tres leyes no triviales que han de cumplir todos los modelos. Estas tres leyes son las siguientes:

LAs 11aoRfAs c||aN'rtFrcAs

197

1) Las fórmulas moleculares están determinadas por los pesos atómicos de las fórmulas atómicas. 2) Las ecuaciones químicas han de estar «ajustadas››; es decir, que el número total de átomos de un elemento que existían antes de la reacción han de seguir existiendo después de la reacción (aunque posiblemente combinados de otra forma). 3) La razón entre los pesos de las substancias que se combinan en la reacción ha de ser igual a la razón de los productos de sus coeficientes de reacción por sus pesos moleculares. Así, por ejemplo: w(hidrógeno)/w(oxígeno) = [k(hidrógeno) x m(H¡)]/[k(oxígeno) X m(O¡)] = [2 X mH1)]/ [l x m(O,)]. Podemos afirmar asi que los modelos ED son estructuras conjuntistas que describen reacciones químicas potenciales en las que las leyes (1) a (3) son válidas.

Hasta aqui el proceso de estructuración de la teoría cientifica, en nuestro ejemplo, la ED. Habría que añadir algunas otras eonstricciones internas como, por ejemplo, asignar a una substancia siempre la misma fórmula, independientemente de en qué reacción nos hallemos. Pero grosso modo ésta sería la reconstrucción estructuralista de la EDUna vez realizada, esta estructura puede servirnos para resolver diversos problemas de filosofía de la ciencia. Veamos algunos: a) ¿Entre todos los términos que aparecen en la ED, cuáles pucden ser considerados términos puramente teóricos? La respuesta del estructuralismo es sencilla: sólo consideramos términos teóricos aquellos para los que la única manera de calcular su valor sea mediante alguno de los modelos de la ED. Así, por ejemplo, w no es un término teórico, pues puede calcularse de otras formas (por ejemplo, una balanza de precisión). Por el contrario, K o m son teóricos pues, hasta ahora, no hay ninguna otra forma de calcularlos que no sea mediante la ED. b) La ley de los pesos combinantes según la cual «los pesos de dos elementos o los múltiplos integrales de tales pesos que reaccionen con el mismo peso de un tercer elemento, también pueden reaccionar uno con el otro», ¿es una ley empírica que debe ser observada a posteriori o bien se deduce de la estructura de modelos mostrada aquí?

198

INTRODUCCION A LA FrLosoFiA DE LA ciENcrA

A partir de los modelos estructurados que hemos mostrado resulta que es relativamente fácil deducir la ley de los pesos combinantes, por tanto podemos afirmar que se sigue lógicamente de la teoría. Tenemos aquí dos ejemplos que nos muestran cómo dos problemas tipicos de la filosofia de la ciencia pueden ser fácilmente resueltos mediante una teoría estructuralista.

4.

LA coNc1aPc1óN s|zMAN'rrcA DE LAs 'rEoRÍAs

La concepción semántica constituye una alternativa a la concepción sintáctica. En algunos puntos coincide con la concepción estructural, sobre todo en algunas críticas a la Concepción Heredada: critica a la distinción teórico-observacional y a la consideración de las teorías como conjuntos de enunciados deductivamente inferidos a partir de unos axiomas. Hay también diferencias importantes, sobre todo respecto al contenido empírico de las teorías: mientras la concepción estructural mantiene que «no hay ningún océano de verdades aún por descubrir ante nosotros, o, si lo hay, no es eso lo que interesa a la empresa científica›› (Moulines, 199l:185), la concepción semántica sostiene que la verdad y la adecuación empírica son las dos categorías semánticas más importantes, tal y como afirma Van Fraassen: «las propiedades semánticas son aquellas que tienen que ver con la relación de la teoría con el mundo, o más específicamente, que tienen que ver con los hechos sobre los que trata la teoría» (Van Fraassen, l980:20). A la hora de citar los autores más representativos de lacoìicepción semántica, hay que incluir desde los pertenecientes a la concepción

estructural pero marcando las diferencias con ella hasta la escuela polaca de Wojcicki y Przelecki, pasando por los filósofos italianos Dalla Chiara y Toraldo. Sin embargo, en la literatura filosófica la concepción semántica se asocia, fundamentalmente, a F. Suppe, B. Van Fraassen y R. Giere. Hay algunas diferencias entre estos autores pero no son importantes por lo que se refiere a la naturaleza de las teorías científicas. El desarrollo de esta concepción vamos a hacerla a partir de R. Giere por ser el que ha proporcionado una versión más acorde con la función docente, la cual, además, la ejemplifica con los libros de texto.

Respecto a la ontologia metateórica, Giere concede un lugar preferente a los modelos teóricos, partiendo de la base de que en la vida

LAs 'rEORíAs cn:N'ríFrcAs

199

cotidiana construimos modelos que forman parte de un mundo imaplnario, por ejemplo, imaginamos cómo será el viaje del próximo veumo. o el encuentro con el amante o las oposiciones a profesora tituInr de universidad. Estos modelos sólo existen en la mente de la persona que imagina estas situaciones. Los modelos teóricos fonnan parte del mundo imaginado. Sólo existen en las mentes de los científicos o como materia abstracta de las descripciones verbales escritas por los cientí|`icos. Como es obvio, en nuestro contexto sólo nos interesan los modelos teóricos. Giere acude a los libros de texto como las fuentes donde encontrar lu materia prima a partir de la cual construir las entidades abstractas metateóricas. Tomando como ejemplo la mecánica tal como aparece cn los libros de física, vemos que se refieren a «el oscilador lineal», «cl movimiento libre de un cuerpo rígido simétrico››, «el m0V¡mí¢nt0 dc un cuerpo sujeto sólo a una fuerza de gravitación central», etc. Sin cmbargo, los libros de texto dejan claro que los ejemplos paradigmalìcos de tales sistemas fracasan a la hora de satisfacer totalmente las ecuaciones que describen estos ejemplos paradigmáticos. ¿Cómo abordar este conflicto aparente? Veamos en qué términos Giere relaciona las teorías, los modelos teóricos y las hipótesis teóricas: Sugiere llamar a los sistemas idealizados que se presentan en los libros de texto de mecánica «modelos teóricos», o, si el contexto está claro, simplemente «modelos›› Los recursos lingüísticos concretos utilizados para caracterizar es› tos modelos son de interés secundario. Desde el punto de vista racional, y teniendo en cuenta los fines del análisis metacientífico no existe un lenguaje que tenga preferencia a la hora de reconstruir las teorias científicas Tal como sugiere el significado de la palabra «mode1o›› en el lenguaje natural, los modelos teóricos se proponen ser modelos de algo, y no simples ejemplares para ser utilizados en la construcción de otros modelos teóricos. Sugiero que funcionan como «representaciones›› en uno de los sentidos más generales que actualmente tiene modelo enla psicología cognitiva. Los modelos teóricos son los medios a traves de los cuales los cientificos representan el mundo -tanto para si mismos como para los demás. Estos modelos son utilizados para representar

los diversos sistemas encontrados en el mundo real: ballestas y péndulos, proyectiles y planetas, cuerdas de violín y parches de tambor Aqui sólo quiero precisar un poco más la relación entre un modelo

INTRODUCCION A LA F1I.›osoFl›. DE LA ciENc1A teórico y aquello de lo que es un modelo. Esto requiere introducir un nuevo concepto, esto es, el de «hipótesis teóricas». A diferencia de un modelo, una hipótesis teórica es, en mi concep-

ción, una entidad lingüística, es decir, un enunciado que afirma algún tipo de relación entre un modelo y un sistema real determinado (o una clase de sistemas reales). Una hipótesis teórica, pues, es verdadera o falsa en función de si la relación afirmada se da 0 no. La relación entre

modelo y sistema real, sin embargo, no puede ser de verdad o falsedad ya que ninguno es una entidad lingüística. Debe ser otra cosa Sugiera que la relación apropiada es la de similitud. Por tanto, las hipótesis afirman la similitud entre modelos y mundo real

Hasta ahora, sin embargo, no he dicho explícitamente lo que era una teoria. Pero esto, creo, no es una cuestión importante. Tenemos ya suficiente maquinaria conceptual para decir lo que necesitemos decir sobre teorias

Mi idea preferida es que entendamos las teorias como compuestas de dos elementos: 1) un conjunto de modelos, y 2) varias hipótesis que enlazan estos modelos con sistemas del mundo real. Entonces, lo que uno encuentra en los libros de texto no es la teoria en sí misma, sino

enunciados que definen los modelos que formaban parte de la teoria Como consecuencia dela anterior interpretación, una teoría cientifica no es una entidad bien definida. Es decir, no se dan condiciones necesarias y suficientes para determinar qué modelos y qué hipótesis forman parte de la teoría

¿Qué determina si un modelo puede considerarse como propiamente newtoniano? Una posible respuesta es que para formar parte de la teoría de la

mecánica clásica un modelo debe poseer un «parecido de familia» a una familia de modelos que ya forman parte de la teoria. _Es innegable que existen estos parecidos de familia entre los modelos peïtñécientes a una teoría. Por otra parte, no hay nada en la estructura de los modelos que pueda determinar que este parecido sea suficiente para ser un miembro de la familia de modelos. Esta cuestión parece que ha de ser decidida sólo por los miembros de una comunidad científica en un mo-

mento dado, sin embargo, esto no quita objetividad a la afirmación de que hay un parecido de familia entre los modelos de una teoria. Es de› cir que el conjunto de los científicos determina si el parecido es sufi-

ciente. Este es un punto en el que puede decirse que las teorias no sólo son construidas sino socialmente construidas (Giere, 1988, cap. 3).

LAs 'riaonixs cnaN'rIF|cAs

201

Modelo . bš*

-o Q@



01,- _ ¿'11

0

Conjunto

Sistema

de enunciados

real

Veamos algunas consideraciones relacionadas con la concepción semántica de las teorias en la versión de Giere: a) Las teorias pierden su carácter predominante desde el punto de vista ontológico. Las piezas clave son los modelos teóricos. Los modelos teóricos admiten la expresión en lenguajes mucho más variados que los de las teorías, al menos tal como las entienden no sólo la concepción sintáctica de las teorias sino también la concepción estructural. b) La axiomatización de las teorías no es considerada ni como necesaria ni siquiera como un criterio de valor epistemológico para una teoría. Todo tipo de reconstrucción lógica (formal o informal) se considera un puro ejercicio lógico pero que no añade nada a nuestra comprensión de la ciencia. En este punto, habría que señalar que si bien es aceptable la primera consideración, es dudosa la segunda. Es decir, Giere tiene razón al decir que la reconstrucción lógica no es necesaria para que un conjunto de información sea una teoría pero creo que no es cierto que no añade nada a la comprensión de la ciencia. c) El aparato conceptual presentado por Giere es suficientemen-

te complejo y a la vez preciso para poder dar cuenta tanto de los dominios muy sistematizados como delos que están en un estado precario de desarrollo. d) La característica principal del enfoque semántico es el hecho de poner en relación las teorías cientificas con el mundo externo, precisamente por ser una concepción semántica. En el caso de Giere, conduce a una visión realista de la filosofía de la ciencia, aunque no necesariamente tenga que ser así como es el caso de Van Fraassen. La concepción de Giere puede encajar en una «epistemología naturalizada» (aunque con diferencias respecto a Quine). Según esta concepción la tarea de estructurar una teoría científica sigue los mismos patrones que cualquier otra investigación científica, en concreto resulta ser una

202

iN'rRoDucc|oN A LA F|Loso|-*IA DE LA c1ENc|A

especialización de una teoria general de la psicologia cognitiva sobre la toma de decisiones en los seres humanos. De la caracteristica anterior se sigue otro hecho filosófico de gran importancia, a saber: según el enfoque semántico de Giere la tarea de decidir, entre diversas teorias cientificas, cuál es la más satisfactoria no es contemplada como una tarea extraña, con un sistema propio de decisión, sino que es considerada a la luz de un sistema general que trate, desde una perspectiva cognitiva, la forma en que agentes inteligentes resuelven problemas y toman decisiones de una forma racional. Por otro lado, el modelo semántico cognitivo nos permite tratar problemas que se hallan en la periferia científica, como la aparente irracionalidad de los cambios de paradigmas, la inclusión de cuestiones sociológicas y hasta psicológicas, etc., que parecen hallarse totalmente fuera de un enfoque sintacticista o estructuralista.

E1rsMPl.n=¡CActóN DE ANÁ1.lsis DE UNA 'rlaonia cnsN'rii=icA DEsDE LA CoNcEPcIóN SEMÁNTICA Análisis de la teoria de la deriva continental realizada por R. Giere en Explaining Science. A Cognitive Approach. El problema que se propone tratar Giere es el de la revolución científica ocurrida durante la época que va de mediados de los cincuenta a mediados de los sesenta en la geología, al introducirse un modelo alternativo que tiene como premisa fundamental la deriva continental. bo extraño es que un modelo muy similar fue presentado a la comunidad cientifica entre los años l91l y l9l5 y fue radicalmente rechazado por ésta. Sin embargo -como hemos dicho- fue recibida con los brazos abiertos por los geólogos años después. El objetivo de Giere es mostrar cómo diferentes condiciones científicas de las dos épocas explican el fenómeno y que no hay nada irracional en el cambio de opiniones de los cientificos. A principios de siglo en geología todo el mundo seguia el modelo contraccionista: la idea básica era que al crearse el sistema solar, la Tierra era una bola ignea. Al irse enfriando progresivamente, la corteza quedó más fria que el interior, de manera que la diferencia de temperaturas hizo que la corteza se fuera

LAs montas cuaN11FicAs

203

construyendo y así se deformó creando todos los accidentes geológicos que conocemos. La conclusión última era que cl aspecto geológico de la Tierra no ha cambiado desde entonces ni cambiará en el futuro, en sus aspectos generales. Evidentemente se darán procesos de erosión, etc., pero de tipo unifonne, tal y como se postulaba ya en los Principios de geologúr de Lyell. Dentro de este paradigma, Alfred Wegener postuló su teoría de que en un principio existia un único continente, Pangea, que se fue fragmentando a causa de un desplazamiento de las placas sobre las que descansaba este continente. Se generaría así una deriva continental, que explicaría la mayoría de accidentes geológicos. Para los geólogos de su tiempo, resultaba totalmente inadmisible que los continentes se pudieran mover. Sin embargo, para Wegener ello era fácilmente pensable ya que disponía de una serie de información extra que la mayoría de geólogos no poseía. En efecto, Wegener había estado trabajando como meteorólogo en Groenlandia durante dos años. Allí tuvo la posibilidad de observar icebergs, glaciares y hielo flotando a la deriva. Ello representó una fuente de información adicional a partir de la cual se podía realizar un modelo alternativo (por analogía con el movimiento de los hielos) en el que los continentes se pudieran mover. Pasemos a ver más en detalle el modelo semántico-cognitivo de Giere. El p oblema podemos formularlo así: la comunidad científicau(š2Jegener) han de tomar una decisión: ¿cuál es la teoríacgrre . Hemos de escoger entre el modelo contraccionista

y el modelo «movilista››. Para modelar tales decisiones, hemos de considerar toda la información significativa que se posee sobre el tema, junto con las condiciones concretas del desarrollo de la investigación científica en aquel momento (teniendo en cuenta, si es significativo, aspectos conectados con la sociología de la ciencia, como el temor de quedar en ridículo, deseos de medrar, etc.). A partir de aqui se ha de tratar como un problema cognitivo general de decisión racional, o sea, ¿cuál es la decisión correcta para un agente cognitivo con una información X en una situación Y? Volvamos a nuestro ejemplo. ¿Cuál habría de ser la decisión correcta para Wegener? Por un lado, su situación en el mundo

204

|NrnoDuccióN A LA |=u›osoFlA DE LA cieucix

de la geología es «marginal››, ya que no forma parte del establishment de la geología y por ello no tiene nada que perder al lanzar hipótesis heterodoxas. Por otro lado, Wegener tenia pruebas a favor de su hipótesis. Recordemos algunas: la similitud realmente impactante entre las geologías de determinadas zonas de África con otras de Suramérica que habrían estado unidas si de hecho la hipótesis de Pangea fuera verdadera. Una similitud así resulta muy probable desde el punto de vista movilista, y muy improbable si elegimos la posición contraccionista. Lo mismo para la evidencia paleoclimática (glaciaciones en zonas de África, América, lndia y Australia donde ahora resultarían imposibles) o la similitud entre especies de las supuestas zonas de contacto. Además, sus experiencias en Groenlandia le daban una base para suponer que, efectivamente, los continentes podían moverse. También podemos considerar factores de tipo psicológico y personales que explicarían el interés de Wegener de lanzar una teoria revolucionaria (deseo de resultar original, quizás cierta «rebeldía›› al statu quo, etc.). En principio, parecería que Wegener tenia (sus) buenas razones para preferir la teoría movilista. Veamos qué ocurría en la comunidad de geólogos. En primer lugar no existían fuerzas que pudieran explicar ese supuesto movimiento de los continentes, además, se suponía que las rocas que formaban los continentes eran más débiles que las de los fondos de los océanos y no parecia haber forma de empujar una roca más débil a través de una más fuerte. Parecía pues que la deriva continental era imposible. Esto mismo ya sería suñciente para rechazar la teoría de Wegener. En segundo lugar, las evidencias presentadas por Wegener no eran tan claras como parecía: las similitudes entre zonas de la costa africana con la suramericana resultaban mucho menos significativas si uno pensaba que la erosión había estado actuando durante millones de años. Aún mas, se podía mostrar que sc podía encajar fácilmente Australia y Nueva Guinea en el mar Arabigo, pero nadie (ni Wegener) creia que alguna vez hubieran estado juntos. Así mismo, la similitud entre especies podia explicarse postulando puentes de tierra que conectaban los continentes de material ligero que se hundieron posteriormente. Finalmente, la propuesta de Wegener representaba un cambio demasiado radical en toda la geo-

LAs 1'EoRlAs c|EN'rli-'icxs

205

logía para aceptarla tan alegremente. Así que, para el geólogo típico, resultaba una hipótesis demasiado audaz para considerarla seriamente, teniendo en cuenta que las evidencias no eran tan claras y que no había mecanismos explicativos. De aquí que resulte totalmente comprensible y aceptable la decisión a favor del modelo contraccionista. Sin embargo, ¿por qué es aceptada la hipótesis en los sesenta? Porque la información disponible cambió. En primer lugar, la evidencia del paleomagnetismo en muestras de rocas mostraba, por ejemplo, que la dirección del campo magnético terrestre había estado variando durante cientos de millones de años en las islas británicas. Estudios posteriores en otros continentes mostraban que la única explicación posible era que el polo norte estaba fijo y que la corteza terrestre se desplazaba. En segundo lugar, también se descubrieron mecanismos que podían hacer explicable la deriva continental, y que resultaría demasiado prolijo enumerar aquí. El resultado final es que las posibles objeciones para aceptar la teoría movilista quedaban eliminadas y, además, había evidencia extra mucho mas concluyente a favor de la hipótesis. Por ello la hipótesis movilista fue escogida en los sesenta. \ _,,/

5.

AE1NmADEs Y DrvEnoENcn\s ENTRE Las ntsnNrAs coNcEPc1oNEs DE Las 'rEoniAs crEN'rí1=rc.~.s

Vistas las tres concepciones de las teorías científicas más importantes que en estos momentos están vigentes entre la comunidad de los filósofos de la ciencia, hay varias cuestiones que podemos plantearnos: (1) hasta qué punto dan cuenta de la producción científica; (2) hasta qué punto son incompatibles; (3) hasta qué punto pueden complementarse. (I) La concepción sintáctica es la más restrictiva en cuanto a la demarcación de los contenidos de la producción científica que analiza. O sea, que si la estructura axiomática funciona como criterio de demarcación, una buena parte de lo que hoy se presenta como ciencia

206

1N1'aoDucc1oN A LA Fuosoríx DE LA ciENc|A

habría que considerarla pseudociencia o, en terminología kuhniana, ciencias preparadigmáticas. La concepción estructural abre las puertas a disciplinas que la concepción sintáctica le cierra, ya que permite la reconstrucción lógica con estructuras mucho más flexibles que la concepción sintáctica. Por ejemplo, la clasificación de las clases sociales de Marx en la época de éste nunca cumpliría las condiciones formales de las particiones en sentido matemático, pero quizás podría reconstruirse con lógicas no estándar como la teoría de los conjuntos difusos. Habría que ver lo que diria un filósofo de la concepción estructural pero no parece que haya ningún motivo por el cual no pudiera aceptarse como buena esta reconstrucción informal. El problema con la concepción estructural es que -como dice Giere (Giere, l988:286)- «a pesar de su carácter de modelo teórico, la concepción de Suppes, Sneed y Stegmüller mantiene el talante lingüístico de la concepción del empirismo lógico. Es al mismo tiempo una parte del programa de “reconstrucción lógica" que me parece, fundamentalmente, un ejercicio de teoría de conjuntos››." La reconstrucción lógica es una de tantas funciones del análisis filosófico de la ciencia. En este punto, lo interesante seria estudiar -cosa que escapa a las pretensiones de este texto- qué tipo de valores metafilosóficos representan las reconstrucciones lógicas, ¿representan valores epistemológicos, estéticos, éticos? La concepción semántica no tiene un método de demarcación a partir de algún criterio epistemológico para determinar el ámbito de las disciplinas que puede abarcar el análisis filosófico. La línea de separación entre ciencia y ciencia marginal estaría en la utilización de modelos que representan el mundo y en la importancia de los datos que sean el sostén de los modelos propuestos (Giere, 1992) o en la adecuación empírica (Van Fraassen, 1980). De esto se desprende que la estructura lógica pasa a segundo plano a la hora de valorar las respuestas a las preguntas surgidas en los dominios, en cambio adquiere 4. Esta reflexión hay que considerarla como una crítica sólo si se piensa que éste es el único, o el más importante, objetivo de la filosofía de la ciencia. Por mi parte, a pesar de tener ciertas dudas respecto a lo fructífero que puedan ser las reconstrucciones (formales o informales) en relación a la solución de problemas metaeientíficos, cómparto muchos de los puntos de vista de los filósofos de esta concepción (por ejemplo, comparto la mayoría de las reflexiones de Moulines en su último libro Plurulidad y nzcursión acerca de los objetivos de la metafilosofía, de los problemas del realismo o de las incoherencias del relativismo).

Lxs 'rEORí/ts ciEN†íFic/ts

207

mimordial importancia la evidencia de los datos que catalizan toda In información especial que puede ser pertinente para decidir si el modelo en cuestión encaja o no con el mundo real. Las condiciones para ln relación entre modelo teórico, mundo real e hipótesis teóricas y para In evidencia exigida a los datos pueden darse en mayor o menor medidu. Es decir, la adecuación empírica no es una cuestión de todo o nada sino una categoría gradual. (2) Respecto a la compatibilidad mutua, depende de en qué plano nos situemos. Si tomamos estas concepciones desde los criterios de demarcación, entonces habría desacuerdo a la hora de catalogar como ciencia detenninados dominios, según hemos visto. Desde el plano ontológico, no habría ningún desacuerdo entre la concepción sintántica y la concepción estructural a la hora de fijar las entidades teóricas que pueblan la ontologia, aunque unos y otros les atribuyeran estructuras lógicas distintas. En otras cuestiones, p r ejemplo en la distinción teórico-observacional, habría más acuerdt;entre la concepción estructural y semántica; no así con la sintáct`ca. (3) Si una no se sitúa en una concepción particufar de las expuestas y las ve como productos metateóricos que se múeven en planos distintos -al menos en algunos puntos- es posible considerar estas concepciones compatibles y, en algunos puntos, complementarias. La propuesta de reconstrucción axiomática (formal o informal) de las teorías ha significado el desarrollo del aspecto lógico de la filosofía de la ciencia. Esta función no es estéril (y en esto difiero de Giere) pero reconozco que no es el único aspecto de la metaciencia (y en esto difiero de la concepción sintáctica) ni tampoco es el aspecto más importante (como parece que defiende la concepción estructural). La importancia del aspecto formal de la filosofía de la ciencia depende del

valor metateórico que en aquel momento queramos primar. Por ejemplo, desde un punto de vista estético, creo que la formalización a partir de estructuras axiomáticas (a lo Carnap) de una determinada teoria tendría mayor valor que otra que no se dejara aprehender por tal estructura formal. En cambio, desde un punto de vista explicativo, no necesariamente una estructura axiomática puede ser criterio suficiente (ni siquiera el más importante) para que dicha teoría esté bien situada en una supuesta jerarquización de teorias. La otra cuestión es la referente a la ontologia metateórica. A excepción de la concepción sintáctica -que mantiene un criterio rigido para las entidades teóricas. llámense 0 no teorías- las otras concep-

208

1N†RoDucc1oN A LA Eiuosortx DE LA c1ENc|›.

ciones creo que estarían dispuestas a aceptar, o bien distintos tipos de teorías, o bien distintas entidades teóricas.

6.

EL INCREMENTO DE LAS ENTIDADES TEÓRICAS

Una vez rota la unidad de las entidades teóricas, admitida la complejidad del dominio y, por tanto, la diversidad en las respuestas a los problemas de los mismos, vamos a ver algunos tipos de propuestas a dichos problemas. La información que tengamos sobre el dominio en cuestión es lo que podríamos llamar cuerpo teórico y está constituido por el conjunto de teorías, reglas, leyes y, en general, por todo el conjunto de conocimiento sistematizado que se tiene sobre un campo acotado de fenómenos (Estany, l990:l49). Este cuerpo teórico puede tener diferentes tipos de estructuras, entre los que vamos a destacar los siguientes: a) Estructura de conjunto compacto. Esta estnictura se da cuando hay unas leyes que son el núcleo del cuerpo teórico y que rigen para todo su campo o dominio. Estas leyes son las que deciden, en último término, si una hipótesis sobre un fenómeno determinado pertenece o no al campo teórico en cuestión. Cualquier ampliación del campo de aplicación se realiza en función de si dichas leyes se cumplen o no en el nuevo campo. Este tipo de estructura es el que mejor encajaría con las teorías axiomatizadas. b) Estrucluna de dominio ordenado. Se da este tipo de estructura cuando se puede establecer una regla que permita ordenar los elementos del campo de conocimiento. Este es el tipo de estructura que Shapere (Shapere, en Hacking, l969:587-588) atribuye a la tabla periódica de los elementos quimicos. Si el tipo de estructura de un campo de investigación es un dominio ordenado, entonces podemos decir que la respuesta a los problemas del campo no coincide con lo que normalmente se denomina «teorías››. Ni tampoco el hecho de que la ordenación permita a veces hacer predicciones convierte en teorías estos dominios ordenados. c) Estructura de concepto explicativo preferente. Este tipo de estructura se da cuando un dominio posee un elemento en su ontologia de primer orden que interviene en la explicación (entiéndase explicación en sentido amplio) de todos los fenómenos a los que se aplica

LAs 'rEoRl».s c1EN'ru=icAs

209

el cuerpo teórico. La química del flogisto es un ejemplo de este tipo de estructura: el flogisto era el elemento que aglutinaba todas las explicaciones de los fenómenos químicos en la época de Stahl. El concepto de yo sigue siendo considerado por muchos psicoanalistas como una instancia central de la personalidad y como el eje sobre el cual se estructuran los cambios que tienen lugar, tanto en el curso del desarrollo como en el proceso terapéutico. En la teoría marxista sobre la explicación histórica, la lucha de clases constituye el motor del proceso histórico y el punto de partida para explicar los conflictos sociales. d) Los modelos. El concepto de modelo es ampliamente utilizado por los cientificos para responder a las pregun s del dominio, sin embargo, dada su complejidad y la variedad de entidos vamos a tratarlos aparte y, así, estudiarlos con detalle y ofundidad. Las estructuras aquí presentadas que incrementan las entidades metateóricas de la O2 no pretenden ser exhaustivas; tampoco son, en príncipio, exclusivas, es decir, se puede dar un dominio ordenado en el que el principio de ordenación sea precisamente el elemento explicativo preferente. En el caso de la teoría del flogisto, tenemos una clasificación de las substancias en función de la cantidad de flogisto que poseían. También puede ocurrir que, si consideramos la totalidad de la información de un dominio, encontremos estructuras diversas. Por ejemplo, si tomamos la química de Lavoisier como un dominio, encontramos las tres estructuras antes indicadas, a saber: una estructura de conjunto compacto plasmada en su teoría de la combustión en la que enuncia «los fenómenos constantes de los que la naturaleza no escapa jamás››; un dominio ordenado en la tabla de elementos químicos; y una estructura de concepto explicativo preferente en el sentido de que el oxígeno es el elemento que unifica el sistema de Lavoisier y el punto de partida de su obra teórica. Ya hemos indicado que estas estructums del cuerpo teórico no pretenden ser exhaustivas, sin embargo, puede pensarse que hay ausencias evidentes y signiñcativas. Nos referimos a los paradigmas (Kuhn), los programas de investigación (Lakatos) y las tradiciones de investigación (Laudan). La ausencia es significativa y tiene motivos justificados. Estas categorías metaconceptuales constituyen respuestas a problemas del dominio, pero son mucho más que esto. Los paradigmas, los programas de investigación y las tradiciones de investigación son las categorías con las que aprehendemos cada una de las secuencias I4.-t-srmcv

210

|NrnoDuccroN A LA F1Dosor=IA DE LA c1ENcrA

que forman el desarrollo de una disciplina. Son las «fotos fijas» de la «pelicula›› de una ciencia. En cada una de estas secuencias el cuerpo teórico es sólo un elemento al que hay que añadir la forma de cómo se construye este cuerpo teórico (metodología), las entidades a partir de las que se elabora (ontologia), la estructura del lenguaje con que lo representamos (lógica), los utensilios con los que se trabaja (instrumentos) y los valores epistemológicos que guían la investigación (criterios de evaluación) (Estany, 1990). Cuando nos referimos a las teorizaciones, como respuestas a problemas del dominio, sólo tenemos en cuenta la respuesta, no el cómo ni con qué hemos llegado a la respuesta. De todas estas estructuras, vamos a detenernos, en los apartados siguientes, en los dominios ordenados y en los modelos. En los dominios ordenados, ya que tienen la estructura lógica de las tipologías y éstas desempeñan un papel clave en las respuestas a problemas del dominio cuando la información que poseemos de éste no está suficientemente sistematizada como para reconstruirla en una estructura axiomatizada. En los modelos, porque su importancia y complejidad nos obligan a un tratamiento detallado para su clarificación.

7.

LAs 1'1PoLooíAs5

La utilización de tipologías es una práctica habitual en el campo de las ciencias sociales, aunque también es ampliamente utilizada en todas las ciencias, especialmente en aquellas cuyo nivel de madurez o la naturaleza del dominio estudiado no permiten la formulación de

leyes y teorías en sentido fuerte. Dentro de la metodología tipológica de las cc.ss. podemos citar a M. Weber, H. Becker y J. McKinney como autores representativos de esta metodología. La tipología constructivista como procedimiento metodológico empieza con Weber, sigue con Becker y continúa con McKinney. Estos autores desarrollan este procedimiento metodológico para aplicarlo a las cc.ss_. y, especialmente, a la sociología.

5. Este apartado sobre tipologías constituye la primera parte de una ponencia sobre el papel de las tipologías en la explicación de la dinámica científica, presentada en el simposio sobre Carnap (Madrid, noviembre de 1991).

LAs †EoktAs ciEN'rtE1cAs

211

I .l. El tipo ideal de Weber M. Weber caracteriza el tipo ideal, en primer lugar, negativamenrc, diciendo que no es una hipótesis aunquellprienta para la formación de hipótesis, no es una exposición de la realidad pero proporciona medios para representarla, no es un promedio e todas las unidades que «caen›› dentro del tipo ideal, sino una abs/êcción de todas ellas. Por urnto -sigue Weber- «el tipo ideal es una utopía que plantea a la labor historiográfica la tarea de comprobar, en cada caso singular, en qué medida la realidad se acerca 0 se aleja de ese cuadro ideal» (Weher, l982:80). Hay que señalar que el sentido que Weber da a «ideal» cs el sentido lógico, no el sentido de «deber ser», de «ejemplaridad›› o de «ideales›› éticos, políticos, etc. Para Weber un «tipo ideal» es «algo por entero indiferente a cualquier juicio valorativo. y nada tiene que ver con una “perfección” que no sea la puramente lógica» (Weber, l982:88). Weber define el «tipo ideal» en los términos siguientes: Constituye este un cuadro conceptual que no es la realidad histórica, al menos no la «verdadera››, y que mucho menos está destinado a

servir como esquema bajo el cual debiera subsumirse la realidad como espécimen, sino que, en cambio, tiene el significado de un concepto límite puramente ideal, respecto del cual la realidad es medida y compa-

rada a fin de esclarecer determinados elementos significativos de su contenido empírico (Weber, 1982182).

Weber da a los tipos ideales un valor fundamentalmente heurístico, considerando la metodologia tipológica propia de las ciencias jóvenes y especialmente apta para disciplinas históricas que se hallan en un estado de eterna juventud (Weber, l982:93). Para Weber la metodología tipológica es sólo una etapa que se ha de superar con la madurez de una disciplina.

7.2.

Valoración epistemológico del tipo ideal

Respecto al rango epistemológico de los tipos ideales de Weber, J. Watkins (Watkins, 1952) califica este tipo ideal de Weber de «tipos ideales holísticos›› pero -según Watkins- esta es una primera versión de

212

INTRODUCCION A LA F1|.osoFlA Dra LA c|ENc1›.

tipo ideal, cuando Weber aún no creía que las cc.ss. debían imitar a las ciencias naturales. Sin embargo, Weber, en su obra póstuma Wirtschaft und Gesellschaft (1922), aboga por tipos ideales que tengan poder explicativo, construidos analizando la forma de las disposiciones típicas y socialmente signiñcativas para luego demostrar cómo, en varias situaciones típicas, este análisis nos lleva a ciertos principios de conducta social (Weber, 194415-18). Esto lleva a Watkins a proponer el principio metodológico que reza: «El científico social puede continuar buscando una explicación del fenómeno social hasta que lo ha reducido a términos psicológicos» (Watkins, l952). Hay que señalar que la idea de Watkins de reducir los fenómenos sociales a términos psicológicos se debe a que Watkins considera que lo significativo en una conducta social es el aspecto psicológico. No vamos a discutir aquí qué es lo que da significación a los fenómenos sociales, lo que nos interesa es la idea de que para construir un tipo hay que hacerlo después de haber analizado los elementos significativos de un fenómeno. El recurrir o no a elementos significativos para la construcción de tipos es el criterio que introduce Watkins para distinguir entre tipos individualistas y tipos holísticos según tengan 0 no en cuenta, respectivamente, las unidades de significación.

7.3.

La tipología constructivista de H. Becker y J. McKinney

La tipología constructivista de Becker y McKinney enlaza con la idea del último Weber, en el sentido de dotar a la metodología tipológica de poder explicativo y no sólo heurístico. McKinney continuó la labor de Becker, completando la llamada «tipología constructivista» como modelo genérico de tipificación que comprende todos los procedimientos tipológicos especiales. "lante Becker como McKinney parten de la idea de que las cc.ss. no deben contentarse con coleccionar datos sino que deben hacer generalizaciones. Por tanto -argumenta Becker-, si la historia es una ciencia social, su objetivo no puede ser mera representación del pasado ya que esto convertiría al historiador en un especialista en idiografía, es decir, en la descripción de lo único (Becker, 1940241). «Como sociólogos, construimos lo general y desde esta construcción hacemos predicciones, tanto prospectivas como retrospectivas›› (Becker, 1940146). La ciencia busca uniformidades y esto -dice McKinney- «impone

/

Las 'reoní/ts cnaN†Ii=ic/ts

213

la eliminación analítica de lo único y la construcción de un orden conceptual de las cosas en donde se expongan los aspectos repetitivos e interrelacionados›› (McKinney, l968:l3). En el marco de esta concepción de las cc.ss. surge la tipología constructivista propugnada por Becker y McKinney. Veamos los principales rasgos de los tipos construidos -según Becker. El tipo no se encuentra en la naturaleza externa sino en la mente del investigador. El tipo es un instrumento con el que trabaja el investigador. Es una construcción, por tanto, nunca corresponde «exacta|nente›› a una instancia empírica real. Becker advierte que no hay que confundir «tipo» con «hi pótesis››. Otra cuestión es que se pueden formular hipótesis a partir de un tipo construido. Los tipos deben construirse a partir de los hechos para luego volver a ellos si no queremos que la especulación vacía reemplace a la generalización fundamentada. Respecto a la metodología tipológica aplicada a la historia dice Becker: «... los datos sacados de la historia pueden ser utilizados para pergeñar casos culturales cruciales de sociedades y bloques culturales “a la Toynbee" ...›› (Becker, 1940252). Becker advierte también del carácter condicional de las predicciones basadas en tipos construidos, es decir, las predicciones no son una forma de profecías, a saber: «el día tal del mes de tal del año tal» sino «si sucede tal y tal entonces, probablemente, ocurrirá tal y tal». McKinney enuncia los presupuestos de la metodología tipológica en los términos siguientes: La construcción de tipos, como enfoque metodológico, no está circunserita a ninguna ciencia en particular; es un procedimiento aplicable a cualquier ciencia El tipo construido es un medio para reducir las dìversidades y las complejidades de los fenómenos a un nivel general y coherente Una función científica del tipo constniido es ordenar los datos concretos de manera que éstos puedan describirse en términos que los hagan comparables, a Fin de que la experiencia obtenida en un caso, a pesar de su unicidad, se pueda emplear para revelar con cierto grado de probabilidad lo que se puede esperar en otros casos De aquí que el tipo sea un artificio heurístico construido principalmente para comparar y predecir más que para describir La predicción sobre la base del tipo construido puede ser retrospectiva o anticipada. De aquí que el encuadre del tipo se pueda buscar tanto

entre los datos históricos como entre los de la escena contemporánea o futura (McKinney, 1968116-17).

214

1N'rnoDucc|óN A LA FiuosoF1A DE LA c|ENc1A

McKinney recoge la definición de Weber, agregando los siguientes límites negativos: 1. El tipo construido no es un universo homogéneo según se entiende comúnmente dicho concepto. 2. El tipo construido no se refiere necesariamente a la forma más común de un fenómeno, sino en general a la forma más significativamente representativa.

3. El tipo construido no es un estereotipo, en cuanto el estereotipo carece con frecuencia de un referente empírico y constituye una exageración afectiva impremeditada que no es empiricamente útil porque le faltan criterios explícitos que la hagan comparable a casos concretos (McKinney, 1968227).

Al examinar diferentes tipologías vemos que podemos establecer tipos de tipologías, para lo cual -según McKinney- las variables más importantes que intervienen en esta diversificación de tipologías son: l) la relación entre tipo y la experiencia perceptual; 2) el grado de abstracción involucrado en los tipos; 3) el propósito del tipo; 4) el ámbito temporal del tipo; 5) el ámbito espacial del tipo, y 6) la función que se requiere del tipo (McKinney, 1968133).

Estas variables actúan como variables polares dando lugar a un continuo, con un nombre a cada uno de los polos de continuo. Tenemos entonces las siguientes variables polares: «l) ideal-extraído; 2) general-específico; 3) científico-histórico; 4) atemporal-temporal; 5) universal-local; 6) generalizador-individualizante» (McKinney, 1968233). La variable polar 1) indica la mera posibilidad objetiva vs. la cons-

trucción conforme a datos empíricos; la 2) indica la simplificación de los atributos empíricos vs. las características perfectamente detalladas; la 3) indica los tipos «relativamente›› atemporales y universales vs. los tipos limitados en el espacio y en el tiempo; la 4) y la S) pueden considerarse como manifestaciones de la 3); y la 6) es el resultado de las variables 3), 4) y 5). Es decir, el tipo generalizador sería aquel en el que predomina el polo científico (atemporal o universal) y el tipo individualizante es aquel en el que predomina el polo histórico (temporal o local).

L/ts 'rlaoiztlts c1EN†íF1cAs 7.4.

215

Valoración epistemológico de la tipologúz constructivista

Respecto al rango epistemológico de la tipología constructivista, llempel (Hempel, 1979) hace algunas consideraciones pertinentes en relación a los problemas taxonómicos de la psiquiatría y de las cc.ss. Hempel sitúa la taxonomía en el marco del estudio de las funciones básicas de los conceptos científicos, entre los cuales se encuentran los conceptos clasificatorios. Como requisitos de los conceptos cientíl`icos, Hempel propone dos: la descripción, por el método que sea (en este sentido el programa operacionalista puede funcionar como un método de descripción) y el contenido sistemático, entendiendo por ello la capacidad de predicción y explicación. ¿Cómo se traduce el contenido sistemático en los conceptos clasificatorios? Debido a que es difícil encontrar casos puros, los criterios de adecuación de este género no pueden efectuar una división del universo del discurso en A y no-A sino un ordenamiento (casi lineal) del universo. De este modo se reemplazan los esquemas clasificatorios por «espacios›› de referencia de varias «dimensiones››. Se pasa, por tanto, de los conceptos y métodos clasificatorios a los conceptos y procedimientos ordenadores, tanto de tipo cuantitativo como del no-cuantitativo (Hempel, l979:l57). Hempel distingue entre «tipos clasificatorios», «tipos extremos» y «tipos ideales», analizando el rango lógico de cada uno de ellos. En el caso de los tipos clasificatorios, su lógica es la bien conocida lógica de la clasificación. Respecto a los tipos extremos, es evidente que no pueden construirse como tipos de clase: los casos individuales no pueden subordin:-1rse'a los tipos extremos como instancias, sino que sólo pueden clasificarse como dichos tipos en la medida en que se aproximen a ellos. Por ejemplo si T es un tipo extremo, no puede decirse que «a›› sea T o no-T, sino que «a›› es «más o menos» T. El paso sigiiente es caracterizar el «más o menos», lo cual no puede hacerse con criterios de forma numérica sino «puramente comparativa». Por tanto, la lógica de los tipos extremos o puros es la lógica del ordenamiento delas relaciones. Hempel llama a estos tipos «tipos ordenadores» (Hempel, 19791162). En cuanto a los tipos ideales, Hempel los caracteriza como los que pueden englobarse en una teoría más general. Hempel cita sólo a Weber y a Becker y dice que Becker es el que más ha aportado en el campo de las tipologías. En este punto creo que lo más interesante que se ha de señalar es que Hempel intenta dar mayor coherencia y po-

216

1N'rRoDucc|oN A LA FiLosoFIA DE LA ct|zNciA

tencia explicativa a estos tipos de lo que pretenden Weber o Becker. Esto lo hace conectándolos a modelos teóricos. Hempel detecta una cierta contradicción entre decir que los tipos ideales se proponen proveer explicaciones y, al mismo tiempo, insistir en que los tipos ideales no pretenden ser hipótesis verificables con la evidencia empírica (Hempel. 19792165). Respecto a la propuesta y crítica de Hempel hay que señalar que, si bien parece acertado incorporar el sistema tipológico, como caso especial, dentro de una teoria más global, no puede decirse lo mismo respecto a la crítica en cuanto a la verificación del sistema tipológico. Respecto a lo primero, a pesar de que Hempel tiene razón, el problema es que, en muchos casos, las disciplinas en las que se construyen tipologías no poseen teorías globales. Respecto al segundo punto, el hecho de que los tres autores (Weber, Becker y McKinney) consideren que los tipos no son hipótesis, no por ello niegan la verificación empírica del sistema tipológico, ya que, como hemos visto, Becker dice claramente que los tipos no son hipótesis pero que se pueden formular hipótesis a partir de los tipos construidos. Comparando la tipología de tipologías de Hempel con la de BeckerMcKinney podemos decir que los tipos extremos de Hempel equivalen a la introducción de variables polares de McKinney, aunque éste no hace la distinción de Hempel entre extremos e ideales según estén o no englobados en un modelo teórico más general.

8.

EL PAPEL DE LOS MODELOS EN EL CAMPO DE LAS ENTIDADES TEÓRICAS

La palabra «modeIo›› es utilizada tanto por científicos como filó-

sofos. Como tantos otros términos utilizados en la literatura científica y filosófica no son originales de dichos campos sino que son tomados del lenguaje ordinario y redefinidos de acuerdo al nuevo contexto en el que son utilizados. Este es el caso de la palabra «modelo›› que tiene diversos usos en el lenguaje natural y que, al ser recuperada por los científicos, adquiere una definición específica y sin equívocos. En general, la elección de una palabra del lenguaje ordinario para su utilización en la ciencia o en la filosofía no es del todo arbitraria sino que guarda cierta semejanza con dicho uso. También en este caso, los diversos sentidos de modelo en el campo científico responden a distintos usos en el lenguaje natural. Vamos a distinguir dos sentidos de modelo en el lenguaje natural

LAs †eoRlAs ci|zN'rtrrcAs

217

no sólo distintos sino contrapuestos. En el primero por «modelo›› se entiende, por ejemplo, modelo de un pintor, de un fotógrafo, de un sastre, etc. La afirmación «X es un modelo de Y» significa que: X es lo representado e Y es la representación. fotografiado fotografía pintado pintura imitado imitación Este es el sentido extraído del lenguaje natural que Mosterín presenta como el que corresponde al sentido en la teoría de modelos (Mosterín, 1984). A este sentido vamos a llamarle «modl››. Modl (modelo) í modelado En el segundo «modelo›› se utiliza, precisamente, en sentido inverso del precedente. Por ejemplo, se habla de un mapa, de una maqueta, de un coche de miniatura como modelos. La afirmación «X es un modelo de l/S› significa que: X es la representación e Y es lo representado esquema esquematizado imitación imitado pintura pintado Este es el sentido que Ferrater Mora (Ferrater Mora, 1971) recoge del lenguaje natural para incorporarlo al discurso científico. A este sentido vamos a llamarle «mod2››. Mod2 (modelo) í modelado Como se ve se da una inversión del sentido de ambos usos. No es de extrañar pues que su extrapolación al discurso cientifico y filosófico pueda originar, por lo menos, interpretaciones diversas e incluso malentendidos si no se explicita de antemano su sentido.

218 8.1.

1N'rRor›ucc|oN A LA FiLoso|=tA DE LA ci|zNciA El sentido de modelo como modl en el discurso cientifico

La utilización de modelo en sentido de modl en la ciencia viene determinada por el significado que tiene en la teoría de modelos de la lógica.° De forma sencilla podemos decir que un modelo es una interpretación de un cálculo, que consiste en la representación de todos los signos del cálculo dentro de un universo determinado de entidades, sometida a precisiones muy cuidadosas que permiten ver, al final, todas las expresiones del cálculo transformadas en proposiciones referentes a esa estructura de entidades establecida. En consecuencia, si tal interpretación transforma los axiomas y los teoremas del cálculo en proposiciones verdaderas relativas a su estructura, se dice que es un modelo de este cálculo (Agazzi, 19862229). Si tomamos modelo como sistema en el que se cumple lo que dice la teoría, entonces lo primero que nos planteamos es la relación entre teoria y modelo. El estudio de esta relación está muy desarrollada en la matemática a través de la teoría de modelos antes aludida. Dice Mosterin: Una teoría cualquiera determina la clase de sus modelos. Y un sistema cualquiera determina unívocamente la clase de todas las teorías de las que él es un modelo. Así podemos partir de una teoría y buscarle modelos, o partir de un modelo (de un sistema) y buscarle teorías. Y podemos obtener información sobre las teorías estudiando sus mode-

los, y sobre los sistemas estudiando sus teorías. Respecto a todos estos y otros muchos aspectos delas relaciones entre teorías y modelo, la teoría de modelos ofrece métodos precisos y resultados abundantes a los que evidentemente no quisiéramos renunciar (Mosterin, 19841153).

Algunos filósòfos de la ciencia no sólo aplican el concepto de modl en matemáticas sino que lo extrapolan a las ciencias empíricas utilizan el concepto de modelo en el sentido de modl. Este sentido de modelo ha sido conceptualizado diversamente según los autores: «una proyección de una teoría de tal forma que una teoría puede tener distintas proyecciones posibles todas ellas isomorfas entre sí» (Wartofsky, 1981); «los modelos de una teoría son los correlatos formales de los trozos de realidad que la teoría explica» (Moulines, l982:78); «hay una co6.

Puede ayudar el ejemplo de cálculo de A. Deaño (Deaño, 1978131-35).

LAs 'reoRlAs c||zN'ríi=1cAs

219

rrespondencia uno-a-uno entre diferentes interpretaciones de la misma teoría formal, que llamaremos analogía formal» (Hesse, l966:68); «un modelo de una teoría puede ser definido como una realización posible en la cual todas las sentencias válidas de una teoría son satisfechas y una realización posible de una teoría es una entidad de la correspondiente estructura de la teoría de conjuntos» (Suppes, «Models of data››:252). Todas estas caracterizaciones de modelo apuntan en la misma dirección, hay diferentes matices y diferencias en cuanto a lo que se entiende por reconstrucción formal de las teoriasl pero en todas ellas el modelo es lo representado. En conclusión, X es un modl de Y lo entendemos como que X es una proyección, una interpretación, una analogía formal o una aplicación de la teoría Y. Respecto a este sentido de modelo, algunos autores -como Mosterín y Suppes- consideran que es la única utilización posible de modelo. Sin embargo, se ha de aceptar el hecho de que los usos de modelo en textos científicos son distintos y que no todos encajan con el sentido de la teoría de modelos, o sea un modl. Las respuesta de los autores precedentes suele ser: decir que se equivocan; darles otro nombre; reducirlos al único uso que consideran plausible.

8.2.

El sentido de modelo como mod2 en el discurso cientr'/ïco

El sentido de modelo como mod2 no es utilizado ni en el campo de la matemática ni en el de la metamatemática a no ser como sinónimo de «teoría››, es decir, cuando el matemático habla de mod2 matemático lo hace en el sentido de teoría matemática.

Al utilizar el sentido de mod2 en las ciencias empíricas, hay que distinguir varios tipos. Algunos son fácilmente caracterizables, pero otros exigen un sofisticado nivel de conceptualización si queremos lograr una definición mínimamente rigurosa. Modelos a escala (mod2E) A los modelos a escala se les denomina tambien modelos mecánicos. Decimos que X es un mod2E de Y si X e Ycomparten la misma 7. Véanse los primeros apartados de este capítulo en los que se exponen las diferentes concepciones de las teorias científicas.

220

mrnoouccrou A LA r=|uosoFí›. DE LA cnzucm

estructura. M. Black los define como el conjunto de todos los simulacros de objetos materiales, tanto reales como imaginarios, que conserven las proporciones relativas (Black, 1962). Ejemplos de mod2E son las maquetas, los planos, los coches de miniatura y las reproducciones de órganos humanos que los departamentos de anatomía utilizan con fines didácticos. Modelos analógicos (mod2A) El objetivo fundamental de los modelos analógicos es explicar un campo desconocido recurriendo a uno conocido. A veces también ejercen una función didáctica pero, a diferencia de los mod2E, los mod2A requieren mayor semejanza, no sólo entre la estructura de la representación y de lo representado, sino también entre los elementos de am-

bas estructuras y su dinámica. La historia de la ciencia suministra abundantes ejemplos del papel de los modelos analógicos en el desarrollo científico. E. Rutherford y N. Bohr tomaron el sistema solar como mod2A para explicar el átomo, diciendo que la estructura del átomo es análoga a la estructura del sistema solar. Ch. Huygens elaboró su teoría ondulatoria de la luz con ayuda de sugerencias derivadas de la concepción, ya familiar en su época, del sonido como fenómeno ondulatorio y J. Black se basó en su concepción del calor como fluido para sus descubrimientos experimentales. Freud se inspiró en la física dinámica para su teoría psicoanalítica. Algunos demógrafos actuales toman como modelo la ley de la gravedad de Newton para explicar los movimientos migratorios. Los modelos analógicos recurren a sistemas mecánicos, más 0 menos

complejos, para dar cuenta de fenómenos eléctricos, magnéticos y ópticos, o bien (como en el caso del átomo) extrapolan lo que ocurre en los sistemas macroscópicos a los sistemas microscópicos, o bien toman campos científicos muy desarrollados como guía para campos menos desarrollados (caso del psicoanálisis y de la demog1afía).' ¿Qué ocurre en este caso de los mod2A con los autores que sólo 8. Estos últimos casos de modelos analógicos pueden considerarse como procesos reduccionistas, de los que la historia de la ciencia tantos ejemplos puede proporcionar. Sobre todo se da en las ciencias prepamdigmáticas que recurren a las que ofrecen pamdigmas potentes desde el punto de vista explicativo para llevar a cabo su proceso sistematizador.

L/ts r|aont›.s c|eN'rí|=|c›.s

221

admiten una sola clase de modelos, a saber: los modl? Mosterin connidera que la frase «X es mod2A de Y» significa X sirve de modelo u Y. Por ejemplo, Mosterín diria que «el sistema solar sirvió de modelo a Rutherford y Bohr para explicar el átomo». Generalizando, la idea dc Mosterin es la siguiente: Podemos decir que el sistema A sirve de modelo del sistema B al científico h si y sólo si (l)A es más simple o resulta más conocido para h que B, (2) a partir de A, h desarrolla la teoría Tde la que A es un modelo y (3) B es también un modelo de T (Mosterin, l984:lS6). Podemos reformular la propuesta precedente de Mosterin con la formulación aquí propuesta en los términos siguientes: el sistema A cs un mod2A del sistema B, y a partir de A construimos la teoria T de la que el sistema A y el sistema B son modl de 71 Una cuestión importante es el valor epistemológico de los modelos analógicos. Nadie discute el valor heurístico de dichos modelos. La analogía entre el sistema solar y el átomo fue fructífera para posteriores investigaciones del átomo y, en general, podemos decir que los mod2A realizan un papel importante en la investigación científica, en especial en la creación y desarrollo de las nuevas teorías. El punto discutible es si también desempeñan un papel en la justificación de las teorías. Giere y Black sostienen que no pueden justificarse hipótesis sobre el sistema modelado a partir de datos del sistema modelo. Si «X es un mod2A de Y», no puedo justificar hipótesis referentes a Y a partir de las hipótesis correspondientes de X. Una consecuencia de esta situación es que tampoco puedo extrapolar las predicciones hechas a partir del sistema X al sistema Y, por tanto, los modelos analógicos tampoco tendrían poder predictivo. Nagel y Hempel parecen apo-

yar esta idea. Refiriéndose a la función de los modelos dice Nagel: Los ejemplos de esta función de los modelos casi no tienen límite, pero las pocas ilustraciones citadas bastan para mostrar que, aún después de que las diversas ideas de una teoría han sido formuladas con ayuda de un modelo, éste continúa rindiendo importantes servicios tanto en la extensión como en la aplicación de la teoría (Nagel, l978:ll4). Hempel señala la función heurística de los mod2A:

222

mrnoouccion A LA r=1uoso|=íA DE LA clE.NciA bo más importante aún es que las analogías o modelos bien elegi-

dos pueden resultar útiles «en el contexto del descubrimiento», esto es, pueden brindar una guía heurística efectiva en la búsqueda de nuevos principios explicativos (Hempel, 1966144).

La idea de estos autores es que los mod2A intervienen como preámbulo en la formulación de teorías y, una vez dichas teorías están justificadas por otras vías, los modelos pueden sugerir lineas nuevas de desarrollo y de expansión de las teorías que han modelado. Los ejemplos presentados en lineas anteriores encajan con la idea de dar a los mod2A un valor eminentemente heurístico, sin embargo hay otros muchos ejemplos que, aun teniendo las caracteristicas de los analógicos, permiten hacer predicciones. Consideremos los ejemplos siguientes: l) A partir de un modelo a escala de la estructura de doble hélice ADN, Watson y Crick dedujeron cómo deberían ser ciertas relaciones entre moléculas, etc., y cómo aparecerian éstas en las fotografias con rayos X, calculando, incluso, ciertos valores que luego fueron contrastados positivamente al fotografiar ADN real. 2) Probar un medicamento para, pongamos por caso, la lucha contra el sida en un chimpancé -consideraciones éticas aparte- también parece un caso de modelo analógico con capacidades predictivas: tomamos al mono como un sistema vivo que guarda suficientes semblanzas y analogías con el ser humano; después le aplicamos el medicamento y predecimos que lo que observamos en el chimpancé será bastante parecido a lo que ocurriría en el ser humano si le sumi-

nistrásemos el medicamento. 3) Las simulaciones por ordenador en determinados casos también pueden ser consideradas modelos analógicos. Estos modelos surgen en situaciones en las que no sabemos cuál es el modelo matemático detrás de un fenómeno y entonces lo que hacemos es simular en el ordenador los procesos que componen el fenómeno que hay que estudiar y dejamos que evolucione para ver que sucedería. Por ejemplo, podríamos estar interesados en saber la evolución de la población de una determinada planta en un campo de trigo. Si conocemos las ecuaciones que rigen tal evolución, el proceso se limita a un simple cálculo. Si no las conocemos puede resultar útil simular el desarrollo de cada planta por separado, introduciendo los datos experimentales como

LAs 'r|zontAs cuaNrtHcAs

223

altura máxima, tiempo de crecimiento, dispersión de las semillas, temperatura del lugar, etc., y luego esperar a ver qué sucede para después predecir lo que sucedería en un campo real. Este proceso será casi siempre un híbrido entre un modelo matemático y uno analógico. El estudio de M. B. Hesse (Hesse, 1966) nos proporciona estructuras metaconceptuales para este tipo de mod2A. Hesse distingue entre analogía positiva, analogía negativa y analogía neutra. Tomemos el

ejemplo de una colección de bolas de billar en movimiento como mod2A” del movimiento de las moléculas de un gas. Hesse llama analogía negativa del mod2A a las propiedades que sabemos que pertenecen a las bolas de billar pero no a las moléculas; HIIHIOBÍB POSÍIÍVB dfil mod2A a las propiedades compartidas por las bolas de billar y las moléculas; y analogía neutra del mod2A a las propiedades que aún no sabemos si pertenecen a la analogía positiva o negativa. En función de estas tres partes del mod2A, Hesse distingue dos tipos de modelos: uno al que llama modelol (para nosotros mod2Al) estaría formado sólo por la analogía positiva y neutra y es «la copia (imperfecta) menos la analogía negativa conocida», es decir, copia imperfecta; otro es el modelo2 (para nosotros mod2A2) que incluye las tr€S GIIGIOBÍHS del modelo (positiva, negativa y neutra). En el sentido que hasta este momento hemos considerado el mod2A sería el mod2A2, es decir, aquel cuya relación entre modelo y modelado está circunscrita no sólo a las similitudes sino también a las diferencias y este sería el que tiene poder heurístico. En cambio, lo que Hesse llama modelol (nuestro mod2Al) sería el que tiene poder justificativo y predictivo, ya que en este tipo de analogía no hay nada que

no sea compartido. Esto significa que cuando Giere y Black hablan de modelos analógicos se refieren a los mod2A2. En realidad Hesse impone una serie de restricciones para que los modelos puedan ser predictivos y explicativos. Esto nos hace pensar que quizás las diferencias entre Hesse, por un lado, y Giere y Black, por otro, sobre los modelos analógicos no sean tan grandes como parecer! 2 Primera V¡SÍfl› T0d0 parece indicar que Hesse incluye en el concepto de analogía diversos tipos de modelos, y en concreto, los modelos que cumplen ¡215 C0l`ld¡> ciones para ser predictivos y explicativos. Sin embargo, este tipo de 9. Hesse no le llama mod2, pero lo que ella llama «analogía››, en nuestra terminologia es mod2A.

224

INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA

modelos (es decir, los mod2A que son predictivos y explicativos) corresponden a lo que otros autores -como Black y Giere- califican de modelos teóricos, tema del apartado siguiente. Modelos teóricos (mod2T) La caracterización de los modelos teóricos exige un mayor grado de sofisticación conceptual. La razón fundamental está en que su definición depende, en gran parte, de la concepción que se tenga de las teorías científicas. La primera cuestión está en si es fructífero desde el punto de vista epistemológico diferenciar entre teoria y modelo teórico. En este punto hay diversidad de opiniones, mientras unos (Mosterin, Suppes, Braithwaite entre otros) consideran que los mod2T equivalen conceptualmente a teoría, otros (Giere y Black, entre ellos) ven diferencias pertinentes entre mod2T y teoría. Hempel sostiene una postura ecléctica respecto a esta discusión, considerando que «el uso del término “modelo teórico" en lugar de “teoría” quizás pretende indicar que los sistemas aludidos tienen limitaciones claras, en particular cuando se los compara con teorías físicas avanzadas» (Hempel, l966:446). Estas primeras consideraciones hacen pensar que los autores que no ven diferencias substanciales entre mod2T y teorías están pensando en campos de investigación muy desarrollados y que, en cambio (según Hempel), la distinción podría ser útil en ciencias inmaduras o preparadigmáticas. Vamos a ver cómo los cientificos de diversas disciplinas utilizan el término «modelo›› que no sea en los sentidos antes diseñados (a escala y a.nalógicos).'° A veces se utiliza modelo para significar «el con-

junto de suposiciones cuantitativas de la teoría» (Doob, 1960:27). Este uso de modelo -según Suppes- confunde modelo con la teoría del modelo. En el sentido de Doob el modelo es una entidad lingüística, en cambio en el sentido de Suppes un modelo es una entidad nolingüistica en la que la teoría es satisfecha. Otro uso de modelo es considerarlo como «una clase de modelos en el sentido del lógico». Este sentido es el utilizado por los economel0. Voy a tener en cuenta los ejemplos que Suppes (l988: capítulo Vll) presenta como usos de modelo y que él reduce a lo que considera el único sentido riguroso de modelo.

LAs 11aonlAs cieN1'|`i=icAs

225

uistas, los cuales denominan estructura a lo que los lógicos llaman modelo. En resumen: econometrirtas modelo estructura

lógicos teoría modelo

Otro sentido de modelo es considerarlo como «teoría más cuantilutivista y exacta que la teoría original que está establecida en términos más generales y amplios». Esta utilización es muy común en las ciencias sociales y del comportamiento. En estas ciencias -según Simon (Simon, 1957)- la construcción del modelo supone un estadio más en la explicación. Suppes dice que aquí también hay una confusión: «en el lenguaje de los lógicos sería más apropiado decir que ellos llos científicos sociales] están interesados en construir una teoría cuantitativa para equiparar las ideas intuitivas de la teoría original» (Sup-

pes, 19ss=116).

Cuando Hempel habla de modelos teóricos se refiere al uso que tienen con fines explicativos, por ejemplo, en la psicología y en la economía encontramos modelos matemáticos del aprendizaje, modelos teóricos de cambios de actitud y conducta conflictual o modelos para fenómenos sociales, politicos y económicos. «Un modelo teórico de este tipo tiene el carácter de una teoría con un ámbito de aplicación más o menos limitado» (Hempel, 19791437). Es en el sentido de Hempel que podemos encajar los ejemplos de modelos realizados por científicos de diversas disciplinas y presentados por Holland, Holyoak, Nisbert y Thagard en Inductíort' Proces-

ses of lnfemnce, Learning and Discovery. En esta obra se utiliza «modelo›› en el sentido de modelo matemático que pretende mostrar cómo realizamos los procesos de inducción. El modelo muestra los procesos a partir de los cuales aprendemos y hasta ideamos nuevas reglas que luego nuestro sistema cognitivo utilizará para desenvolvemos por el mundo. El modelo lo que hace es procesar las reglas del sistema cognitivo, activando en cada caso las necesarias para la resolución de un problema. Algunas de tipo sincrónico especifican la inclusión de un concepto en una categoría, otras de tipo diacrónico indican la evolución de un sistema y la interacción entre sus partes. Este modelo deberá ser capaz de realizar predicciones del entorno incluso con información incompleta y así mismo debe ser capaz de modificar las reglas

226

1N'ritor›uccióN A LA i=n_osoi=lA mz LA c1aNciA

poco precisas o erróneas por nuevas reglas más ajustadas a la realidad. Habría que mencionar aquí que Holland et al. son poco escrupulosos a la hora de utilizar el concepto de modelo. A veces se refieren al modelo matemático (implementable en principio en un ordenador) que simularía el proceso de aprendizaje de un ser humano, y otras se refieren directamente al proceso cognitivo realizado por el ser humano por el que son aplicadas y modificadas las reglas del sistema. Por lo que hace referencia a la descripción matemática del sistema, el modelo está contemplado como un Q-morflsmo. Se trata de un modelo cercano al homomorfismo que permite ciertas excepciones y situaciones en las que el paralelismo entre el mundo real y las reglas y conceptos del sistema cognitivo no es completo. El entorno está representado como un conjunto de estados determinados y una función de transición que indica cómo cambia un estado a lo largo del tiempo. La función de transición va indicando cuál es el estado del entorno en un momento dado, desplazándose en intervalos discretos de tiempo t, t + l, t + 2, etc. Finalmente, el proceso de aprendizaje y de inducción, a través del cual creamos y/o aprendemos nuevas reglas, ha de verse como la construcción de un modelo progresivamente mejor y más fiable, refmando progresivamente un Q-morlìsmo para acercarlo lo más posible a un homomorfismo. A partir de todo lo expuesto sobre modelos teóricos, podemos hacer las siguientes consideraciones a modo de conclusión: a) La distinción entre teoría y modelo teórico tiene sentido y no debe considerarse como una violación del principio nominalista de aumentar las entidades conceptuales sin necesidad. b) Sin rechazar el aspecto normativo de la filosofía de la ciencia, tampoco puede hacerse caso omiso de todos los sentidos de modelo

que los científicos ponen en práctica y decir que todos sufren confusión conceptual. La función del filósofo de la ciencia es precisamente la de esclarecer conceptualmente el trabajo teórico de los primeros. c) El concepto de modelo teórico propuesto por la concepción semántica de las teorías científicas es muy fructífero y puede encajar con bastante fiabilidad con el uso que muchos científicos hacen del término. d) Si los no partidarios de la distinción entre teoría y mod2T prefieren una clasificación de teorías, entonces posiblemente las diferencias entre los dos grupos de filósofos se debilitarían.

LAs 'rEo¡dAs ciENríF|cAs

227

e) Por último, si el filósofo de la ciencia no renuncia a su función normativa, hay una norma clara referente a la utilización del término «modelo››, a saber: no utilizarla nunca sin antes delimitar en qué xcntjdo se utiliza. Este apartado sobre modelos pretende, precisamente, ser una contribución a la claridad conceptual que tan difícil parece cn esta temática.

7. I.

LA EXPLICACIÓN CIENTÍFICA LA EXPLICACIÓN CIENTIFICA COMO ALFA Y OMEGA DEL ANÁLISIS DE LA CIENCIA

La referencia a la explicación científica es imprescindible desde el principio hasta el final de toda reflexión sobre la ciencia. Cuando buscamos los orígenes de la ciencia recurrimos a la necesidad del Homo sapiens de comprender lo que ocurre a su alrededor. El estado de mayor angustia de los humanos es precisamente la incomprensión de su experiencia inmediata. Este temor a lo desconocido llevó a nuestros antepasados a buscar formas de explicación de acuerdo con el conocimiento que tenían de las cosas. El pensamiento mitopoético, que dio lugar a las explicaciones antropomórficas y animistas, puede entenderse como una reconstrucción de la experiencia en la que se plasma la creatividad de la imaginación humana y la libre inventiva estética de nuestra mente, pero también desempeña el papel de una explicación, es decir, una manera de comprender y dar cuenta de lo que, de otro modo, seguiría siendo oscuro, amenazador e ingobernable (Wartofsky, 1981270). Podemos decir, pues, que la explicación científica forma parte de los objetivos fundamentales que empujaron a los humanos a hacer ciencia. Actualmente nuestro conocimiento del entorno es incomparablemente mayor que el de nuestros antepasados con sus reconstrucciones mitopoéticas de la experiencia, sin embargo la comprensión del entorno sigue siendo el objetivo fundamental de la ciencia, ya que seguimos ignorando más cosas de las que sabemos. La cuestión está en cómo gestionar la ignorancia' l. Debo esta idea a Toni Domenech, idea surgida en el curso de una conversación filosófica.

LA cxi=LicAcióN c1|zN'ríF1cA

229

La referencia a la explicación científica surge también al final de un análisis de la ciencia, no sólo por la persistencia como objetivo del quehacer científico, sino porque en la explicación científica se ponen cn marcha todos los productos científicos, a saber: conceptos, leyes, teorías, modelos y tipologías, en una palabra, todo el conocimiento acumulado por una disciplina en un momento determinado. La idea de considerar la explicación científica como subyacente a todo quehacer científico da sentido al orden de exposición de los temas, dejando la explicación científica para cerrar esta introducción a la filosofía de la ciencia. Por tanto, la explicación científica constituye el alfa, por lo que se refiere a los objetivos de la ciencia, y el omega, en :manto a conceptualización que integra y pone en juego todas las demás conceptualizaciones. ¿Cómo abordar la explicación cientifica? A la hora de caracterizar la explicación científica podemos hacerlo desde varias perspectivas: cn función de su estructura (argumento deductivo o inductivo, pregunta y respuesta, un par ordenado, etc.); en función del tipo de enunciados que intervienen en la explicación (enunciados probabilísticos 0 no-probabilísticos); en función de las distintas ciencias particulares (cc. físicas, cc. biológicas, cc. sociales); en función de criterios cognitivos para obtener la mejor explicación (unificación, simplicidad, comprensión, etc.). No vamos a tomar uno de los enfoques antes mencionados de forma unilateral, fundamentalmente porque cualquiera de ellos está relacionado con los otros, sino que vamos a presentar las principales aportaciones en el tema de la explicación científica, entre las cuales se encuentran opciones que pertenecen a diferentes enfoques. Hay que señalar, sin embargo, que las diversas opciones que va-

mos a presentar a continuación se mueven en planos distintos. Hempel y Salmon analizan la estructura lógica de la explicación científica. Kitcher, por su parte, introduce criterios para valorar el poder explicativo delas teorías. Elster plantea cómo abordar la intencionalidad cuando queremos explicar las acciones humanas. Van Fraassen representa el enfoque pragmático de la explicación científica, mientras que Achinstein especifica todos los elementos que concurren en una explicación, de tal forma que en su modelo de explicación se encuentran cuestiones que tienen que ver tanto con la estructura lógica como con los criterios de evaluación del poder explicativo. Por tanto, no hay que ver las concepciones sobre la explicación científica como alternativas ex-

INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA

clusivas, sino como análisis de las cuestiones que surgen en torno a la explicación científica.

2. EL Moouo nranucrrvo De ExPLicAcróN cusNru=1cA El modelo deductivo de explicación científica tiene la estructura de un razonamiento deductivo. Para hacernos una idea de lo que entendemos por razonamiento deductivo pensemos en un cálculo de la lógica de primer orden. Desde Aristóteles el modelo deductivo ha gozado de amplia aceptación entre los científicos y se ha considerado como la explicación ideal y la más genuina de la ciencia. Vamos a presentar este modelo de explicación científica a través de la explicación nomológica-deductiva de Hempel-Oppenheim (Hempel, 1979: cap. 10), que es considerada como el paradigma de explicación científica de la Concepción Heredada. Este tipo de explicación interpreta la pregunta «¿por qué sucede este fenómeno'!›› como «¿de acuerdo con qué leyes generales y condiciones antecedentes se produce dicho fenómeno?››. La explicación científica está compuesta de dos elementos principales: explanandum y explanans. El explanandum es la oración que describe el fenómeno. El explanans se refiere a la clase de aquellas oraciones que se aducen para dilucidar el fenómeno. En el explanans hay dos clases de oraciones: una, contiene ciertas oraciones C., C2, ..., C, que formulan condiciones antecedentes específicas; otra, es un conjunto de oraciones L,, L2, ..., L, que representan leyes generales. Estos elementos pueden resumirse en el siguiente esquema: C,, C2, ..., C,

Enunciados de

condiciones antecedentes EXPLANANS Deducción L., L2, ..., L, lógica E

Leyes generales Descripción del fenómeno empírico que se explica

EXPLANANDUM

LA Ex|>L1cAc1óN ci|aN'rl1=rcA

231

Como sostén de este esquema Hempel especifica las condiciones que debe cumplir una explicación cientifica: Condiciones lógicas de adecuación: (Rl) El explanandum debe ser una consecuencia lógica del explanans, dicho en otras palabras, el primero debe ser lógicamente deducible de la información contenida en el explanans, porque de lo contrario este último no podria constituir una base adecuada para el explanandum. (R2) El explanans debe contener leyes generales exigidas realmente para la derivación del explanandum. Sin embargo, no consideramos necesario para una explicación firme que el explanans deba contener por lo menos un enunciado que no sea una ley, puesto que, para mencionar sólo una razón, seguramente desearíamos considerar como explicación la deducción de las regularidades generales que gobiernan el movimiento de las estrellas dobles a partir de las leyes de la mecánica celeste, aun cuando todos los enunciados del explanans sean leyes generales.

(R3) El explanans debe tener contenido empírico; es decir, que por lo menos en principio sea posible comprobarse mediante el experimento o la observación. Esta condición está implícita en (RI), pues, desde que se supone que el explanandum describe cierto fenómeno empírico. se puede concluir a partir de (Rl) que el explanans entraña por lo menos una consecuencia de índole empírica, y este hecho le otorga la condición de ser verificable y de tener contenido empírico. Pero el punto merece una mención especial porque ciertos argumentos que se ofrecen como explicaciones en las ciencias naturales y sociales violan esta exigencia. Condición empírica de adecuación:

(R4) Las oraciones que constituyen el explanans han de ser verdaderas. Es obvio que en una explicación correcta los enunciados que constituyen el explanans deben satisfacer cierta condición de corrección fáctica. Pero parecería más adecuado estipular que el explanans ha de ser confirmado en alto grado por todos los elementos relevantes disponibles, antes que deba considerarse verdadero. No obstante, esta estipulación conduce a consecuencias embarazosas. Supóngase que en una etapa primitiva de la ciencia un determinado fenómeno fuera explicado mediante un explanans verificado con las pruebas de que se disponía en ese momento, pero que descubrimientos empíricos más recientes lo hubieran negado. En este caso, deberíamos decir que originariamente la explicación fue correcta, pero que dejó de serlo cuando se descubrieron elementos de prueba desfavorables. Esto no parece concordar

232

mrkooucclóu A LA F|uoso|=l›. DE LA c|ENc1A con el saludable uso común, que nos lleva a decir que basada en los elementos limitados de prueba iniciales, la verdad del explanans -y, por ende, la solidez de la explicación- había sido bastante probable, pero que la mayor evidencia ahora disponible hizo muy probable que

el explananx no fuera verdadero; de ahi que la explicación no era, ni habia sido nunca, correcta (Hempel: 19792249-250),

Teniendo en cuenta estas condiciones de adecuación podemos hacer algunas consideraciones generales referentes a la relación de la explicación nomológica-deductiva con cuestiones afines a la explicación cientifica: a) Según este modelo de explicación la diferencia entre explicación y predicción es de carácter pragmático. Esta idea es lo que a veces se llama «tesis de la identidad estructural (o de la simetría) de la explicación y de la predicción» que afirma que la explicación de un hecho no es enteramente adecuada a menos que su explanans, considerado a tiempo, hubiera podido fundamentar el pronóstico del hecho que analiza, b) La explicación de un fenómeno se realiza por medio de la subsunción deductiva a leyes o principios teóricos. De ahi la gran importancia que las leyes tienen en este modelo de explicación cientifica. c) En cuanto a la relación entre modelo nomológico-deductivo y explicación causal, Hempel hace las siguientes afirmaciones: «la explicación causal se ajusta al modelo nomológico-deductivo», «la explicación causal es al menos implicitamente deductivo-nomológica», «los mejores ejemplos de explicaciones que se ajustan al modelo N-D se basan en teorias fisicas de carácter determinista» y «no siempre las explicaciones N-D son causales». De estas afirmaciones podemos concluir que no pueden identificarse las explicaciones causales y las nomológicas-deductivas; que puede haber explicaciones que no sean causales pero que se ajusten a la estructura lógica deductiva. Lo que no parece estar en la mente de Hempel es la posibilidad de explicaciones causales que no se ajusten al modelo N-D. Esta última idea cerraria el paso a la posibilidad de leyes estadísticas causales o, más específicamente, de que la causalidad pudiera darse con lo que él llama «modelo inductivo-estadlstico››.

LA |axP|.icAc1oN ciemrricx

233

EJEMPLIFICACIÓN DE EXPLICACIONES CON EL MODELO DEDUCTIVO

Fisica Explanandum: El cohete se elevó unos 800 metros y después volvió a caer en la tierra. Explanans' En primer lugar tendríamos unas condiciones iniciales que serían la posición del cohete, su peso, la cantidad de combustible y la forma en que se realizará la combustión. Asimismo tendríamos una serie de leyes sobre las que aplicar las condiciones iniciales. Por un lado, tendríamos toda una serie de leyes de la química que nos permitirían calcular la energía liberada por la combustión del hidrógeno y oxígeno líquidos, por otro, tendríamos algunas de las principales leyes de Newton: la de acción-reacción que nos permitiría calcular la velocidad inicial del cohete, la segunda ley del movimiento que nos permitiría calcular su velocidad y aceleración en cada momento y la de la gravitación universal que nos permitiría saber la influencia de la gravedad terrestre a la hora de frenar el cohete. Una vez combinadas las condiciones iniciales y las leyes indicadas tendríamos la explicación de la caída del cohete. Química Explanundum: El xenón es un gas inerte que no se combina casi nunca con otros elementos para formar moléculas.

Explanans: Por un lado, tendríamos unas condiciones iniciales que podríamos reducir, en principio, al hecho de que el xenón tiene 8 electrones en su orbital más externo; por otro lado, tendríamos las leyes de la química y de la física cuántica que nos dicen que para realizar un enlace químico es necesario ceder/aceptar o compartir electrones para así tener orbitales en un estado de máxima estabilidad (con todos los electrones que puedan caber, de forma que los números cuánticos de cada uno de ellos no sean todos idénticos). Sin embargo, el xenón tiene su capa orbital totalmente llena, con ocho electrones y por ello no puede realizar enlaces químicos.

INTRODUCCIÓN A LA FILDSOFÍA DE LA CIENCIA

Lingüística Explamzndum: La asignación al pronombre «ella›› de la referencia «Maria›› en la frase «ella no sabe que María lo sabía» es asintáctica. Explanans: Las condiciones iniciales serían las posiciones de las palabras «ella›› y «Marian en la frase que se ha de analizar. Asimismo, para demostrar la asintacticidad de la interpretación deberíamos recurrir a una serie de reglas y principios lingüísticos (que bien podemos considerar leyes) que nos lo muestran. La ley principal que se sigue es la que dice que un pronombre no puede tener como referencia una frase nominal si esta frase nominal «c-gobierna» al pronombre. Por «c-gobierna» se entiende la relación entre dos elementos X e Yde una frase tales que, en un diagrama arbóreo m, ni X domina Yni Ya X (X domina a Y si X es la raíz de un subárbol del cual pende Y) y además el primer nudo ramifìcado que domina a X, también domina a X

3. LA mrnonuccióu mz euuucutnos Pnonxnnísricos en Lxs Exericxciomzs cnam-iricxs Muchas disciplinas científicas no tienen el modelo deductivo' como patrón para sus explicaciones. Esto quiere decir que su explanans no implica necesariamente su explanandum, sino que sólo lo hace probable. Las explicaciones probabilísticas son las que incorporan en el explanans leyes estadísticas, entendiendo por éstas enunciados que alìr-

man que la probabilidad de que suceda un evento E, dada una situación S está entre el intervalo 0 y 1. Abreviando: p(E,S) = r. Por ejemplo, la probabilidad de que salga cara (E) al echar una moneda al aire (S) es de 0.5 (r). Abreviando: p(E,S) = 0.5. 3.1.

Los modelos estadísticos (deductivo-estadístico e inductivo-es tadístico) de Hempel

Hempel (Hempel, 1979) distingue dos tipos de explicaciones estadísticas: Las deductivo-estadisticas (D-E) y las inductivo-estadisticas (l-E). Caracteriza las D-E del siguiente modo:

LA Exrucxclou cnaN'rli=1c›.

235

La D-E suponen la deducción de un enunciado con la forma de una ley estadistim a partir de un explanans que contiene indispensablemente

por lo menos una ley o principio teórico de forma estadistica, Se realiza la deducción por medio de la teoría matemática de la probabilidad estadística, que permite calcular ciertas probabilidades derivadas (las aludidas en el explunandum) sobre la base de otras probabilidades (las aludidas en el explanans) halladas empiricamente o afirmadas hipotéticamente. Lo que explica una explicación D-E, pues, es siempre una uniformidad general expresada por una presente ley de forma estadística (Hempel, 1979375). En estas explicaciones, el paso del explanans al explanundum se fundamenta en la teoría matemática de la probabilidad estadística. Las explicaciones l-E son las explicaciones estadísticas de sucesos particulares. Hempel pone el ejemplo siguiente: se trata de explicar la recuperación (R) de Irene Casas (j), que sufrió una grave infección por estreptococos (E) y fue tratada con altas dosis de penicilina (P). Sabemos que la recuperación en estos casos tiene una probabilidad estadística p(R, E.P) que se acerca a 1, por consiguiente, era prácticamente seguro que se recuperaria. Esquematizando tenemos lo siguiente: p(R, E.P) se acerca a 1 Ej . Pj ==================

(Haçg muy pfgbabk)

Ri Dice Hempel a raíz de las explicaciones I-E: Las explicaciones de hechos o sucesos particulares por medio de leyes estadístico-probabilísticas se presentan como razonamientos que son inductivos o probabilísticos en el sentido de que el explanans confiere al explanandum un grado más o menos alto de apoyo inductivo o de probabilidad lógica (inductiva); por ello, serán llamadas «explicaciones I-E››. Las explicaciones en las cuales las leyes estadísticas invocadas son de forma básica, seran llamadas «explicaciones l-E de forma básica» (Hempel, 19792379). Hempel considera que un razonamiento de este tipo sería explicativo si la probabilidad (r) asociada a la explicación se acerca a l, es decir, si la probabilidad es alta. Sin embargo, como Hempel mismo reconoce, no deja de tener cierta arbitrariedad la asignación de un nú-

236

n~rrRoDucc1oN A LA F1uoso|=íA DE LA cu2NciA

mero particular, por ejemplo 0.8, como valor mínimo de la probabilidad (r) admisible en una explicación. 3.2.

Modelo de pertinencia estadistica (PE) de Salmon'

W. Salmon (Salmon, 1971) aporta una alternativa al modelo inductivo-estadístico de Hempel y constituye una importante aportación a la explicación científica. Veamos, en primer lugar, algunas diferencias importantes respecto al modelo de explicación estadística de Hempel. Salmon sostiene que las explicaciones estadísticas no necesitan ser consideradas como argumentos inductivos, ni tampoco es necesaria una probabilidad alta para una explicación estadística correcta, dos supuestos fundamentales en la propuesta de Hempel. Salmon sustituye el requisito (desideratum) de alta probabilidad por el de pertinencia estadistica. Se entiende que un factor a es estadísticamente pertinente para que ocurra un evento e si la probabilidad de que suceda e es distinta en presencia o ausencia de a. Por ejemplo, queremos explicar la curación del resfriado común recurriendo a la generalización siguiente: «La vitamina C cura el resfriado común». Hempel preguntaría cuál es la probabilidad de curar un resfriado si uno toma vitamina C, en cambio a Salmon lo que le interesa es cuál es la diferencia entre la probabilidad de curar un resfriado tomando vitamina C y la probabilidad de curarse sin tomarla. Para argumentar a favor de su propuesta, Salmon presenta algunos contraejemplos al modelo de Hempel, ya que son casos en que se cumplen todos los requisitos exigidos por Hempel pero que no pueden considerarse una explicación. Veamos los siguientes contraejemplos:

Si se administra vitamina C, casi todos los resfríados se curan. Teresa está resfriada y toma vitamin/à C. _

.

/

Es casi seguro que Teresa estara curada en una semana. Este argumento es correcto, pero la ingestión de vitamina C no explica la curación del resfriado porque todos los resfríados se resuelven en una semana. 2. Aqui habría que citar también a R. Jeffrey y J. Greeno, asociados a este modelo de explicación.

LA i:xPL|cAcroN cnaN'rI|=1cA

237

Cuando hay un eclipse, si se hace mucho ruido la luna reaparece. Hubo un eclipse en China y la gente salió a la calle con sartenes y cacerolas para hacer ruido. La luna reapareció después del eclipse. También en este caso se sabe que cuando hay un eclipse la luna siempre reaparece. Hempel responde, en este punto, apelando al requisito de máxima especificidad, constricción que pretende paliar la ambigüedad explicativa de una predicción probabilística, entendiendo por tal toda la información que podamos obtener referida al fenómeno en cuestión.” Para comprender el modelo de Salmon en toda su amplitud es necesario aclarar varios conceptos, algunos de los cuales se refieren a cuestiones generales relacionadas con la teoría dela probabilidad, mientras que otros hacen referencia directa a su modelo de explicación! Aquí nos vamos a centrar en los que están ligados directamente a su modelo. En cuanto a los conceptos relacionados con la probabilidad, hay una cuestión previa que consiste en revisar algunas de las interpreta-

ciones del concepto de probabilidad. De las distintas interpretaciones de la probabilidad, Salmon dice que la aplicación de la teoría matemática de la probabilidad a cuestiones empíricas se efectúa por la interpretación frecuencial de la probabilidad estadística, para la cual «p(G,F) = r›› enuncia la frecuencia relativa a largo plazo con la que un experimento de azar de algún tipo especificado E realizado por el hombre o por la naturaleza, tiende a dar un resultado de tipo G. Veamos algunos elementos que nos ayudarán a una mejor comprensión del modelo explicativo de Salmon:

a) Probabilidad anterior y probabilidad posterior (o posfactual). El concepto de probabilidad anterior, que no debe entenderse como a priori sino anterior respecto a alguna información particular o investigación. Por ejemplo, en el caso de la explicación de la curación del resfriado gracias a la vitamina C, la probabilidad anterior se re3. Es lo que Carnap llama «requisito de los elementos de juicios totales». 4. Los conceptos relacionados con la teoria de la probabilidad han sido introdueidos en el capitulo 4, en relación a las hipótesis científicas.

238

1rrrRoDucc1oN A LA F|uosoFlA DE LA c|ENc1A

ñere a la probabilidad de curarse un resfriado antes de ingerir la vitamina C. La probabilidad posterior (0 posƒactual) es la probabilidad de estar resfriado después de haberse tomado la vitamina C. b) Clase de referencia. La atribución de una probabilidad a un acontecimiento específico se realim, en primer lugar, colocando el evento en cuestión en una clase, llamada clase de referencia, de eventos similares en la que nuestro elemento pueda figurar como elemento típico, y en segundo lugar, se determina la frecuencia relativa del acontecimiento tipo en la clase de referencia. Por ejemplo, para saber si nuestro vecino celebrará su septuagésimo aniversario, lo colocamos en la clase de referencia de los españoles contemporáneos, de costumbres ordenadas, de 48 años de edad, con hijos ya casados, etc., investigando el porcentaje de elementos de la clase que han alcanzado los 70 años. En la expresión «p(B,A) = r››, A es la clase de referencia y B el atributo. c) Parlición estadísticamente pertinente. Una partición de una clase es un conjunto de subclases mutuamente exclusivas y exhaustivas. La partición de una clase hay que hacerla estadísticamente pertinente (EP), entendiendo por EP lo siguiente: si dividimos la clase A en dos subclases, la que tiene la propiedad C y la que no la tiene, C es EP si y sólo si p(B, A.C) qe p(B, A). Al hacer una partición reducimos la clase de referencia, cosa deseable siempre que las particiones sean EP y que la clase de referencia contenga todas las instancias que queremos examinar. Dice Salmon al respecto: La «pertinencia estadistica» es una noción esencial. Es deseable re-

ducir la clase de referencia de forma estadísticamente pertinente, pero no si esta reducción tiene que hacerse de forma no pertinente. Cuando nosotros elegimos una clase de referencia en la cual incluimos un caso singular, nos tenemos que preguntar si podemos subdividirla de forma estadísticamente pertinente. Si es asi, tenemos que elegir la subclase mas pequeña que resulta de la subdivisión; si no se conoce otra forma de dividir estadísticamente pertinente, debemqs evitar continuar hacien-

do la clase de referencia más pequeña (Salmon, 1971142). d) Selección de lugar. R. von Mises (Von Mises, l957:25) introduce el concepto de selección de lugar, definido en los términos siguientes: por selección de lugar entendemos la selección de una secuencia parcial de forma tal que decidimos si un elemento debería 0 no ser incluido en esta selección sin hacer uso del atributo 0 del ele-

LA Ex|>LrcAcróN c|ENrt|=1cA

239

mento. En el ejemplo anterior en que teníamos una clase de referencia de hombres españoles, una selección de lugar podría ser los hombres españoles que tienen los ojos azules o los que viven en ciudades de más de 100.000 habitantes, pero no seria una selección de lugar los españoles que han cumplido los 70 años ya que en este caso no se puede determinar la selección sin recurrir al atributo. La selección de lugar puede (o no) ser EP respecto a un atributo de una clase de referencia dada. Si una selección de lugar no es EP respecto a un atributo de una clase de referencia dada, la probabilidad de este atributo dentro de la subclase determinada por la selección de lugar es igual a la probabilidad de este atributo en la clase de referencia total de la que hemos partido. e) Clase de referencia homogénea. A partir de la selección de lugar podemos definir la clase de referencia homogénea. Si ninguna de las propiedades determinadas por la selección de lugar es pertinente para el atributo dado B dentro de la clase de referencia A, podemos decir que A es una clase de referencia homogénea para B. Salmon distingue dos tipos de no homogeneidad: epistémica y práctica. Es epistémica cuando sabemos o sospechamos que la clase de referencia no es homogénea pero sabemos cómo hacer una partición EP. Es práctica cuando sabemos que la clase de referencia no es homogénea y sabemos qué atributos afectarían una partición EP, pero sería demasiado costoso averiguar qué elementos pertenecen a cada una de las subclases de la partición. V f) Regla de desplazamiento. El concepto central del modelo de explicación estadística de Salmon es el de desplazar (screen-off) y su regla correspondiente, a saber, la regla de desplazamiento (screening-

offrule). Para facilitar la comprensión vamos a desarrollarlos a partir de un ejemplo puesto por el propio Salmon. Supongamos que en el barómetro de mi casa se indica una bajada repentina de presión, entonces podemos predecir, con bastante credibilidad, una tomtenta. Pero la lectura que podamos hacer del barómetro sólo es un indicador, no la causa, de la tormenta y, por tanto, no explica la tormenta. La causa de las tormentas es una situación atmosférica determinada como las bajas presiones que se dan en una amplia región de la atmósfera. Supongamos las siguientes clases: A = La clase de los dias en la región donde mi casa está situada (clase de referencia). B = La clase de los días en que hay tormenta (atributo).

240

1N'rkooucc1óN A LA Fnosoi=lA DE LA c1eNc1A

C = La clase de los días en que hay una bajada repentina en el barómetro de mi casa (partición 1). D = La clase de los días en que hay una bajada de presión atmosférica en el área donde está localizada mi casa (partición 2). Decimos que D desplaza a C desde el punto de vista de B en lu clase de referencia A si y sólo si: p(B, A.C.D) = p(B, A.D) ak p(B, A.C) Hay que tener en cuenta que del hecho de que D desplaza a C no puede inferirse que C desplaza a D, ya que la relación «desplazar a» no es simétrica. Ahora tenemos todos los conceptos necesarios para enunciar la regla de desplazamiento: «cuando una propiedad, en cuyos términos se ha efectuado una partición EP de una clase de referencia, desplaza a otra propiedad, en cuyos términos se ha efectuado otra partición EP de aquella misma clase de referencia, entonces la propiedad desplazada tiene que ceder ante la propiedad que la desplaza» (Salmon, 1971155). Volviendo a nuestro ejemplo, esto significa que la propiedad de bajar el barómetro ha quedado desplazada por la propiedad de las bajas presiones a la hora de explicar por qué hubo tormenta. g) Regla dela homogeneidad múltiple. A veces no podemos hacer una partición de la clase de referencia A en dos subclases homogéneas, en este caso aplicamos la regla de homogeneidad múltiple, que consiste en una partición de A en K subclases C,,, cada una completamente homogénea y tales que: p(B, A.C¡) ak p(B, A.C¡) para i ¢ j La homogeneidad múltiple expresa la condición fundamental para

una explicación adecuada de eventos particulares y servirá para una caracterización general de explicación deductiva e inductiva. Dice Salmon al respecto: En este punto es crucial señalar que el énfasis de la presente propuesta de explicación esta en alcanzar una partición pertinente de una

clase de referencia no homogénea, convirtiéndola en subclases homogéneas. Según esta concepción, una explicación no es un argumento que intenta convencer; por el contrario, es un intento de juntar los factores

que son pertinentes para que ocurra el evento (Salmon, 1971165).

LA nxi›i.rcAc1oN cnaN'rli=1cA

241

Vemos que para Salmon lo más importante no es que la probabiliilnd de la generalización estadística del explanans sea alta, ni siquiera es un requisito indispensable que la probabilidad posterior sea mayor que la probabilidad anterior, lo fundamentales encontrar factores que scan pertinentes estadísticamente para el evento que tratamos de ex|›Iicar. Ahora tenemos todos los elementos para exponer la naturaleza de lu explicación estadistica según Salmon. Una explicación es la respuesta ti una pregunta que tiene la forma siguiente: ¿por qué x que es un miembro de A tiene la propiedad B? La respuesta a esta pregunta consiste cn una partición de la clase de referencia A en subclases homogéneas respecto a B y en especificar cuál de estas subclases contiene el evento que queremos explicar. Formalmente, Salmon lo expresa del modo siguiente: P(B› A-Ci) = Pl

P(B. A-C2) = Pz

p(B, A-Ci) = Pt

donde A.C,, A.C,, ..., A.C,, es una partición homogénea de A respecto a B. Siendo pi = p, sólo si i = j y x G A.C,, Comparando su propuesta con la de Hempel, dice Salmon: Como Hempel, veo una explicación como una entidad lingüística, es decir, como un conjunto de enunciados, pero a diferencia de él, no la veo como un argumento. Desde mi punto de vista, una explicación es un conjunto de enunciados probabilísticos, cualificados por ciertos provisos, más un enunciado especificando la clase donde pertenece el explanandum (Salmon, l97l:77).

Como conclusión podemos decir que Salmon considera que este no es el único modelo legítimo de explicación, que las generalizaciones estadísticas y universales deben ser legales, que este modelo depende, fundamentalmente, de dos conceptos, a saber: pertinencia estadistica y la relación de «desplazar a», y finalmente, que aunque este

242

¡N'rRoDucc|0N A LA Fn.›osoFíA DE LA CIENCIA

modelo ha sido presentado en términos de la interpretación frecuen cial de la probabilidad, dicho modelo no constituye un argumento para reforzar la aceptabilidad de la interpretación frecuencial de la probabilidad.

EJEM1>r.u=1c.\clóN DE ExPLIcAc|oNEs Pon Er. MODELO

rnonumísnco Deductivo-estadísticas Tèorfa de la computación Explanandum: El próximo signo que presentará un autómata generador de una gramática a*e será una «a›› con una probabilidad del 50 por 100. Explanans: Supongamos que en un ordenador tenemos simulado un autómata no determinista generador de la gramática a'e. A la hora de calcular las transiciones matemáticas el ordenador utiliza un sistema X generador de números casi aleatorios. Estas serían las primeras condiciones iniciales (el tipo de gramática y el sistema generador de aleatoriedad). Seguidamente tendríamos la otra condición inicial de que el autómata hasta ahora ha escrito «aa››. Ahora tan sólo tenemos que aplicar la teoría de la matemática estadística al sistema generador de aleatorìedad más las leyes generales que rigen la ge-

neración de gramáticas para hallar que, efectivamente, la probabilidad sería del 50 %. Tëorúz de juegos Explanandum: En principio, el juego de la ruleta es desfavorable para el jugador y favorable para la banca. Explanans: Las condiciones iniciales serían la cantidad de números que hay en la ruleta, la forma en que se pueden hacer apuestas, lo que se paga por cada apuesta, etc., y después, una vez aplicadas las leyes generales dela estadística se deduciría fácilmente el explanandum indicado.

LA Exi>LicAcióN ciEN1'Ii=icA

243

lnductivo-estadísticas Física Explanandum: Es muy probable que la bomba nuclear que se acaba de activar explote antes de los 40 segundos. Explanans: Lo que tendriamos aquí sería una explicación a p arti r d e probabilidades condicionadas apoyándolas en una serie de leyes de la física nuclear más una especificación de las características g en e r a l es de la bomba (sus condiciones ' ' iniciales): ` ' ` cuánto plutonio hay, cómo está distribuido , qué ti p o de exp 1 osi' vos de compresión se utilizarán, etc. Una vez realizados los cálculos resulta que, efectivamente, es muy probable que la bomba

explote. Biología Explanandum: Es muy poco probable que el hijo que va a tener el matrimonio Casas-Forcadell sea hemofílico Explanans.- Por un lado, tendriamos ' unas condiciones iniciales tales como que la hemofilia es un rasgo recesivo, que el pa d re es h emofílico y, por tanto, es transmisor seguro del gen de la hemofilia a su hijo y, por otro, que en la familia de la mad . _ re nunca se han dado casos de hemofilia, por lo cual es realmente muy poco probable que la madre sea portadora del gen A u, 1. , . _ q i, ap icando las leyes de Mendel es facilmente deducible que es muy poco probable que el hijo del matrimonio Casas-Forcadell padezca hemofilia.

Pertinencia estadística Psicología Explanandum: Existe un gen causante de la esquizofrenia. Explanans: Deberiamos mostrar que existe una pertinencia estadística entre el hecho de compartir determinados genes y paparticiones d ecer l a enfermedad. Además deberíamos realizar ` de manera que este hecho fuera pertinente y no quedara enmascara d o por otros (por ejemplo, vivir en un ambiente opresivo que ayudarla a la aparición de la esquizofrenia). Si la aparición de la población y se observa tie ne l ugar en subclases homogeneas '

244

INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA

una correlación clara entre ser esquizofrénico y ser hijo de esquizofrénico, correlación no achacable a otros fenómenos, tendríamos la explicación del explanandum. Sociología Explanandum: La decisión del Likud de retirarse de las negociaciones de paz con Palestina hizo que la intención de voto se desplazara significativamente desde el Likud a los laboristas israelíes. Explanans: A través de unas encuestas bien construidas rea-› lizadas antes y después de la decisión del Likud deberíamos mostrar que, efectivamente, una vez realizadas las particiones correctas, ha habido un desplazamiento significativo de voto entre antes y después de la retirada del Likud, desplazamiento que no muestra ninguna pertinencia estadística con algún otro hecho colateral. Meteorología Explanandum: El 9 de febrero de l992 cayó una copiosa nevada en Balaguer causada por la conjunción de una borrasca junto con los vientos polares. Explarians Una vez realizada una partición correcta entre las subclases homogéneas de los diversos eventos meteorológicos que se producen en los cielos de Balaguer, considerando sus posibles conjunciones, se debería mostrar que, efectivamente, hay una correlación entre la conjunción de una borrasca y los vientos polares, cosa que explicaría la copiosa nevada del 9 de febrero.

4. Ex.i›LicAcioNEs i=uNcioNALEs Y 'rELEoLóoicAs Es habitual en la literatura ñlosófica encontrar un tratamiento conjunto delas explicaciones funcionales y teleológicas, sin embargo, todos los autores tenninan estableciendo diferencias aunque utilicen terminologías distintas para su denominación. El terreno común de este tipo de explicaciones podríamos situarlo en su contraposición tradicional a las explicaciones causales.5 Com5. No voy a entrar aquí en una discusión a fondo del concepto de causalidad. En algunos capítulos del libro hay referencias a este tema. En su formulación más simple,

LA EXPLICACIÓN CIENTÍFICA

245

¡mirando las explicaciones causales y las explicaciones funcionalesu-Icológicas, podemos establecer la diferencia siguiente: las explicaciones causales apuntan por lo regular hacia el pasado, siendo su exprenlóii lingüística tipica «esto tuvo lugar porque había ocurrido aquelIi›››; las explicaciones funcionales-teleológicas apuntan hacia el futuro \-xpresándose con frases como «esto tuvo lugar con el fin de que ocn: iriera aquello». Nos centraremos en tres cuestiones: la estructura lógica de este tipo «lc explicaciones, los problemas surgidos como cong¢¢u¢n¢¡a de v¡o¡a¡. nlgunos de los principios metodológicos y metafísicos que subyacen ii la investigación cientifica, y algunas de las respuestas a estos pm. blemas.

4.l.

Explicaciones funcionales

En las explicaciones funcionales se indican las acciones que ejerce iina parte de un todo para mantener en funcionamiento ese todo. Una de las caracteristicas que más las diferencian de las teleológicas es que cn las primeras (a diferencia de las segundas) no intervienen pr0pó_«,¡_ los conscientes. El análisis funcional podemos encontrarlo en la tradición psicoanalista (Freud), en la tradición funcionalista de la antropologia (Malinowski y Radcliffe-Brown) y de la sociología (Merton y Parsons). El análisis funcional trata de comprender una pauta de conduçta 0 una institución sociocultural, determinando el rol que desempeñan para mantener en buen funcionamiento un sistema dado o para que

siga siendo un proyecto viable (Hempel, 19791302). Ejemplos de enunciados funcionales son los siguientes: (1) El latido del corazón en los vertebrados tiene como fun¢¡ón hacer circular la sangre por el organismo. (2) La función de la clorofila en las plantas es permitir a éstas realizar la fotosíntesis, es decir, formar almidón a partir del dióxido de carbono y del agua en presencia de la luz solar.

entendemos por explicaciones causales aquellas que subsumen los fenómenos que quie. ren explicar bajo leyes causales. Este tipo de explicación encaja con la estniçmm nomológica-deductiva propuesta por Hempel-Oppenheim.

246

iN'riioDucc|oN A LA F|Losoi=lA DE LA c|ENc|A

La solución de Nagel (Nagel, l978:366-369) es abandonar el aii pecto finalista de las explicaciones funcionales de la biología. Como Nagel no distingue, de entrada, entre explicaciones funcionales y te› leológicas, la solución puede expresarse diciendo que hay que reformular los enunciados teleológicos en enunciados no-teleológicos. Tomemos el enunciado (2). Nagel dice que (2) es un argumento abreviado, de modo que cuando se descompone, puede expresarse del modo siguiente: «cuando se les suministra agua, dióxido de carbono y luz solar, las plantas elaboran almidón; si las plantas no tienen clorofila, aunque tengan agua, dióxido de carbono y luz solar, no elaboran almidón; por tanto, las plantas contienen clorofila». Nagel generaliza los enunciados teleológicos y su reformulación como sigue: Con mayor generalidad, un enunciado teleológico de la forma «la función A en un sistema S de organización C es permitir a S, en el medio E, realizar el proceso P» puede ser formulado más explícitamente así: «todo sistema S de organización C y en el medio E realiza el proce-

so P; si S, de organización C y en el medio E, no tiene A, entonces S, no efectúa P; por tanto, S de organización C debe tener A (Nagel,

19781367).

La mayor objeción a la propuesta de Nagel proviene de la equivalencia entre enunciados teleológicos y sus correspondientes formulaciones no-teleológicas, ya que, si bien la mayoría de los biólogos admitirían la implicación desde los enunciados teleológicos hasta los no-teleológicos, no resulta tan fácil la implicación en sentido contrario, es decir, que cualquier enunciado no-teleológico tenga su corres-

pondiente formulación en un enunciado teleológico. Frente a esta objeción Nagel concede un «significado adicional» a los enunciados teleológicos, o sea que la relación entre enunciados teleológicos y no-teleológicos no seria de equivalencia sino de implicación. La diferencia entre unos y otros la expresa Nagel en los términos siguientes: Las explicaciones teleológicas concentran la atención en la culmi-

nación y el producto de procesos especíñcos, en particular, en las contribuciones de Ias diversas partes de un sistema al mantenimiento de sus propiedades 0 modos de conducta globales. Las explicaciones no-teleológicas, en cambio, dirigen primordialmen-

LA Exi›LicAcióN ciEN'r|i=icA

247

te la atención a las condiciones en las cuales se inician o persisten procesos específicos, asi como a los factores de los que dependen las manifestaciones persistentes de ciertas características generales de un sistema (Nagel, 19782383). Resumiendo, la diferencia entre las explicaciones teleológicas y noteleológicas está en el énfasis y la perspectiva de la formulación. Según la concepción de Nagel, el uso de las explicaciones teleológicas es absolutamente compatible con los requisitos metodológicos de la

ciencia actual. Esta concepción es la que predomina en los autores procedentes de la tradición empirista, que considera el análisis funcional como una modificación de la explicación teleológica, no necesitando, aunque a veces lo haga, apelar a entidades problemáticas de tipo finalista, con lo cual podemos atribuir al análisis funcional un núcleo claramente empírico. Hempel establece la forma lógica de la explicación funcional del modo siguiente: a) En el momento I, el sistema s funciona adecuadamente en un ámbito de tipo c. b) s funciona adecuadamente en un ámbito de tipo c, sólo si se satisface el requisito n. ` c) I es la clase de condiciones empiricamente suficientes para n en el contexto determinado por s y c; I no es vacio. d) Alguno de los items incluidos por s y c se halla presente en s en el momento r (Hempel, l979:31l). Desde el punto de vista del estatus epistemológico de las explicaciones funcionales, Hempel hace los siguientes comentarios: La información que típicamente nos proporciona el análisis funcional de un ítem i) no brinda un fundamento adecuado deductivo ni inductivo para preferir a I sobre cualquiera de sus otras altemativas. La impresión de que el análisis funcional efectivamente proporciona este fundamento, y por lo tanto explica la ocurrencia de i, se debe sin duda y por lo menos en parte al beneficio del conocimiento post facto: cuando tratamos de explicar un ítem i, ya sabemos presumiblemente que i ha ocurrido... A menudo lo que ha recibido el nombre de «funcionalismo›› debe encararse no tanto como un cuerpo de doctrinas o teorias que propon-

248

n~rriioDuccióN A LA |=ii.osoFlA DE LA ciENc|A gan principios tremendamente generales, tales como el principio del funcionalismo universal, sino más bien como un programa de investigación guiado por ciertas máximas heuristicas o «hipótesis de trabajo››... El análisis funcional en psicología y en las ciencias sociales, como también en biologia, puede concebirse, al menos idealmente, como un programa de investigación orientado a determinar los aspectos y grados en que se autorregulan dichos sistemas (Hempel, 19791310-327).

Lo que Hempel y Nagel llaman «análisis funcional» es calificado por G. H. von Wright como explicaciones «cuasi-teleológicas». Éstas tienen como caracteristica, cosa que no tienen las teleológicas genuinas, una vinculación nómica. En algunos contextos se introduce el término «teleonomia›› para referirse a los ajustes naturales, que resultan de la selección natural, pero podria darse al término un sentido más amplio referido a toda modalidad teleológica que dependa de conexiones nómicas. Por tanto, «teleonomía›› y «explicaciones cuasiteleológicas» vendrían a ser términos con un significado idéntico. J. Elster al contemplar las modalidades de explicaciones cientificas también hace una distinción entre explicaciones funcionales y explicaciones teleológicas, llamando a las últimas «intencionales››. El punto de vista más controvertido de la propuesta de Elster es la negación del papel de la explicación funcional en las ciencias sociales. Dice: Me refiero a explicaciones de fenómenos sociales en ténninos de beneñcios no biológicos. No me atrevería a negar que tales consecuen-

cias beneficiosas puedan explicar sus causas aun cuando los beneficios no sean biológicos, siempre que se especifique algún mecanismo de realimentación. En biologia la teoria de la selección natural crea la presunción de que todo lo que beneficie a la capacidad reproductiva también puede ser aplicado por esos beneficios. En ciencias sociales no existe una teoria de generalidad comparable, de modo que el verdadero mecanismo debe ser explicado en cada caso particular (Elster, 1991123). Haciendo un balance delas aproximaciones de Nagel, Von Wright y Elster a las explicaciones funcionales, podemos sacar las siguientes

conclusiones: a) l-lay que distinguir entre explicaciones funcionales y teleológicas.

LA Exi>LicAcioN ciEN'ri|=iç;,_

249 b) Dentro de las explicaciones funcionales hay difm-enc¡ el análisis funcional aplicado a la biologia y èl ¿Ducado 1 af enffe sociales. a as qenclaä c) Nadie pone en duda la importancia d¢| an¿¡¡s¡s func. ciertos contextos, sin embargo hay va¡o¡.ac¡ones distintas te ional en estatus epistemológico. Specm 3 SU d) La tradición empirista procedente del Circulo de Vi sentada, por lo que a las explicaciones funcionales Se reñere, ena repre.

pel, Nagel y Braithwaite tiende a reconstruir las explicaciontïsof Hcfm nales con la estructura lógica de la explicagión hipotético d uncio. La valoración del estatus epistemológico de dicha; explicacióngluctiva. a partir de los supuestosmetodológicos y epistemológicos u se hace la tradición empirista, tienen que guiar la investigación ¿ln ef fïegun

e) Yon Wright acentúa el carácter nómicg de las ¡-cladonlålsncai explicaciones funcionales como distintivo que las diferencia d ¡en as Ieológicas genuinas. e 351°-

f) Elster deja las explicaciones funcionales

.

. _ . . _ . Para la b ' tionando su aplicabilidad a las ciencias sociales. lologla' cue*

4.2.

Las explicaciones teleológicas

Al abordar las explicaciones teleológicas es conveniente fenómenos que pueden ser objeto de expli¢¡,_c¡Ón teleoló icacotar los planandum de una explicación teleológica es un ítem de congd ay El exde los múltiples sentidos y usos de conducta, sólo vamos ucta, Pero. cuenta el que se refiere a objetos animados, ¢¿¡ac¡e¡.¡zánda ¡tener en «activiforme›› (action-like). Estas acciones pi-esgman dos as O O como interno y otro externo. El interno se refiere 3 ¡a ¡menc¡0nåçât°s: "'10

acción. El externo se refiere a las circunstanchs que acom i ad de la acción y presenta dos fases: una inmediata, que es una acmpãñan a la cular -por ejemplo girar la muñeca o girar el bi-a¿0_ y ml ad musi que es algún acontecimiento del que esta actividad musculía remota' causalmente responsable -por ejemplo el hech d .ar lïesulm . 0 9 Cll-1€ al un t en particular gire o una ventana en particular sc ¿bm g lmdof

Para que una acción sea un explanandum de una e'Xp¡¡c .Ó leológica es necesario que posea los dos aspe¢¡(,s- ¡ am n te' ' m°"10 Y externo 6.

Para esta tarea de delimitación voy a seguir a von wrigin (Von W . h ¡IE 1, l979).

250

¡N-mooucción A LA |=1wsoFlA DE LA ciENc|A

Así, ni los actos mentales, que carecen de aspecto externo, ni la acción refleja, que carece de aspecto interno, podrían ser objeto de explicación teleológica. Por tanto, explicar una conducta consiste en identifícar en ella un objeto de intención. El problema fundamental de este tipo de explicaciones está en cómo analizamos la conexión entre intención y conducta. Lo que se trata de evitar es que el futuro actúe causalmente sobre el pasado, vulnerando así uno de los principios metafísicos] a saber, que la causa es

anterior temporalmente al efecto. Supongamos el siguiente enunciado teleológico: (I) Enrique Vlll de Inglaterra trató de anular su matrimonio con Catalina de Aragón con el tin de tener un heredero. El enunciado (!) no hay que interpretarlo como si el estado futuro (el tener un heredero) aún no realizado fuera la causa de la acción presente (la petición de la anulación de su matrimonio), sino que fue el «deseo›› de un heredero lo que le llevó a la conducta de pedir la anulación de su matrimonio con Catalina de Aragón. La idea de que «la intención está detrás de las manifestaciones extemas de la acción» viene de Descartes, considerando que la voluntad es la causa de la conducta. Esto supondría poder traducir las explicaciones teleológicas genuinas en explicaciones causales, sustituyendo el objeto «que arrastra desde el futuro» por el deseo «que impulsa hacia el futuro» (Von Wright, 1979). Una versión extrema sería la concepción que identifica la propia voluntad con procesos o estados mentales, es decir, el aspecto interno de la acción sería la causa del aspecto externo de dicha acción.

Desde los criterios epistemológicos del empirismo lógico (representado aquí por la postura de Hempel y Nagel) ya no se puede ir más allá de la «Teoría Causal de la Conducta». Según esta concepción la teoría causal de la conducta constituye la única interpretación posible de la conducta que no viola las reglas mínimas de la investigación cientifica. Sin embargo, no podemos olvidar otras propuestas que han intentado extender la lógica de la investigación científica a campos que Hempel y Nagel creían que les estaban vedados. Tal es el caso de Von Wright y de Elster en los que nos vamos a detener. 7. En nuestra categorización de la metodología, equivale a la metodologia de tercer orden metafisica (MSM).

LA EXPLICACIÓN CIENTÍFICA

251

Von Wright presenta un tipo de argumentación que ¿enomina «¡n_ ferencia practica» que se concreta en los términos siguigmesn A se propone de ahora en adelante dar lugar a p en e¡ momento Í A considera de ahora en adelante que, a menos de hacer a no más tarde de r', no estará en condiciones de dar lugar 3 p en e¡ momento Í Por consiguiente, A se dispone a hacer a no más ¡ame de mandé juzgue llegado el momento I', a no ser que se halle impg;¡b¡1¡¡ad° El punto de discusión es si la vinculación entre las premisas y la conclusión de una inferencia práctica es empírica (causal) o conceptual (lógica) (Von Wright, l979:l32).

La respuesta de Von Wright puede resumirse en los siguientes puntos: a) La relación entre las premisas (o determinantes internos de una acción dada) y la conclusión (ola acción misma) de un argumento pl_ác_ tico no es una relación causal, sino una relación conceptua1_ b) El patrón argumental considerado tiene un carácter primordialmente explicativo y sólo secundariamente inferencial. Más pmckamcm es un modelo de explicación intencional. De ahi' que las denominacitì nes de «silogismo (o inferencia) práctico» y de «explicación teleoló 'ca» no sean enteramente adecuadas. El c) esquema (inferencia práctica) de eltplicación intencional no es el único patrón explicativo ni el más usual o ¡¡p¡¢°, a¡ mems en ¡as ciencias sociales, pero si ocupa una posición central en ¢| senüdo de que los demás procedimientos explicativos parecen g¡¡-ar en tomo a é¡ como en torno a su núcleo (Von Wright, l979:l55),

Está fuera de duda que Von Wright acepta el modelo de explicación nomológica-deductiva, y posiblemente estaría dispuesto a concederle privilegios epistemológicos, pero disiente en considerar a este ¿po de explicación como el único posible en la ciencia_ J. Elster (Elster, 1991) argumenta que la adaptación intencional di-

fiere de la funcional en que la primera puede estar dirigida hacia el futuro distante, mientras que la segunda es típicamente mi0p¢_ Los sem 8. Hay que tener en cuenta que hay presentaciones altemativas que cabrian en el mismo esquema. pero la claridad que pretendemos en este texto nos lleva a ;;¢¡¡fi¢¡¡ la profundidad y olvidarnos de las sutilezas. Lo importante es pmsmm, un “quem que sea representativo de una inferencia práctica y Von Wright nos lo pi-0p°¡¢¡°n¿a

252

INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA

intenciona.les pueden emplear estrategias del tipo «un paso atrás y dos adelante», que se dan sólo por accidente en la evolución biológica. La explicación intencional comprende esencialmente una relación triádica entre acción, deseo y creencia. Elster presenta un esquema de su argumentación sobre la intencionalidad:° CONDUCTA

no intencional

intencional ¢ racional K

irracional

\

optimizadora satisfaciente Í \ paramétrica estrategica\\ información completa 1

información incompleta

incertidumbre

riesgo

juegos con estrategias dominantes I \ soluciones soluciones óptimas subóptimas

juegos sin estrategias dominantes / \ con sin solución

En primer lugar vemos que Elster rechaza como posible objeto del explanandum de una explicación intencional la conducta no intencional. Este tipo de conducta es la que Von Wright consideraba acciones a las que les falta el aspecto interno como las acciones reflejas. El punto siguiente en el esquema es la relación entre intencionalidad y racionalidad, ¿puede darse la una sin la otra? La racionalidad implica mínimamente consistencia entre metas y creencias, por tanto,

para demostrar que no es lo mismo hay que demostrar que hay creencias inconsistentes. Para demostrar este tipo de creencias Elster recurre a una historia sobre Niels Bohr, según la cual, una vez Bohr colgó una herradura en la puerta de su casa. Cuando se le preguntó si la habia colocado allí porque creia que le traería suerte, contestó: «No, pero me dijeron que trae suerte incluso a quienes no creen en ella». Si Bohr no estaba haciendo una broma, tenemos un caso de una acción claramente irracional, y sin embargo explicada intencionalmente. 9. Pam la exposición de la explicación intencional voy a seguir de cerca a Elster (Elster, 1990: capitulo lll).

LA Ex1=uc›.cióN CIENTIFICA

253

Llegamos ahora a la relación entre racionalidad y optimalidad. No cabe duda -según Elster- de que la explicación en términos de optimalidad sigue siendo el caso paradigmático de la explicación en las ciencias sociales, sin embargo, hay razones por las que la interpre¡a_ ción de racionalidad como optimalidad no puede generalizarse. Por tanto, podemos afirmar que algunas veces la racionalidad debe entenderse como satisfaciente, en el sentido de encontrar una alternativa «lo suficientemente buena» para nuestro propósito pero no «la mejon›. Vamos a abordar con las propias palabras de Elster cómo presenta la estructura fina de optimizar la conducta. El primer caso y el más simple es lo que denominaré racionalidad pararnétrica, es decir, conducta racional dentro de un medio que el agente (quizás erróneamente) supone formado : a) por objetos naturales go-

bernados por leyes causales, y b) por otros agentes que o bien son tales que su conducta no le resulta diferente, o si le resulta diferente, se su-

ponen menos sofisticados de lo que el es. La última condición implica que el agente piensa en si mismo como una variable y en los demás

como constantes lncluso si el actor supone que el medio es paramétrico, puede tener información incompleta sobre él. En este caso debemos hacer una distinción básica, pero discutida entre riesgo e incertidumbre. Hay riesgo cuando el agente tiene grados cuantificables de creencias, o «probabilidades subjetivas», sobre los diversos estados posibles del mundo Por otro lado, la incertidumbre surge cuando el agente no puede especificar probabilidades numéricas, ni siquiera dentro de un rango de limites inferiores y superiores

La racionalidad estratégica se define mediante un axioma de simetria: el agente actúa en un medio de otros actores. ninguno de 1°; ¢ua_ les puede suponerse menos racional o sofisticado que él mismo. En. tonces, cada actor necesita anticipar las decisiones de los demás antes de tomar la propia, y sabe que hacen lo mismo con respecto a los demás y a él. El enfoque estratégico de la conducta humana se formaliza mediante la teoría de los juegos, que podría haberse denominado más correctamente la teoria de las decisiones interdependientes (Elster, l990:69-71).

La última parte del esquema corresponde a la aplicación concreta de la teoria de juegos pero el análisis de esta aplicación escapa a las pretensiones de este libro.

254 4.3.

¡N-ritooucc1óN A LA mosorlx DE LA cicncm Consideraciones finales

Las propuestas de las explicaciones funcionales y teleológicas se toman, a veces, como una crítica a la modalidad de explicación causal de estructura lógica nomológica-deductiva. Es importante señalar que la explicación nomológica-deductiva y la funcional discurren en pla_ nos distintos ya que ninguno de estos autores (u otros que hayan ¢5¡u_ diado el análisis funcional y la intencionalidad) rechazan la e;rp|¡¢a_ ción causal y nomológica-deductiva como válida en ciertos contextos' ni siquiera negarian (a excepción de los filósofos pertenecientes a la corriente del anarquismo epistemológico «a lo Feyerabend», 0 al ¡-ela. tivismo sociologista «a lo Barnes››) el estatus epistemológico preferente de este tipo de explicaciones. Lo que no aceptan es que la explicación causal de estructura nomológica-deductiva constituya un criterio dc demarcación para dirimir entre ciencia y pseudociencia. Este es el punto capital donde reside la crítica. Por lo demás, es más adecuado ver sus aportaciones como la extensión del análisis metacientifico en su ver. tiente sincrónica a campos marginados por la Concepción Heredada de dicho análisis.

Emmrmcxcrón DE E›u>LrcAcroN1as FUNcioN/u.Es Y 'rELeo1.óG¡¢¿s Biologúz Explanandum: El camaleón tiene la facultad de cambiar de

color. Explanans: La capacidad de poder cambiar de color tiene como función poder carnuflar al camaleón, al hacerlo similar al lugar donde se halla, para así facilitar su supervivencia, Psicologúz Explanandum: La estudiante de filosofia escondió el libro de Heidegger al ver llegar a su profesor. Explanans: La alumna era aficionada a Heidegger; por con. tra, su profesor lo encontraba detestable de manera que para evitar que su profesor se incomodara con ella (función) lo escondió.

LA Exrticxcróu cn:N'riFrc›.

255

Sociologia Explanandum: Los profesores no numerarios de instituto realizaron una huelga la semana pasada. Explanans: Al considerarse discriminados los profesores fueron a la huelga para asi' conseguir que el Estado hiciera caso a sus reclamaciones.

5.

LA Exeuc/tcróu como UNn=tcAcióN

Algunas teorías de la explicación cientifica parten, no del estableCimiento de la estructura lógica requerida (Hempel, Salmon), sino de la introducción de algún criterio epistemológico a partir del cual se Duedan evaluar las explicaciones de un fenómeno dado. 'Tal es el caso de P. Kitcher, para el que el valor explicativo de una teoria reside en SU poder unifìcador. Esta idea -según K.itcher- se encuentra en la Versión no oficial de la Concepción Heredada sobre explicación científica frente a la oficial del modelo de ley cubriente o modelo nomoló_g¡C0-deductivo. Incluso podriamos encontrar este criterio, de forma implícita, en otras concepciones sobre la explicación científica, pero CS Kitcher quien formaliza y define con rigor este criterio. El análisis del poder unificador de las leyes y teorias científicas suD0nc la introducción de una serie de conceptos previos que Kitcher define con precisión. Asi, en un momento (o secuencia) de la historia

de una disciplina puede delimitarse: _ 3) K: es el conjunto de sentencias aceptadas y supuestamente consistentes. b) Almacén explicativo: es el conjunto de argumentos disponiMGS para llevar a cabo los propósitos explicativos. C) E(K): es el almacén explicativo formado a partir de K. Pode“108 definirlo como el conjunto de argumentos aceptables, o sea, como la base para los actos de explicación en que las creencias son exactamente miembros de K. Una teoria unifica nuestras creencias cuando proporciona un (o “n08 pocos) patrón (patrones) de argumentos que pueden ser utilizad°S Cn la derivación de un amplio número de sentencias que nosotros aceptamos. Por tanto, la noción de patrón argumentativo es fundamental para la unificación.

256

INTRODUCCION A LA Fwosorlx DE LA ciENclA

Entender el concepto de explicación es ver que si se acepta un argumento como explicativo, entonces uno se compromete a aceptar como explicativos otros argumentos que son instancias del mismo patrón argumentativo. El problema de la explicación es especificar qué conjunto de argumentos tenemos que aceptar para explicar, dado que sostenemos que una serie de sentencias son verdaderas. Esto no quiere decir que primero tengamos que ponernos de acuerdo sobre qué sentencias incluimos en K. Es decir, al estipular que E(K) es una función de K, no se quiere dar a entender que K es anterior a E(K). d) Sistematización de K: es el conjunto de argumentos por los que se infieren algunos miembros de K de otros miembros de K. Y E(K) es la mejor sistematización de K. e) Un conjunto de argumentos es aceptable respecto a K si cada argumento del conjunto consiste en una secuencia de pasos que preservan las reglas validas de inferencia (deductivas e inductivas) y si cada premisa de cada argumento pertenece a K. f) Conjunto generador: Si Z es un conjunto de argumentos, entonces un conjunto generador de Z es un conjunto de patrones argumentativos l`l tal que cada argumento de 2 es una instancia de algún patrón de l`l. g) 2 es completa respecta a K si y sólo si cada argumento que es aceptable en relación a K y que es una instancia de un patrón de l`l, pertenece a Z. ¿Qué pasos tenemos que dar en nuestra actividad explicativa'!:

1. Tomamos todos los argumentos aceptables respecto a K, que serán los E(K). 2. A continuación delimitamos los conjuntos generadores l'l. 3. Entre los l'l seleccionamos el que tenga mayor poder uniñcador y lo llamamos la base del conjunto de argumentos en cuestión. 4. Especificamos los factores que determinan el poder umficador, el cual se alcanza generando un gran número de sentencias aceptadas que son conclusiones de argumentos aceptados que a su vez son instancias de unos pocos patrones rigurosas, entendiendo por «patrones rigurosos» aquellos que tienen no sólo instancias con estructuras lógicas similares sino que además sus instancias contienen vocabulario no lógico similar en lugares similares.

LA ExP|.|cAc|óN c1EN†iFicA

257

A partir de aquí podemos definir el conjunto conclusión de un conjunto de argumentos 2, C(2) como el conjunto de sentencias que son conclusiones de algún argumento. Podemos resumir la idea de la explicación como unificación diciendo que el poder unificador de una base (B,-) respecto a K varía directamente con el tamaño de C(...¡), varia directamente con el rigor de los patrones que pertenecen a B,, y varía indirectamente con el número de miembros de B,. Hay que añadir que el poder unificador aumenta si las diferentes bases tienen cierta similitud, es decir, si comparten un núcleo común. Kitcher mantiene que esta propuesta salva los problemas de asimetría, de irrelevancia y de generalización accidental que tiene el modelo de cobertura legal. Al mismo tiempo Kitcher da soluciones a las posibles unificaciones espurias que puedan surgir en algunos casos que podrían verse como contraejemplos. Kitcher analiza dos casos históricos como ejemplificaciones de su concepción de la explicación cientifica, a saber: la mecánica de Newton y la teoria de la evolución de Darwin. Aparte de las posibles críticas que puedan hacérsele a Kitcher'° hay una reflexión del propio Kitcher en una nota a pie de página que puede evitarle muchas críticas. Dice: «Creo que esta concepción de la explicación presentada en el presente artículo podría extenderse para cubrir respuestas explicativas a otros tipos de preguntas (tales como preguntas de cómo). Pero quiero rechazar la afirmación de que la unificación es pertinente para todo tipo de explicación» (Kitcher, 1981, en Pitt, ed., l988:185). Esto quiere decir que un caso histórico que no encaje con este criterio no constituye un contraejemplo para Kitcher.

ETEMIPLÍFICACIÓN DE EXPLICACIONES UTILIZANDO EL CRITERIO UNIFICADOR

Lingüística En los inicios de la lingüística generativa, Chomsky formuló el llamado principio A sobre A(A/A) para solucionar problemas de referencia; según él, no se podia trasladar una catel0. Unas puntualiuciones interesantes se encuentran en un artículo inédito de A. Hiskes:
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF