Mario Bunge-Teoría y realidad-Ediciones Ariel (1972).pdf

January 3, 2018 | Author: Cesar Galindo | Category: Model Theory, Theory, Science, Mathematical Model, Empiricism
Share Embed Donate


Short Description

Download Mario Bunge-Teoría y realidad-Ediciones Ariel (1972).pdf...

Description

MARIO BUNGE

TEORIA Y REALDAD ariel

TEORÍA Y REALIDAD

ar i e l quincenal

MARIO BUN6E

TEORÍA Y REALIDAD Traducción castellana de J. L. GARCÍA MOLINA y J . SEMPERE

EDICIONES ARIEL Esplugues de Llobregat BARCELONA

Cubierta: Alberto Corazón

© 1972: Mario Bunge. Montreal © 1972 de la traducción castellana para España y América: Ediciones Ariel, S. A., Esplugues de Llobregat (Barcelona) Dep. legal: B. 16.037 - 1972 Impreso en España

1972. A riel, S.A ., Av. J . Antonio, 134-138, Esplugues de Llobregat. Barcelona

PREFACiO

La naturaleza existe sin ayuda de teorías científicas. Las sociedades preindustriales, también: les bastaba la creencia, la opinión, el conocimiento experto pero pre­ teórico. El hombre moderno no puede prescindir de las teorías científicas para avanzar, sea en el conocer, sea en el hacer. Destruyase toda teoría científica y se destruirá no sólo la posibilidad de avanzar sino también buena parte de lo ya ganado. Pero también: apliqúense mal las teorías científicas y se destruirá a la propia humanidad. Nuestro futuro depende, pues, de nuestras teorías y de la manera de aplicarlas. Hoy día se teoriza, no ya especula, sobre cualquier tema: no sólo acerca de objetos físicos sino también bio­ lógicos y sociales. Algunas ramas de la psicología mate­ mática han alcanzado niveles de complejidad más elevados que algunas ramas de la química. El progreso cien­ tífico se mide hoy por el progreso teórico mejor que por la acumulación de datos. La ciencia contemporánea no es experiencia sino teoría más experiencia planeada, con­ ducida y entendida a la luz de teorías. Estas teorías se presentan, con frecuencia creciente, en lenguaje matemá­ tico: las teorías específicas son, en efecto, modelos ma­ temáticos de trozos de la realidad. Este mero hecho plan­ tea multitud de problemas filosóficos. Por ejemplo: ¿Qué es un modelo teórico? ¿Qué relación hay entre modelo teórico y teoría general? ¿Cómo se ponen a prueba las

teorías? ¿Que función desempeña la teoría en la ac­ ción planeada? ¿Qué papel puede cumplir el trabafo teó­ rico en el desarrollo económico, social y cultural? Tales algunos de los problemas de que trata este libro. Quie­ nes se interesen por otras facetas del problema podrán consultar mi tratado La investigación científica (Barcelo­ na, Ariel, 1969), así como The Myth of Simplicity (Englewood Cliffs, Prentice-Hall, 1963) y Method, Model, and Matter (Dordrecht, Reidel, 1972). Department of Philosophy, McGill University. Montreal, verano de 1972. M. B.

6

CONCEPTOS DE MODELO

Publicado en L’áge de la Science, vol, I (1968). (Trad. cast. de José Luis García Molina.)

I n t r o d u c c ió n

La segunda guerra mundial ha tenido un efecto im­ previsto y saludable en la metodología de las ciencias no físicas: ha revolucionado el modo tradicional de in­ vestigación en esos dominios, al realzar el valor de las teorías, en particular de las teorías formuladas con la ayuda de las matemáticas. Antes se observaba, se clasi­ ficaba y se especulaba; ahora se agrega la construcción de sistemas hipotético-deductivos y se intenta contras­ tarlos empíricamente, incluso en psicología y sociología, fortalezas otro tiempo de la vaguedad. Antes se valían sólo del lenguaje ordinario para expresar ideas, con el resultado siempre de la falta de precisión, incluso de la falta de claridad. La matemática sólo intervenía al final para comprimir y analizar los resultados de investigacio­ nes empíricas con demasiada frecuencia superficiales por falta de teorías: se valían casi exclusivamente de la es­ tadística, cuyo aparato podía encubrir la pobreza concep­ tual. Ahora nos valemos cada vez más para la construc­ ción misma de las teorías de diversas teorías matemáticas. Empezamos a comprender que el fin de la investigación no es la acumulación de hechos sino su comprensión, y que ésta sólo se obtiene arriesgando y desarrollando hipótesis precisas. Lo que sucede en la ciencia pura tiene lugar también en la tecnología: ésta se transforma cada vez más en un sistema hecho de ciencia aplicada y de teorías típica­ mente tecnológicas, tales como la teoría de los servo-

9

mecanismos, la teoría de la información y la teoría de la decisión. Por todas partes, se da el auge de la teoría general y del modelo teorético específico: la victoria de la especulación exacta y sometida al control experimen­ tal sobre la acumulación ciega de datos con demasiada frecuencia sin interés. Incluso la medicina está en trance de ser conquistada por el espíritu de geometría: se empie­ za a aplicar la lógica al diagnóstico clínico, se emplea el cálculo de probabilidades en genética humana, se aplica por todas partes la bioquímica. Está cercano el día en que se sabrá por qué se cae enfermo y cómo curar. Esta revolución científica, la más grandiosa desde el nacimiento de la teoría atómica contemporánea, ha sido posible por el acercamiento físico y la colaboración pro­ fesional de millares de biólogos e ingenieros, psicólogos y matemáticos, sociólogos y físicos, en algunos servicios de guerra en los Estados Unidos y, a escala más peque­ ña, en Gran Bretaña durante la segunda guerra mun­ dial. Tan pronto terminó la guerra, hubo un alud de nue­ vos planteamientos, nuevas teorías y nuevas discipli­ nas nacidas de esos contactos: la teoría general de los sistemas, la cibernética, la teoría de la información, la teoría de los juegos, la sociología matemática e incluso la lingüística matemática. Al mismo tiempo se consoli­ daban la biología matemática y la psicología matemática. N o son ya ensayos tímidos sino campos respetables ser­ vidos por revistas de alto nivel tales como el Journal of Tbeoretical Biology, el Journal of Mathematical Psychology y Operations Research, y numerosos tratados y re­ copilaciones de textos ya clásicos, tales como la Mathe­ matical Biophysics . de N . Rashevsky, el Handhook of Mathematical Psychology en tres volúmenes de R. D . Luce, R. R. Bush y E. Galanter, la Introduction to Ma­ thematical Sociology de J. S. Coleman y los Mathematical Models in the Social Sciences de J. G. Kemeny y J. L. Snell. Podemos situar esta revolución por los años en tor­

io

no a 1950. N o se trató simplemente del reemplazo de una teoría científica por otra: fue el esfuerzo de teorización en campos hasta entonces no teóricos. Fue una nueva metodología, una nueva manera de trabajar la que nació hacia 1950 en las ciencias no físicas. Empezamos plan­ teando problemas bien circunscritos y lo hacemos con cla­ ridad, a ser posible en lenguaje matemático; avanzamos, para resolverlos, hipótesis precisas; producimos datos em­ píricos a fin de verificarlos; examinamos el peso de esos datos y el grado en que confirman o refutan las hipóte­ sis; en fin, se discuten cuestiones metodológicas y, en ocasiones, incluso filosóficas planteadas por esos proce­ dimientos. E n suma, la ciencia se hace, un poco por todas partes, ' tal como los físicos la han hecho desde Galíleo, a saber, planteando cuestiones claras, imaginando modelos con­ ceptuales de las cosas, a veces teorías generales, e inten­ tando siempre justificar lo que se piensa y lo que se hace ya sea por la lógica, ya por otras teorías, ya por experiencias iluminadas por teorías. Esta revolución en las ciencias no físicas no es pues sino la adopción del método científico monopolizado en otro tiempo por la fí­ sica. Ahora entre las diferentes ciencias positivas sólo hay diferencias de objeto, de técnicas especializadas y de estadios de evolución: desde 1950 son metodológica­ mente uniformes. N o es una fiscalización de la ciencia: no se trata de renunciar a estudiar los procesos no físicos o de intentar reducirlos a procesos físicos, sino de es­ tudiarlos científicamente y en profundidad. La revolución iniciada hacia 1950 estriba en la manera de abordar el estudio de los objetos no físicos. Intentaremos desgajar aquí una de las característi­ cas de esta nueva metodología, a saber, la construcción de objetos modelos y modelos teoréticos.

11

I. Se

e m p ie z a

p o r e s q u e m a t iz a r

La conquista conceptual de la realidad comienza, lo que parece paradójico, por idealizaciones. Se desgajan los rasgos comunes a individuos ostensiblemente diferentes, agrupándolos en especies (clases de equivalencia). Se habla así del cobre y del homo sapiens. Es el nacimiento del objeto modelo o modelo conceptual de una cosa o un hecho. Pero eso no basta; si se quiere insertar este objeto modelo en una teoría, es menester atribuirle pro­ piedades susceptibles de ser tratadas por teorías. Es pre­ ciso, en suma, imaginar un objeto dotado de ciertas pro­ piedades que, frecuentemente, no serán sensibles. Se sabe bien que procediendo de esta manera se corre el riesgo de inventar quimeras, pero no hay otro medio, dado que la mayor parte de las cosas y de las propiedades están ocultas a nuestros sentidos. Se sabe también que el mo­ delo conceptual despreciará muchos de los rasgos de la cosa y que separará las características que individualizan los objetos: pero, desde Aristóteles, se ha convenido en que no hay ciencia sino de lo general. Y , si un modelo dado no da todos los detalles que interesan, será posible en principio complicarlo. La formación de cada modelo comienza por simplificaciones, pero la sucesión histórica de los modelos es un progreso en complejidad. Piénsese en los modelos más audaces: los que repre­ sentan un sistema tridimensional en dos dimensiones o er una sola, tal como el modelo de Ising de la materia en es­ tados condensados. Se formula la hipótesis de que las moléculas están linealmente ordenadas y que sólo tienen acción sobre sus vecinas. Este modelo hipersimplificado de los líquidos y de los sólidos fue propuesto en 1920 por W . Lenz, quien propuso a su alumno E. Ising el problema de construir el modelo teorético correspondien-

12

te, es decir, la teoría describiendo este objeto modelo.1 En ese caso, la tarea consistía en insertar este objeto modelo en la mecánica estadística clásica, teoría muy general que no se pronuncia sobre la naturaleza de los individuos que forman conjuntos estadísticos y que, por consiguiente, puede aplicarse tanto al modelo de Ising como a un modelo de población animal. Ising dio la solución exacta (1925), pero ésta se reveló incapaz de dar cuenta de transiciones cualitativas típicas tales como la del estado ferromagnético. Diagnóstico: el modelo es falso. Pronóstico: compliqúese el modelo, expandiéndolo, al menos, a dos dimensiones. Ising se desanimó y aban­ donó la física. La tarea fue reemprendida en 1942 por L. Onsager, quien obtuvo excelentes resultados, tan bue­ nos, en efecto, que se espera con impaciencia y espe­ ranza la solución del problema más realista del modelo de Ising de tres dimensiones, problema aún abierto. Ciertamente, este modelo de la materia constituye una representación excesivamente simplista de las cosas pero, incluso así, plantea espantosos problemas matemáticos (esencialmente el cálculo de la función de partición o fuente de las diversas propiedades del sistema), ¿Con qué objeto, pues, invertir tantos esfuerzos en un modelo que se sabe que es físicamente demasiado simple y ma­ temáticamente demasiado complicado? Sencillamente, por­ que no podríamos proceder de otra manera. Sea que se disminuya o multiplique el número de las dimensiones de un espacio, sea que se simplifique el dato o conjetura de las entidades y propiedades suprasensibles (no obs­ tante, supuestamente reales), se construyen modelos con­ ceptuales sólo los cuales podrán darnos una imagen sim­ bólica de lo real. Las otras vías — la razón pura, la in­ tuición y la observación— han fracasado. Sólo modelos 1 1, La historia dramática de este modelo acaba de ser narrada por S. G. Br u sh , «History of the Lenz-Ising Model», Keview of Modern Pbysics, 39, 883 (1967).

13

construidos con la ayuda de la intuición y de la razón y sometidos a contestación empírica han triunfado y, sobre todo, son susceptibles de ser corregidos en caso de necesidad. Echemos una ojeada a una obra reciente dedicada por entero a modelos hipersimplificados de sistemas físi­ cos: Mathematical Physics in One Dimensión, de Lieb y Mattis,2 Se encuentran allí trabajos hoy clásicos tales como los de Kac, Uhlenbeck y Hemmer sobre un modelo lineal de un gas capaz de imitar el proceso de condensa­ ciones; el artículo de Dyson sobre la dinámica de una ca­ dena caótica; los trabajos de Kronig y Penney sobre el movimiento de los electrones en redes lineales y muchos otros. N o son ejercicios académicos de matemáticas apli­ cadas sino modelos teoréticos de objetos reales: son teo­ rías que especifican representaciones esquemáticas de ob­ jetos físicos. Así la cadena desordenada tratada por Dyson es un modelo grosero del vidrio. Estas fantasías tienen, pues, una intención: la de apresar la realidad. ¿Cómo? Oigamos a los autores de este volumen singular: la solu­ ción de los problemas de una dimensión «constituye una contribución a la explicación de la realidad: al educarnos en la necesidad del análisis riguroso y exacto, nos condu­ cen a una aproximación más crítica y matemática y final­ mente a una mejor definición de la realidad».3 Es verdad que al trabajar sobre modelos de una dimensión (en ge­ neral, sobre objetos modelos) se desprecian compleji­ dades reales, pero en compensación se obtienen solucio­ nes exactas, que son más fáciles de interpretar que las soluciones aproximadas de problemas más complejos, y nos procuramos también el camino para abordar esos problemas más complicados. Ciertamente, deberemos es­ tar a la espera del fracaso de uno cualquiera de esos 2. E. H, Lieb y D. C, Mattis, eds., Mathematical Physics in One Dimensión (Nueva York, Academic Press, 1966). 3. Lieb y Mattis, op. cit., p. vi.

14

modelos hipersimplifícados, pero en ciencia todo fracaso de una idea puede ser instructivo porque puede sugerir las modificaciones que será necesario introducir a fin de obtener modelos más realistas.4 En resumen, para apresar la realidad se empieza por apartar información. Se agregan, luego, elementos imagi­ narios (o más bien hipotéticos) pero con una intención realista. Se construye así un objeto modelo esquemático y que, para dar frutos, deberá injertarse en una teoría susceptible de ser confrontada con los hechos.

2. A CONTINUACIÓN, SE TRAZA UNA IMAGEN DETALLADA DEL MODELO

N o basta con esquematizar un líquido como una red de moléculas o un cerebro como una red de neuronas: es preciso describir todo eso con detalle y de acuerdo con las leyes generales conocidas. Dicho de otra manera, es menester construir una teoría del objeto modelo — en una palabra, un modelo teorético. La teoría cinética de los ga­ ses es un modelo teorético tal, mientras no lo son la mecá­ nica estadística general ni la termodinámica, puesto que no especifican las particularidades del gas. La teoría gene­ ral de los grafos, tampoco lo es, mientras sí lo es su apli­ cación a organizaciones humanas tales como la empresa. D e esto se desprende una primera caracterización de la no­ ción de modelo teorético: un modelo teorético es un sistema hipotético-deductivo concerniente a un objeto 4. El ejemplo clásico de las modificaciones sugeridas por el fracaso experimental de un modelo teorético es el de las ecuaciones de estado de los gases. Para discusiones instructivas a propósito de los modelos teoréticos en psicología contemporánea, cf. R. R, Bush y F. Mosteller, Stocbastic Models for hearning (Nueva York, Wiley, 1955) y S. Sternberg, «S tochas tic Learning Theory», en R. D. L uce, R. R. Bush y E. G alanter, eds., Handboók of Mathetnatical Psyckology, vol. I I (Nue­ va York, Wiley, 1963).

15

modelo que es, a su vez, una representación conceptual esquemática de una cosa o de una situación real o su­ puesta real. Volveremos sobre esto en la sección 4. Por el momento recordemos algunos ejemplos. La teoría contemporánea del estado sólido fue fun­ dada por Bloch hace cuarenta años. La idea maestra de Bloch fue aplicar la mecánica ondulatoria, una teoría ge­ nérica, a un modelo simple del cuerpo cristalino. Los constituyentes de ese modelo son un conjunto de centros fijos que representan los átomos, y un conjunto de elec­ trones (o más bien electrones modelos) paseándose entre los centros fijos. La red de centros fijos se supone rígida (ficción), la interacción entre los electrones se supone nula (ficción) y la interacción electrón-red se representa por un potencial periódico en el espacio pero constante en el tiempo (aproximación). A continuación se inserta ese modelo en el vasto armazón de la mecánica cuán­ tica. En el curso de los cálculos será preciso a menudo hacer aproximaciones matemáticas adicionales. Sin em­ bargo, el resultado frecuentemente está de acuerdo con las informaciones empíricas, lo que sugiere que nos en­ contramos ante una imagen casi verdadera de la realidad (una imagen no visual, bien entendido). Así, aunque ini­ cialmente no se postulen diferencias entre conductores, semiconductores y aisladores, se obtiene esta partición al analizar la distribución de los niveles (o más bien de las bandas) de energía. Estas bandas están separadas por regiones llamadas prohibidas (no estados). Si todas las bandas de energía están ocupadas por los electrones, no habrá corriente eléctrica: he ahí el aislador. Este mo­ delo teorético explica un cierto número de propiedades macrofísicas de la mayor parte de los cristales puros: las conductividades térmica y eléctrica, la susceptibilidad magnética, las propiedades ópticas, etc. Otras propieda­ des, tales como la luminiscencia, se explican al complicar el modelo de Bloch: agregándole impurezas, suponiendo desórdenes en la red, etc. Cuanta más fidelidad a lo real

16

se exige, más deberán complicarse los modelos teoré­ ticos. En otras ciencias se procede de manera análoga. To­ memos, por ejemplo, el modelo de cerebro propuesto por Me Culloch y Pitts hace un cuarto de siglo. Este modelo sólo se interesa por las fibras nerviosas y no penetra en el mecanismo de la conducción nerviosa: es un modelo semifenomenológico que habrá que completar con otros modelos, teniendo en cuenta procesos electrolíticos. Se desprecia también el tiempo de conducción a lo largo de los ejes, y se supone que el relevo sináptico es cons­ tante e igual para todas las neuronas. Se formula luego la hipótesis central del modelo teorético, a saber, que una neurona sólo descarga cuando las neuronas prece­ dentes han descargado en el momento precedente. Este enunciado se traduce inmediatamente a fórmulas, una para cada tipo de conexión. Una vez en posesión de esas fórmulas se trata de aplicarles un cálculo matemático ya existente (si el caso falla deberá inventarse una nueva teoría matemática). En este caso, el álgebra de Boole. Se construye así una teoría que logra explicar algunos pro­ cesos neurofisiológicos. Si se quiere ir más allá se debe­ rá complicar este modelo — por ejemplo, introduciendo un elemento de azar. Si se supone que los contactos si­ nópticos se producen al azar, se puede plantear y re­ solver la cuestión de la probabilidad de la formación al azar de ciertos circuitos nerviosos, lo que podrá explicar la aparición de pensamientos que parecen venir de la nada. Esto es lo que han hecho Rapaport y sus colabora­ dores: desarrollar modelos estocásticos del sistema ner­ vioso central. Los modelos estocásticos están de moda en psicolo­ gía, una vez se ha comprendido que la conducta animal está lejos de ser sistemática y coherente. En particular, se han construido diversos modelos estocásticos del apren­ dizaje. Lo que hay de común en todos esos modelos es esto: en primer lugar, ignoran las diferencias de espe­

17 2. —

bunce

cié así como las diferencias de nivel de los procesos en cuestión. Segundo, rechazan todas las variables biológicas, concentrándose en los estímulos, respuestas y efectos de las últimas (en particular, gratificación y punición). En tercer lugar, la hipótesis central de cada modelo es una fórmula que da la probabilidad de respuesta de un sujeto en función del número de ensayos y de la secuencia de acaecimientos anteriores. En todo caso, lo que se llama «modelo estocástico de aprendizaje» es en realidad la hi­ pótesis central de una teoría específica (modelo teoréti­ co) que entra en el cuadro general de la teoría del apren­ dizaje. Bien entendido, una hipótesis sólo es central por estar rodeada de hipótesis subsidiarias que conciernen ya sea a la estructura matemática de los símbolos ya a su significación. Resumiendo, una vez se ha concebido un modelo de la cosa, se la describe en términos teóricos, sirviéndonos para esto de conceptos matemáticos (tales como los de conjunto y probabilidad) y tratando de encuadrar el todo en un esquema teórico comprehensivo — lo que apenas es posible en ciencias nuevas, por ricas que sean en vi­ siones de conjunto y concepciones grandiosas pero pura­ mente verbales.

3. D e

LA CAJA NEGRA AL MECANISMO

Hay diversas clases de objeto modelo y, por consi­ guiente, de modelo teorético. En una extremidad del es­ pectro tenemos la caja negra provista solamente con ter­ minales de entrada y salida; en la otra se encuentra la caja llena de mecanismos más o menos ocultos que sirven para explicar el comportamiento exterior de la caja. El procedimiento natural — que no es sín embargo el del curso histórico— es comenzar por el objeto modelo más simple, agregarle después una estructura simple (por ejem­ plo, mediante la división de la caja en dos) y proseguir

18

ese proceso de complicación hasta llegar a explicar todo aquello que se quiere. Va de sí que no es cuestión de imitar los epiciclos de Ptolomeo: los mecanismos hipotéti­ cos deberán tomarse en serio, como representando las entrañas de la cosa, y se deberá dar prueba de esta con­ vicción realista (pero al mismo tiempo falible) imagi­ nando experiencias que puedan poner en evidencia la realidad de los mecanismos imaginados. En otro caso, se hará literatura fantástica o bien se practicará la estra­ tegia convencionalista, pero en modo alguno se partici­ pará en la búsqueda de la verdad. Sea un sistema cualquiera, máquina u organismo, mo­ lécula o institución, y supongamos que nos proponemos describir y predecir su comportamiento sin ocuparnos por el momento de su composición interna ni de los pro­ cesos que puedan tener lugar en su interior. Se construi­ rá entonces un modelo del tipo caja negra, que cons­ tituirá una representación del funcionamiento global del sistema, tal como la idea que el niño se hace del coche, la radio o la televisión. Supongamos aún que se eliminan todos los factores que actúan sobre la caja salvo uno, llamado la entrada E, y que sólo se considera como im­ portante una única propiedad influida por la entrada; llamémosla la salida S. La representación más sencilla de los acaecimientos que implica la caja negra será una ta­ bla que despliegue los diversos pares E , S de los va­ lores de la entrada y la salida. Cada acaecimiento vendrá representado por uno de esos pares, el cual será el mo­ delo de aquél. Pero esta descripción del modelo es de­ masiado primitiva y poco económica. Se ganará reem­ plazando la tabla por una fórmula general que enlace los dos conjuntos de valores E y S. Podrá ser, por ejemplo, una fórmula que dé la tasa de cambio temporal de S en función de los valores instantáneos de E. Esta fórmula expresará de modo sucinto y general la forma de com­ portarse el sistema modelo, sin no obstante decir nada sobre las transformaciones internas sufridas por el sis­

19

tema real. Si se enlaza esta fórmula general con otras, y particularmente si se logra insertarla en un sistema teó­ rico general, se tendrá un modelo teorético del sistema concebido como una caja negra, es decir, de una manera simplista pero que bastará para satisfacer temporalmente nuestras necesidades, sobre todo si esas necesidades son de orden práctico, A poco que avance la investigación nos veremos lle­ vados a introducir otras variables de los mismos tipos (entradas y salidas) así como variables de un tercer tipo, a saber, variables J que especifiquen el estado interno del sistema. La ley del sistema, o más bien la representa­ ción esquemática de la ley, será entonces una fórmula que enlace las tres variables, E, I y S — o mejor, todo un conjunto de fórmulas que enlazan esas variables. Si el modelo puede reaccionar no sólo de una manera dada, es decir de acuerdo con una cierta ley, sino también pasar a una forma distinta de conducta (ley), sea es­ pontáneamente o bajo la acción de un agente exterior, se deberá complicar el modelo agregando las leyes de esos cambios de forma de conducta. Pensemos en un reloj empleado como proyectil o en un individuo que toma una dosis de LSD. En esos casos se deberá añadir un conjunto de fórmulas que enlacen las nuevas variables con las antiguas. En suma, un modelo teorético de la con­ ducta de un sistema es un grupo de enunciados (pre­ ferentemente de forma matemática) que enlazan las va­ riables exógenas E y S y las variables endógenas I del sistema, siendo concebidas las últimas como variables in­ termedias que tienen un valor de cálculo mejor que como representando detalles internos del sistema.5 5. Para una rica colección de cajas negras, cf. W. R. Ash by , Introáuction to CyberneUcs (Londres, Chapman and Hall, 1956). (Trad. cast. de Jorge Santos, Introducción a la Cibernética [Buenos Aires, Nueva Visión],) Para una teoría general, véase M. Bunge, «A General Black Box Theory», Pbilosopby of Science, 30, 346 (1963). Para un análisis epistemológico de las teorías de este género, v, M, Bunge, «Phenomenolo-

20

Un modelo tal, por así decir conductísta, de un sis­ tema satisfará las exigencias de la filosofía empirista (po­ sitivismo, pragmatismo, operacionalismo, fenomenalismo), puesto que sin rebasar demasiado lo observable, permite condensar un gran número de datos empíricos y predecir la evolución del sistema. Pero no llegará a explicar su conducta y permanecerá bastante aislado del resto del sa­ ber. Para obtener una explicación tal y establecer con­ tactos con otras teorías y, con mayor razón, con otras disciplinas, será preciso desmontar el mecanismo. (Que siempre haya un mecanismo interno es una hipótesis me­ tafísica muy audaz, pero que en todo momento ha es­ timulado la investigación, en tanto que la filosofía de la caja negra no hace sino estimular la superficialidad.) Este desmontaje no es difícil en el caso de un reloj, pero, en general, trátese de la emisión de la luz o de la emisión del pensamiento, es una tarea ciertamente difícil. La ra­ zón de ello reside en el hecho de que la mayor parte de los mecanismos responsables de las apariencias están ocul­ tos. Entonces, en lugar de tratar de verlos, hay que ima­ ginarlos; incluso si se logra finalmente observar una parte de esos mecanismos, lo es gracias a la ayuda de hipótesis previas. Es fácil ver que el funcionamiento de una caja negra puede explicarse por una infinidad de hipótesis concer­ nientes a los mecanismos subyacentes. En efecto, para cada función / que enlace las entradas E con las salidas 5, hay una infinidad de pares de funciones g y h tales que g aplica el conjunto E de entradas a un conjunto I de intermediarios, b aplica éstos al conjunto S de salidas, y en fin tales que la composición de g y h sea igual a la función dada. Si se interpretan esos diversos intermedia­ rios en términos físicos, biológicos o psicológicos, se tie­ ne un conjunto de mecanismos para cada caja negra — a gícal Theories» (publicado en este volumen), en M. Bunge, ed., The Critical Approach (Nueva York, Free Press, 1964).

21

condición de no exigir que esas hipótesis concuerden con lo que se sabe de otra parte. Los empiristas tienen esta ambigüedad por un defecto de los modelos que van más allá de la conducta exterior. Por el contrario, los realis­ tas encuentran ahí una virtud de las concepciones más ricas, porque si se tiene la suerte de encontrar el meca­ nismo real, entonces la conducta aparente queda deter­ minada únicamente por ese mecanismo, mientras que la recíproca es falsa. Dicho de otra manera, si suponemos un mecanismo derivamos su funcionamiento, en tanto que si se da el último sólo cabe adivinar el primero. Una hipótesis sobre mecanismos ocultos sólo podrá con­ siderarse como confirmada cuando satisfaga las condi­ ciones siguientes: dar cuenta del funcionamiento obser­ vado, prever hechos nuevos más allá de los que pueden ser previstos por modelos de caja negra y estar de acuerdo con la masa de leyes conocidas.6 Estas exigencias redu­ cen el conjunto de los modelos de mecanismos y permi­ ten someterlos a contrastaciones empíricas. Podemos, pues, proponer de un sistema dado una gran variedad de modelos; cajas negras sin estados inter­ nos y cajas con mecanismo (sea mecánico u otro); cajas negras deterministas y cajas estocásticas; cajas de un solo nivel (por ejemplo, físico) o de varios (por ejemplo, físico y biológico), y así sucesivamente. La elección entre esos diversos objetos modelos y los modelos teoréticos correspondientes dependerá del objetivo del investigador. Si se trata solamente de manejar un sistema, entonces una caja negra podrá bastar; pero si se quiere compren­ der su funcionamiento, sea por curiosidad o por querer do­ minarlo o modificarlo, entonces no será posible dejar de imaginar modelos más o menos profundos que gocen 6. Para una discusión de los diferentes criterios en juego para una evaluación de las teorías científicas, véase M. Bunge, Scientific Research {Berlín-Heidelberg-Nueva York, Springer-Verlag, 1967), vol. II. (Trad. cast. en un solo volumen de Manuel Sacristán, La investigación cientí­ fica [Barcelona, Ariel, 1970].)

22

del apoyo de teorías generales así como de experiencias nuevas. Como lo dice el biólogo Pringle,7 al hablar de modelos de músculo, podremos prescindir de modelos si el objetivo es puramente la síntesis de un conjunto de datos empíricos: en tal caso bastarán la tabla numéri­ ca y la curva empírica. Pero si el objetivo es el análisis ulterior de los datos o bien la construcción de una guía para una exploración más profundizada, entonces será menester imaginar modelos teoréticos, sólo los cuales podrán justificar la adopción de una curva empírica an­ tes que otras curvas satisfagan los mismos datos. En resumen, a nosotros nos corresponde decidir adonde que­ remos llegar al tomar el camino de la investigación: la opción está entre el conocimiento superficial (descripción y previsión de la conducta) y el conocimiento profundi­ zado (explicación y capacidad de prever efectos insos­ pechados), Pero en los dos casos se trata de la cons­ trucción de objetos modelos y modelos teoréticos.

4. Análisis de las nociones de objeto modelo Y MODELO TEO RÉTIC O

En su admirable tratado de cibernética, Ashby nos pone en guardia frente a la identificación de un modelo cibernético (al que llama «sistema») con el objeto real que se quiere que represente. Un sistema cibernético no es sino la idealización de un sistema real o realiza­ ble y hay tantas idealizaciones como datos, objetivos y tipos de imaginación teórica. Así una máquina pare­ cerá a un observador que pueda examinarla de cerca determinada, en tanto que otra parecerá estocástica a otro que ignore que el azar se concentraba en las entradas. En consecuencia, ambos investigadores construirán mo7. J, W. S. P ringle, «Models of Muscle», Symposia of tbe Society for Experimental Biology, 14, 41 (1960).

23

délos diferentes del mismo sistema. Incluso teniendo ac­ ceso a la misma información sólo por azar llegarán al mismo modelo, puesto que la construcción de objetos modelos y modelos teoréticos es una actividad creadora que pone en juego los conocimientos, las preferencias y aun la pasión intelectual del constructor. Un objeto modelo, pues, es una representación de un objeto: a veces perceptible, a veces imperceptible, siem­ pre esquemática y, en parte al menos, convencional. El objeto representado puede ser una cosa o un hecbo. En este último caso se tendrá acaecimientos modelos. Por ejemplo, el choque de un número a de automóviles que tenga por resultado un número b de heridos podrá repre­ sentarse por el par ordenado . Desde el punto de vista del ingeniero de tráfico interesado por la organiza­ ción del tráfico (lo que es posible incluso en París), to­ dos los choques de automóviles caracterizados por el mis­ mo par de valores a y b son equivalentes, aunque las circunstancias de las colisiones sean muy diferentes. P o­ drá, pues, suponer en su trabajo que todo hecho / de este género está representado por un par tal: podrá escribir \ a , by A f , en donde 4A ’ designa la relación de mo­ delo a hecho (o cosa). Mientras que / nombra algo con­ creto e individual, su modelo m = by es un concepto. Lo mismo sucederá con cualquier otro objeto modelo: se tendrá siempre A f , que se podrá leer ‘m representa (o modeliza) / ’. Así el químico representará una molécula de una especie dada por un cierto operador hamiltoniano, el sociólogo podrá representar la movilidad social en una comunidad por una matriz de probabilidad de transición, y así sucesivamente. Por un lado, el objeto modelo m re­ presenta toda una clase de cosas (o de hechos) considera­ das como equivalentes aunque difieran entre sí. La rela­ ción A entre modelo y objeto concreto es pues una relación multívoca. Si se prefiere, m representa no a un individuo concreto sino más bien a toda una clase (de equivalencia) R de objetos concretos: m A R. Por otra

24

parte un individuo concreto cualquiera podrá representar­ se de diversas maneras, según los medios de que se dis­ ponga y los fines de la representación. En principio, dado un individuo real r, es posible dar del mismo todo un conjunto M. de modelos: M A r. En resumen, la rela­ ción A . no es biunívoca sino que debe concebirse como una relación entre el conjunto M de objetos modelos y el conjunto R de sus referentes: M A K . Esta relación A de imagen conceptual a cosa repre­ sentada es la relación satisfecha por los conceptos teóri­ cos y sus referentes concretos. Figurará pues explícita­ mente en toda formulación cuidadosa de una teoría cien­ tífica. Así, por ejemplo, al dar los axiomas de una teo­ ría de los campos electromagnéticos, se deberá recordar que el tensor campo representa el campo (aunque haya autores para los que el tensor es el campo). En resumen, la formulación explícita de las reglas y las hipótesis semán­ ticas de una teoría científica exigen la relación A de re­ presentación por un modelo.® U n objeto modelo (incluso ingenioso) servirá de poco a menos que se lo encaje en un cuerpo de ideas en cuyo seno puedan establecerse relaciones deductivas. Hay que tejer pues, como ya hemos dicho, una red de fórmulas alrededor de cada objeto modelo. Si ese cuerpo de ideas es coherente, constituirá un modelo teorético de los in­ dividuos concretos r del tipo R. Dicho de otra manera, un modelo teorético de un objeto r supuesto real es una teoría específica T«, concerniente a r, y esta teoría está constituida por una teoría general T g enriquecida con un objeto modelo ffiA r . O también: un modelo teo­ rético Ts es una teoría general equipada con un objeto modelo m A r : T# = . Cuando un sistema teo­ rético de un objeto modelo se enriquece mediante el di-8 8. M. Bunge, «Physícal Axiomatics», Reviews of Modern Pbysics, 39, 463 (1967) y Foundaticms e f Physics (Berlín-Heidelberg-Nueva York, Sprínger-Verkg, 1967).

25

seño de algunos detalles del objeto concreto en cuestión, se restringe el dominio de aplicación de la teoría general pero en compensación la hacemos verificable. Si el modelo teorético Te no concuerda con los hechos y si razonablemente se puede estar seguro de que el error no proviene de los datos experimentales, habrá que modificar las ideas teóricas. Esto se dice más rápi­ damente de lo que se hace, pues caben diversas posibi­ lidades: ya sea variar el objeto modelo ya conser­ varlo adoptando una teoría general distinta Tl 9> puesto que toda teoría especial está constituida, en principio, por un m y una Tg que no se dejan determinar recí­ procamente, Así si ciertos cálculos sobre la propagación de la luz en la vecindad del sol no prosperan, se podrá tratar de complicar el modelo del sol (por ejemplo, elip­ soide que gira en lugar de masa puntual), o de modificar la teoría general de la gravitación y /o de la luz. E l tipo de cambio preconizado dependerá de los servicios rendidos en el pasado por el objeto modelo y por las teorías ge­ nerales implicadas. Si estas últimas han triunfado con anterioridad, será prudente ensayar un nuevo objeto mo­ delo; para esto habrá necesidad quizá de nuevos datos empíricos. Pero si la teoría general ha fracasado en va­ rias ocasiones, o si aún es nueva y por consiguiente po­ see un valor de verdad incierto, entonces será convenien­ te ensayar otros sistemas teoréticos generales. En todo caso, el procedimiento de verificación de un esquema ge­ nérico no puede prescindir de la construcción de diver­ sos objetos modelos, y el procedimiento de verificación de un modelo teorético puede llegar a ser tan compli­ cado como se quiera.9 Tan complejo incluso que en el momento actual no se sabe cuál de entre los diversos mo-

9. Véase M. Bunge, La investigación científica y «Theory meets Experience», en M. K. Munitz y H. Kiefer, eds., The Uses of Philosopby (Albanv, N. Y,, New York State University Press, en prensa).

26

délos estocásticos de aprendizaje es el más verdadero, aunque sean muy diferentes los unos de los otros.10 En resumen, debemos distinguir las construcciones si­ guientes: el objeto modelo m que representa los rasgosclave (o supuestamente clave) de un objeto concreto r (o que se supone concreto); el modelo teorético Ts que especifica el comportamiento y /o el(los) mecanismo! s) interno(s) de r por vía de su modelo m, y la teoría gene­ ral Ts que acoge Ts (y otras varias) y que deriva su va­ lor de verdad así como su utilidad de los diversos mo­ delos teoréticos que se pueden construir con su ayuda, pero jamás sin suposiciones ni datos que la desborden, y recogidos por el objeto modelo m.

5. M odelos, dibujos, análogos D e manera más o menos esquemática, una cosa puede representarse por un dibujo o un dibujo animado que será entonces un modelo concreto de la cosa. Esta represen­ tación será literal o simbólica, figurativa o enteramente convencional. En todo caso será parcial pues supondrá que ciertas propiedades de la cosa no merecen representarse, bien por considerarlas secundarias, bien porque las uvas están demasiado verdes. Además, toda representación, incluso visual, es hasta cierto grado convencional: hay siempre un código, familiar o tácito, especial o explícito, que nos permitirá interpretar el dibujo como siendo un modelo de un cierto objeto concreto; de otro modo no será un modelo sino una pura invención. Una misma cosa, además, podrá representarse de maneras diversas que no serán necesariamente isomorfas (por ejemplo topológicamente equivalentes entre sí) y la variedad de las repre­ 10. Véase S. Steknberg, op. cit. y B. F, R itc h ie , «Conceming an Incurable Vagueness in Psychological Theoríes», en B. B. W olman y E. N agei,, eds., Scientific Psychology (Nueva York, Basic Books, 1965).

27

sentaciones no estará limitada por nuestra imaginación. Éste no es el caso de los objetos modelos que forman parte de las teorías científicas: aquéllos aun pudiendo ser representados visualmente están sujetos a la evolu­ ción de nuestros conocimientos. Luego no es posible variarlos arbitrariamente. Ahora bien, las teorías específicas o modelos teoréti­ cos encierran objetos modelos del tipo conceptual más bien que representaciones visuales literales o figurativas. Ciertamente, se puede a menudo describir el modelo con la ayuda de un diagrama e incluso, a veces, con la ayuda de un modelo material: eso ayuda a comprender ideas difíciles y algunas veces a inventarlas. En todo caso ni diagramas ni análogos materiales pueden representar el objeto de una manera tan precisa y completa como lo hace un conjunto de enunciados. La fuerza de un objeto mo­ delo del tipo conceptual no es de naturaleza psicológica (heurística o pedagógica): reside en el hecho de ser una idea teórica, y por tanto una idea que puede injertarse en una máquina teórica para hacerla rodar y producir otras ideas interesantes. El dibujo, incluso cuando es posible (lo que no suce­ de en el caso de los electrones y de las ideas) no reempla­ za al objeto modelo. Y cuando es posible y útil ofrecer una representación visual del objeto modelo, el último precede frecuentemente al dibujo y éste es siempre menos rico que la idea representada. (Nótese que tenemos aquí tres objetos, de los cuales dos son concretos, uno de ellos sirviendo para fijar la idea del otro.) Así un esquema de una red eléctrica nos mostrará la naturaleza y la dispo­ sición de los diversos elementos, a condición de captar las ideas tras los símbolos que contiene; aún así podrá decirnos muy pocas cosas sobre el proceso que tiene lu­ gar en el interior y en el exterior de la red, proceso que por el contrarío será descrito por un sistema de ecua­ ciones, Es cierto que un diagrama complejo puede con­ tener de antemano informaciones y ser más intuitivo que

28

tina descripción verbal o incluso una tabla de números. Pero no podría insertarse en una teoría porque los com­ ponentes de las teorías son ideas, no imágenes. Toda teoría, incluso abstracta, puede ir acompañada de diagramas más o menos representativos de los obje­ tos de que trata la teoría. {Excepcionalmente, en mate­ máticas puras, los mismos diagramas podrán ser objeto de la teoría.) Así, en lógica tenemos árboles deductivos, en la teoría atómica diagramas de densidad de probabi­ lidad, y en biología matemática encontramos grafos di­ rigidos que enlazan diversas funciones biológicas. Pero es menester distinguir los diagramas simbólicos, como éstos, de los diagramas representativos como los de la mecánica clásica y de la estereoquímica o de la genética. Ambos son representaciones más o menos hipotéticas de objetos (cosas, hechos) que se suponen concretos, pero en tanto que los primeros son prontuarios y por tanto reem­ plazables por fórmulas matemáticas, los segundos son fi­ guraciones de estados de cosas que se supone tienen formas espaciales bien determinadas. En todo caso, los dibujos, por útiles que sean en la ciencia experimental como por razones psicológicas, no son en general cons­ tituyentes de las teorías. Se acuerda uno de los debates de fines de siglo en torno al cometido de los diagramas y de los análogos me­ cánicos: Mach reprochaba a Dalton dibujar átomos, a los que consideraba como puras ficciones, en tanto que Duhem despreciaba lo que llamaba la escuela inglesa de fí­ sica por su vinculación a las representaciones visuales y los modelos mecánicos. Muy recientemente, el debate ha vuelto a abrirse: de nuevo está de moda hacer el elo­ gio de los modelos visuales e incluso de los análogos y las metáforas.11 Algunos consideran las representaciones vi­ suales no sólo como muletas psicológicas sino como cum-1 11. M. B. H esse, Models and Analogies in Science (Notre-Dame, Ind., University of Notre-Dame Press, 1966).

29

pliendo también una función lógica.12 Ahora bien, nada de eso sucede. Las teorías muy generales, tales como la mecánica de los fluidos y la teoría de la evolución, pue­ den prescindir de diagramas figurativos ya que no se re­ lacionan con cosas específicas. En cuanto a las teorías específicas o modelos teoréticos, algunos pueden ilus­ trarse por medio de diagramas figurativos en tanto que otros no. Pero ni las unas ni los otros van necesaria­ mente acompañados de diagramas de este tipo. Es útil trazar diagramas figurativos puesto que nos las vemos ahí con cosas visibles, pero cuando se trata de la teoría del aprendizaje o de la teoría de la utilidad no es posible dibujar tales diagramas porque los procesos de que trata no son perceptibles si bien son inteligibles. En pocas pa­ labras, los diagramas poseen una utilidad psicológica pero no forman parte de las teorías que son sistemas de pro­ posiciones. Alegrémonos con su ayuda, pero desconfiemos de ellos, pues no pueden ser sino metáforas sugerentes más que descripciones literales de una realidad que, estan­ do más oculta que aparente, no siempre se deja repre­ sentar de manera familiar.

6.

M

odelo

c ie n t íf ic o

y

m odelo

s e m á n t ic o

La aritmética puede ser concebida como una realiza­ ción o modelo de varias teorías abstractas, tal la teoría de los cuerpos. Aquí es la noción semántica de modelo la que importa — a saber, el modelo como interpretación verdadera de una teoría abstracta, o como teoría «con­ 12. E. H utten, The Language of M ódem Physics (Londres, Alien and Unwin, 1956). Por el contrarío M. Blak, Models and Metaphors (Ithaca, N. Y,, Cornell University Press, 1962), (trad. cast. de V. Sán­ chez de Zavala, Modelos y metáforas [Madrid, Tecnos, 1966] considera todas las clases de modelos como auxiliares heurísticos, luego como medios de los que una teoría bien hecha puede prescindir. Los considera también como analogías o metáforas.

30

creta» (específica) que satisface las condiciones (axiomas) de un sistema formal.13 Se mantiene a veces que esta noción no difiere de la noción metacientífica de modelo, es decir de la noción de modelo teorético.14 Veamos: Sea el sistema abstracto resumido en los axiomas si­ guientes:

Ai Á2

S*0. (a) F : S R ’ (b) G : S X S - > R - ( c) H : S X X S ->R. As s, / € S “ >H (Sj / ) = h € R. A i (a) O : R X R - » R ' (h) □ : R X R -» R. A& s, s ' € S = > G (j , S) = h O [F ( / ) □ ? ( * ) ] . Este conjunto de fórmulas es no-significativo. Se le podrán dar diversas interpretaciones añadiéndole códi­ gos de interpretación. Hagámoslo en dos etapas. En la primera interpretaremos las mayúsculas ya como conjun­ tos ya como funciones, según el contexto; además inter­ pretaremos «R» como la recta numérica, « O » como el producto numérico, y « □ » como la resta; a los símbolos restantes se les atribuirá su interpretación standard (de otra manera nuestro modelo sería no-standard). Se ob­ tiene de este modo el sistema interpretado que sigue: Fi F2

S es un conjunto no vacío. (a) F es una función de valores reales sobre S. { b) G es una función de valores reales sobre el conjunto de los pares de elementos de S.

13. Véase A. Tarski, «Contributíons to the Theory of Models», Indagationes Mathematicae, 37, 572 (1954), 58, 56 (1955) y M. Bunge, La investigación científica. 14. P. Suppes, «A Comparison of the Meaníng and Uses of Models ín Mathematics and the Empineal Sciences», en H. Freudenthal, ed., The Concept and Role of the Model in Mathematics and Natural and Social Sciences (Dordrecht, Reidel, 1961).

31

Fz Fé

H es la función constante, de valor real i , so­ bre S X S. Para cada s y cada / que pertenece a 5, G ( r , / ) = A [ F ( / J — F(s)]

Éste es un formalismo interpretado en la matemática pero que, por el momento, carece de sentido en otra parte. En particular, no es un modelo teorético, pues no concierne a ninguna especie de cosa: el conjunto de base S es un conjunto arbitrario y por consiguiente F, G y H no pueden representar propiedades concretas. Para transformar el formalismo precedente en un mo­ delo teorético de una cosa concreta es preciso y basta que los símbolos primitivos S, F} G, H se interpreten de manera que la teoría resultante de ello concierna a objetos concretos y sea verdadera. H e aquí dos interpre­ taciones posibles, entre muchas otras del formalismo pre­ cedente:

Interpretación física

Interpretación sociológica

Int (s) = punto sobre un Int (í ) = p a ís. circuito de corriente con­ tinua. Int [F (j )] = potencial eléctrico en s.

Int [G (sf / ) ] = intensi­ dad de la corriente entre s y /. Int [H (r, / ) ] = conducti­ vidad entre s y / .

Int [F (í )] = atracción ofrecida por s (p. e., ni­ vel de vida). Int [G (í , / ) ] — presión migratoria de s a sf.

Int [H {s, / ) ] = permea­ bilidad de la frontera en­ tre s y / .

Hay otras varias interpretaciones concretas del mis­ mo formalismo. Por ejemplo, si se interpreta S como el conjunto de los cuerpos físicos, F como la temperatura,

32

G como la cantidad de calor por unidad de masa y H como el calor específico, se obtiene el núcleo de la termología. Y si se interpreta S como el cuerpo académico, F como el número de publicaciones, G como el odio y H como la antipatía natural, se obtiene un modelo teoré­ tico de un aspecto del mundo universitario. Tenemos, pues, modelos semánticos de una estructura abstracta que al mismo tiempo parecen ser modelos teoréticos de pro­ cesos reales. Pero esto no es sino una primera aproximación. Sa­ bemos, en efecto, que el primer modelo es inadecuado (falso) en temperaturas bajas. Y el segundo no parece haber sido sometido a contrastadón empírica de modo que pueda atribuírsele un valor de verdad. Esta situa­ ción es muy general: los modelos teoréticos que se han contrastado están más o menos lejos de la verdad total: no son y no sabrían ser completamente verdaderos ya que encierran simplificadones. Por consiguiente, todo mo­ delo teorético es, en el mejor de los casos, un cuasimodelo en el sentido de que sus fórmulas son aproxi­ mativamente satisfechas por lo real. N o hay pues iden­ tidad entre modelo teorético y modelo en el sentido se­ mántico. Ésta es la razón por la que sería conveniente reemplazar la expresión «modelo teorético» (y también «modelo matemático») por «teoría específica».7

7. Síntesis final E l término «modelo» designa una variedad de con­ ceptos que es menester distinguir. En las ciencias teóri­ cas de la naturaleza y del hombre parecen darse allí dos sentidos principales: el modelo en tanto que represen­ tación esquemática de un objeto concreto y el modelo en tanto que teoría relativa a esta idealización. El pri­ mero es un concepto del que ciertos rasgos pueden a veces representarse gráficamente, mientras que el segundo

33 3. — Bü WQI

es un sistema hipotético-deductivo particular y por tanto imposible de figurativízar excepto como árbol deductivo. Todo modelo teorético es parcial y aproximativo: no capta sino una parte de las particularidades del objeto representado. Por esta razón fracasará pronto o tarde. Pero en la ciencia la muerte es fructífera: el fracaso de un modelo teorético empujará hacia la construcción sea de nuevos objetos modelos, sea de nuevas teorías gene­ rales — puesto que cada modelo teorético está constituido por un esquema genérico al que se le ha injertado un objeto modelo. N o siempre estamos seguros de qué es lo que hay que modificar, pero al menos se sabe que es preciso siempre tratar de perfeccionar las ideas y que, si se hace paso a paso, se acaba por triunfar — hasta nue­ vo aviso. Hacer de las cosas concretas imágenes conceptuales (objetos modelos) cada vez más ricos y expandirlos en modelos teoréticos progresivamente complejos y cada vez más fieles a los hechos: es el único método efectivo para apresar la realidad por el pensamiento. Es el método qup Arquímedes inauguró en física y que triunfa hoy por to das partes en donde se lo pone a prueba, incluidas las ciencias humanas. La observación no es sino una fuente (no la única) de problemas y una prueba (tampoco la única) para nuestros modelos teoréticos. La intuición — o más bien, los diversos tipos de intu ición13— es una fuen­ te de ideas que deben explícitamente formularse y so­ meterse a la crítica de la razón y de los hechos para ser fecundas. La razón en fin es el instrumento que nos per­ mite construir sistemas con la pobre materia prima de los sentidos y de la intuición. Ninguno de estos compo­ nentes del trabajo científico — la observación, la intui15. Para un análisis de los diversos tipos de intuición y su cometi­ do en el trabajo científico, véase M. Bunge, Intuition and Science (Englewood CHífs, N. J., Prentice-Hall, 1962). (Trad. cast., Intuición y ciencia [Buenos Aires, Eudeba].)

34

ción y la razón— puede, por sí solo, darnos a conocer lo real. N o son sino aspectos diversos de la actividad tí­ pica de la investigación científica contemporánea: la cons­ trucción de modelos teoréticos y su contrastabilidad.

35

MODELOS EN CIENCIA TEORICA

Publicado en A kten des XTV Internatiotialen Kongresses für Pbtlosophie (Viena, Herder Wíen, 2-9 septiembre 1968). (Trad. cast. de José Luis García Molina.)

I n t r o d u c c ió n

El propósito de este trabajo es elucidar las nociones de objeto modelo y modelo teorético en la ciencia factual (natural o social). Esta clarificación es necesaria en vista de la ambigüedad del término modelo y de la alegre con­ fusión que entre los vatios sentidos de la palabra pre­ valece en la habitual literatura científica y filosófica. Vamos a tratar de objetos modelos y modelos teoréti­ cos como esquemas hipotéticos de cosas y hechos supues­ tamente reales. Así un fluido puede modelizarse como un continuum dotado de ciertas propiedades y un objeto modelo tal puede injertarse en cualquiera de las varias teorías generales, sea la mecánica clásica o la mecánica relativista general. Asimismo, un organismo que apren­ de puede modelizarse como una caja negra equipada con ciertas terminales de entrada y salida, y este objeto mo­ delo puede desarrollarse entonces dentro de un sistema hipotético-deductivo. En cualquiera de los dos casos se produce una teoría específica o modelo teorético de un objeto concreto. Son tales modelos teoréticos los que pueden someterse a contrastaciones empíricas: las teorías generales, siendo indiferentes a los particulares, perma­ necen, salvo que se enriquezcan con modelos de sus re­ ferentes, incontrastables, y los objetos modelos estériles, a menos que se introduzcan o desarrollen dentro de alguna teoría.

Además de ofrecer explicaciones de los conceptos de objeto modelo y modelo teorético, hemos de examinar sus relaciones con otros conceptos diferentes con los que a menudo se confunden, particularmente el sentido estético (representación pictórica), el sentido heurístico (análogo de un objeto familiar) y el sentido teorético del modelo (realización o interpretación verdadera de un sistema for­ mal). Se mostrará que cualquier relación con estos otros caracteres es accidental y que los objetos modelos y los modelos teoréticos son importantes no tanto por lo que sugieren cuanto por lo que realizan, a saber, una repre­ sentación parcial de la realidad.

1. O bjetos concretos y objetos modelos Puede darse el nombre de objeto modelo a cualquier representación esquemática de un objeto. Si el objeto re­ presentado es concreto, entonces su modelo es una idea­ lización del mismo. La representación puede ser pictóri­ ca, como en el caso de un dibujo, o conceptual, como en el caso de una fórmula matemática; puede ser figurativa, como el modelo de bola-y-varilla de una molécula, semisimbólica, como en el caso del mapa de contorno de la misma molécula, o simbólica como el operador hamiltoniano para ese objeto. Y el objeto modelo puede ser intrateórico, como en el caso del modelo de red aleatoria del cerebro o extrateórico como el modelo de la jerarquía celestial del Pseudo Areopagita. La representación es siempre parcial y más o menos convencional. El objeto modelo perderá ciertos rasgos de su referente, es propenso a incluir elementos imaginarios, y sólo aproximadamente recuperará las relaciones entre los aspectos que incorpora. En particular, se ignoran de­ liberadamente la mayor parte de las variaciones indivi­ duales y asimismo se desechan la mayoría de los detalles de los sucesos a los que esos individuos dan lugar. Por

40

ejemplo, cabe considerar como indiscernibles todos los esfuerzos individuales de una rata determinada y supo­ ner a la vez como equivalentes todas las maneras de pre­ sionar una barra en busca de píldoras alimenticias. En otras palabras, la población real, constituida por indivi­ duos diferentes, se modeliza como una clase homogénea (de equivalencia) y el conjunto de todos los eventos po­ sibles se reparte asimismo en clases homogéneas (de equi­ valencia).1

2.

L a relación de modelo

Empezamos a modelizar al pretender que el(los) dominio(s) R de individuos puede repartirse en subcon­ juntos homogéneos, esto es, en subconjuntos cuyos elementos todos son idénticos en un determinado res­ pecto. Atribuimos entonces a cada miembro s de toda clase de equivalencia tal S ciertos predicados clave Pi, P2 , Prt-i. Estos predicados sustituyen propiedades y relaciones en su mayoría inobservables y mientras se definan con arreglo a S, sólo aproximadamente, si en absoluto, serán satisfechos por el referente R de S. Formamos así un sistema relacional M = KS, P i, P 2 , ..., P«~i> que se propone como un modelo conceptual del referente concreto R. En una palabra, M modeliza a R, o, brevemente, M A R. El objeto-modelo ilí es una cons­ trucción más o menos elaborada: un conjunto con unas cuantas funciones, un anillo de operadores en un espacio de Hilbert, o lo que corresponda. N o necesita ser y en general no es intuible; pero siempre tiene un referente factual. 1, Para ejemplos de modelos de eventos psicológicos, véase S. Sternberg, «Stochastic learning theory», en R. D. Luce, R. R. Bush y E. G alantee, eds., Hattdboók of Mathematical Psychology, vol. II. {Nueva York, Wiley, 1963).

41

La relación A. de modelo debería presentarse explíci­ tamente en cualquier formulación de una teoría cientí­ fica que cuidara del significado factual (físico, psicoló­ gico, etc.) de sus símbolos.2 Así en biología teórica cabe asumir que una célula r es representada por, o modelizada como, un subconjunto s de un agregado dife­ renciaba en el que se dan ciertas funciones reales eva­ luadas (densidad, temperatura, etc,). Podemos escribir entonces «s A r» y fórmulas similares para los predica­ dos, y denominar suposición semántica 3 a toda fórmula que contenga el símbolo « A » respecto de la relación de modelo. Si escrito in extenso, cualquier enunciado teorético en la ciencia factual contendrá al menos un enunciado semántico tal. Así la fórmula para la masa to­ tal de una célula r será: «Si sA .r, entonces M (r) = df. la integral de Lebesgue de la densidad de masa sobre el conjunto s». D e no tomarse tal precaución, puede pro­ ducirse una expresión semánticamente mal formada tal como «la masa total del conjunto s».

3, M odelos teoréticos N o todos los objetos modelos son conceptuales y ningún modelo conceptual de un objeto concreto es un modelo teorético, si bien puede constituir una base para el mismo. Un collar de cuentas multicoloreadas puede representar una cadena polímérica y un sociograma representa algunas de las relaciones entre los in­ dividuos de un grupo, pero el primero es un modelo 2. Véase M. Bunge, Poundations of Pbysics (Berlín-HeidelbergNueva York, Springer-Verlag, 1967). 3. M. Bunge, «Physical axiomatics», Reviews of Modern Pbysics, 39, 463 (1967).

42

o análogo físico mientras que el segundo no es sino un despliegue de datos. A fin de obtener un modelo teo­ rético, el objeto modelo debe desarrollarse o encajarse en una estructura teorética. Al ser absorbido por una teoría, el objeto modelo hereda las peculiaridades de la última y, en particular, sus enunciados legales. Así una célula modelo, sí se anexiona a la teoría general de difu­ sión, satisfará la ecuación de difusión de la última; de lo contrario no será capaz de reflejar un proceso de difu­ sión intracelular. Sea M = un modelo de un objeto concreto de la clase R, esto es, MéS-R. Suponga­ mos, además de eso, que los diferentes coordenados con esos K-tuplos sean lógicamente independientes los unos de los otros (esto es, no interdefinibles). Entonces, cual­ quier conjunto consistente de condiciones (postulados) que especifiquen la estructura (de naturaleza matemá­ tica) de los n conceptos primitivos, así como su signi­ ficado factual, será un modelo teorético de R. En una palabra, un modelo teorético de R es una teoría con base primitiva en AT-A-R. (La condición de axiomatizabilidad es suficiente pero no necesaria para obtener un modelo teorético, pero es necesaria para dar una rápida y exacta definición del concepto.) Un modelo teorético de un objeto concreto queda con seguridad corto respecto de la complejidad de su referente, pero en cualquier caso es mucho más rico que el mero objeto modelo que no es sino una lista de ras­ gos del objeto concreto. Así es poco lo que se dice si se modeliza un planeta como un punto de masa o incluso como una bola. Sólo al asumir posteriormente que un modelo tal satisface ciertos enunciados legales, en par­ ticular las leyes del movimiento, obtenemos un fragmen­ to de conocimiento científico. Veamos otros ejemplos:

43

Cosa o hecho Deuterón.

Objeto-modelo

Modelo teorético

Pozo de poten­ cial del protónneutrón. Gas perfecto.

Mecánica cuánti­ ca del pozo de potencia. Teoría cinética de los gases. Teoría matemá­ tica de la co­ rriente conti­ nua. Modelo del ope­ rador lineal de Bush y Mosteller. Mecánica estadís­ tica de los os­ ciladores aco­ plados.

Soluto en una so­ lución diluida. Tráfico a la hora punta.

Corriente nua.

Organismo aprende.

que

Caja negra markoviana.

Cigarras que can­ tan.

Colección de os­ ciladores aco­ plados.

conti­

4. G eneración de modelos En algunos campos el modelo teorético se construye en torno al objeto modelo. En los campos más avanza­ dos el objeto modelo puede asociarse frecuentemente a una teoría general existente. Así en la teoría del apren­ dizaje apenas existe una teoría genérica: todo modelo de aprendizaje es una esquematización de un experimento de un cierto tipo y los modelos que son adecuados en casos diferentes no parecen encajar en una singular teo­ ría comprehensiva. Por otra parte, en la física atómica y molecular la construcción de modelos consiste usual­ mente en aplicar una teoría genérica (la mecánica cuán­ tica, la mayoría de las veces) a modelos de las cosas correspondientes. Así si deseamos generar modelos teo­ réticos del átomo de carbón, probamos modelos simbó-

44

líeos del mismo (a saber, operadores hamiltonianos que acumulen propiedades fuente tales como el número de electrones y sus interacciones) y los ponemos en cone­ xión con la teoría general. Cualquier objeto modelo determinado puede asociar­ se, dentro de unos márgenes determinados, a un cierto número de teorías generales para que produzca dife­ rentes modelos teoréticos (teorías específicas) del objeto real correspondiente. Ejemplo: el modelo de un gas como un enjambre de partículas enlazadas por fuerzas de Van der Waals puede insertarse tanto en la mecá­ nica clásica como en la mecánica relativista de partículas de modo que produzca dos diferentes modelos teoréticos del gas. Recíprocamente, cabe asociar un cierto número de objetos modelos a cualquier determinada teoría gene­ ral previa traducción al lenguaje de la última. Ejemplo: supongamos diferentes tamaños de partículas y leyes de fuerza pero mantengamos del principio al fin la mecánica clásica y obtendremos diferentes modelos teoréticos del gas. Siempre que se disponga de teorías generales, los modelos teoréticos pueden generarse de dos maneras: o encajando un determinado objeto modelo en diferentes teorías generales, o injertando diferentes objetos mode­ los en una determinada estructura genérica. En cual­ quiera de los dos casos un modelo teorético es una teoría genérica junto con un objeto modelo. Esto no rige en las áreas en desarrollo de la ciencia donde la construc­ ción procede centrífugamente, sin objetos modelos la mayoría de las veces.

5. M odelos y contrastabilidad Los problemas particulares, esto es, los problemas relativos a situaciones específicas, sólo pueden plantear­ se y resolverse dentro de teorías específicas (microteorías). A mayor abundamiento sólo las teorías específicas

45

(modelos teoréticos) son empíricamente contrastadles: las teorías generales no producen conclusiones particulares y por ello no son contrastadles con precisión. Así, en el caso de la mecánica, si deseamos averiguar, digamos, los modos de oscilación de una estructura particular, un tubo vacío por ejemplo, tenemos que especificar las fuerzas externas, la masa y las distribuciones de tensión, las ecuaciones constitutivas del material y las condicio­ nes límite e iniciales — en una palabra, tenemos que enriquecer la teoría general con un modelo definido de tubo vacío. Primera conclusión: tanto la habilidad para resolver problemas particulares como la contrastabilidad empí­ rica de una teoría son inversamente proporcionales a su fuerza lógica. Segunda: la contrastación de teorías gene­ rales requiere la producción de teorías específicas; por sí mismas, las teorías rigurosamente generales como la teoría de la información, la teoría general de máquinas, la mecánica clásica y la mecánica cuántica, son incontras­ tables: lo que puede contrastarse es una teoría general equipada con un objeto modelo — en una palabra, un modelo teorético— . Tercera: no siempre está claro cuan­ do se contrasta una teoría específica (modelo teorético) qué es lo que, en caso de fracaso, debe censurarse: si la teoría general, el objeto modelo o ambos — aún supo­ niendo que los mismos datos sean intachables.4 En cual­ quier caso, sin modelo, no hay contrastación empírica.

6.

M

o d e l o s , m e c a n is m o s , a n á l o g o s , im á g e n e s

Todo mecanismo hipotético de un proceso es un ob­ jeto modelo pero la recíproca no es verdadera: no todo modelo conceptual esquematiza un mecanismo. Así una 4. M. Bunge, «Theory meets Experíence», en M. K. Munitz y H, Kiefer, eds., The Uses of Philosophy (Albany, N. Y., NYSU Press, en prensa).

46

caja negra es un modelo que ignora el mecanismo in­ terno de la cosa correspondiente- Más aún, no es nece­ sario que los modelos de mecanismos sean mecánicos o mecanicistas. Así los mecanismos de propagación electro­ magnética, de reacciones químicas complejas y de la evo­ lución biológica, son no-mecánicos, esto es, se modelizan según vías ajenas a la mecánica. D e cualquier modo, la frecuente identificación de objeto modelo con meca­ nismo — una identificación heredada del período mecanícista de la física— es incorrecta. Tampoco es necesario que los objetos modelos sean deterministas: pueden ser probabilísticos. En otras pala­ bras, algunos e, incluso, todos los predicados que se en­ cuentran en un objeto modelo pueden ser variables alea­ torias. Así todo modelo estocástico específico de apren­ dizaje se centra en alguna fórmula que dé la probabili­ dad de respuesta a la «-ésima prueba en función del(los) evento(s) que preceda(n) esa prueba. Una fórmula tal puede tomarse en su valor nominal o como representan­ do un definido proceso aleatorio. En el último caso se dirá que incorpora un modelo estocástico, o ün meca­ nismo de azar, del proceso. Además, mientras algunos modelos son literales y poco familiares, otros son analógicos o concebidos a im i­ tación de situaciones familiares. A sí una persona in­ formal puede ser vista como una máquina vendedora en mal estado que sólo entrega mercancías una fracción de las veces que traga una moneda. Éste es un ejemplo de análogo o simulador artificial: la cosa real (la persona informal) se modeliza según un sistema de un tipo cono­ cido (una máquina en malas condiciones) y el objeto modelo resultante cabe encajarlo en una teoría genérica, a saber, la teoría de las máquinas markovianas. Los aná­ logos conceptuales pueden ser, desde luego, tan respe­ tables como los análogos o simuladores materiales, pero constituyen sólo un subconjunto del conjunto de objetos modelos. Muchos, quizás la mayoría de los objetos mo-

47

délos» antes qiie analógicos y familiares son literales y más o menos misteriosos. A sí no hay modelos analógicos adecuados de electrones, ecosistemas y mercados. Es más, la insistencia en modelos analógicos, principalmen­ te las analogías de partícula y onda, es responsable de una gran parte de la confusión reinante en la física cuántica.5 En cualquier caso, la caracterización reciente­ mente revivida6 del objeto modelo como una metáfora es errónea. Lo mismo vale, a fortiori, para los diagramas que — salvo en algunas ramas de la matemática pura— pue­ den ser vistos como un tipo de análogo. En la ciencia factual, un diagrama es una representación visual y es­ quemática de un objeto modelo: lo dibuja pero no lo reemplaza. Siendo más o menos convencional, no es una representación única y es por consiguiente ininteligible a menos que lo acompañe algún código de interpretación. Las diferentes imágenes de un objeto modelo no nece­ sitan ser isomorfas las unas con las otras y consiguien­ temente no pueden reemplazar al objeto que dibujan si bien pueden ayudar a comprenderlo. Por ejemplo, las representaciones del movimiento de un conjunto de os­ ciladores acoplados, en coordenadas usuales y en coorde­ nadas «normales» (de libre interacción) son teóricamen­ te equivalentes, mientras los correspondientes diagramas simbólicos no lo son: en tanto que en el primer caso los diferentes puntos se enlazan por medio de resortes, en el segundo van desligados. D e cualquier modo, los dia­ gramas no son partes ni parcelas de teorías factuales si bien pueden ilustrar partes de la misma de manera equívoca. 5. M. Bunge, «Analogy in quantum theory: from insigth to nonsense», British Journal for tbe Philosophy of Science, 18, 265 (1967). 6. E. H utten, Tbe Language of Modern Physics (Londres, Alien & Unwin, 1956). M. Black, Models and Metaphors (Iiliaca, N. Y., Cornell University Press, 1962). (Trad. cast. Modelos y metáforas, Ma­ drid [Teenos, 1966].) M. H esse, Models and Analogies in Science (Notrc-Dame, Ind., University of Notre-Dame Press, 1956).

48

En resumen, hay muchas clases de objetos modelos: mecánicos y no-mecánicos, deterministas y estocásticos, literales y analógicos, figurativos y simbólicos — y así sucesivamente— . Ninguna de estas propiedades es de­ seable en sí misma, porque lo que hace que un objeto modelo funcione es algo distinto, a saber, el ser una idea relativa a una cosa o hecho y como tal algo que puede encajarse en un sistema hipotético-deductivo.

7. M odelos teoréticos y modelos semánticos En semántica, y particularmente en la teoría de mo­ delos, ‘modelo’ significa una interpretación abstracta bajo la cual (interpretación) se satisfacen todos los enun­ ciados de la teoría (verdadera). ¿Cuál es la relación en­ tre este concepto semántico de modelo y el concepto metacientífico de modelo teorético? Claramente toda teoría científica, sea genérica o específica, es una teoría interpretada en el sentido de que, si se formula pro­ piamente, contiene reglas y suposiciones que dotan al formalismo de significado factual. Es más, si una teoría interpretada tal resultara ser plenamente verdadera, sería un modelo, en el sentido semántico, del formalismo abs­ tracto subyacente. Pero las cosas no son así de sen­ cillas. En primer lugar, no todos los modelos teoréticos han sido sometidos a contrastariones en cuanto a la verdad: consiguientemente no se les puede asignar un valor de verdad. En segundo lugar, todo modelo contrastado es, en el mejor de los casos, parcialmente verdadero en el sentido de que, con suerte, algunas de sus consecuencias contrastables resultan ser aproximadamente verdaderas. Así pues, ningún modelo teorético es, hablando estric­ tamente, un modelo en el sentido semántico, pues esto requiere la satisfacción exacta de todas las fórmulas de la teoría. Tampoco es verdad que todos los modelos se­

49 4. —

bunge

mánticos sean modelos teoréticos en el sentido metacientífico. Así modelos ad boc y modelos matemáticos (inter­ pretaciones dentro de la matemática) no reflejan sistemas reales. Puesto que la flecha no apunta en ninguna de las dos direcciones, los conceptos de modelo semán­ tico y metacientífico no coinciden.7 Lo que podría de­ cirse es que un modelo teorético al que se le ha otor­ gado el aprobado constituye un cuasimodelo de su formalismo subyacente. Pero este concepto semántico de cuasimodelo aún tiene que ser elucidado.

8.

P

e r ío d o

de

preg u ntas

P: La discusión precedente no sigue de cerca el uso del término "‘modelo’. Así los físicos apenas si en absolu­ to lo usan. ¿Por qué deberían ocuparse de este análisis? R: Los filósofos se interesan más por ideas que por pala­ bras. Lo que importa es que los conceptos de objeto modelo y modelo teorético se emplean en toda ciencia digna de su nombre. P: ¿No debería poseer un modelo una semejanza for­ mal con su referente? R : N o, aunque sólo fuera porque uno y el mismo objeto concreto puede representarse por un cierto número de objetos modelos y modelos teo­ réticos que fallan en ser isomorfos los unos con ios otros. P: ¿Cuál es el momento para construir idealizacio­ nes rigurosas de las cosas, tales como un modelo unidi­ mensional de líquidos? R: N o hay teorización sin modelización y basta con que un primer modelo sea sencillo, esto es, sin complicaciones. Una vez nos hayamos fami­ liarizado con una representación cruda y atisbemos su 7. Para la tesis contraria, véase P. Suppes, «A comparison of the meaning and uses of models ín mathematics and the empirícal Sciences», en H . F reudenthal, ed., The concept and the Role of tbe Model in Mathematics and Natural and Social Science (Dordrecht, Reidel, 1961).

50

fracaso, podemos confiar en complicaría en nuestra bús­ queda de una creciente adecuación. P: SÍ los modelos son inevitablemente esquemáticos ¿por qué no renunciar por completo a ellos y establecer artificios tales como tablas y curvas empíricas que agru­ pen datos? R: Porque lo que queremos son leyes y ex­ plicaciones en términos de leyes y un acopio de datos por vasto que sea no crea ni un grupo de leyes ni un artificio explicativo y porque es la teoría quien guía en la verdadera búsqueda de información interesante. Por es­ tas razones nos ocupamos de objetos modelos y modelos teoréticos. Por estas razones el científico moderno es esencialmente un animal que construye y contrasta mo­ delos, P: Concedamos que los modelos sean inevitables, ¿por qué pretender que representan la realidad? Siendo idealizaciones ¿no constituyen retiradas de la realidad? R : Los objetos modelos y los modelos teoréticos se refie­ ren a objetos supuestamente reales. Corresponde al expe­ rimento probar semejante suposición de realidad. En cualquier caso, ningún otro método sino el de modelización y contrastación ha resultado apropiado para apre­ sar la realidad. P: Puesto que tantas explicaciones cotidianas se hacen en términos de analogías, modelos pictóricos y aná­ logos tangibles ¿por qué no admitir que la explicación genuina es metafórica? R: Sólo confundiendo el concep­ to psicológico de comprensión y el concepto metacientífico de explicación cabe argüir que las analogías sean explicativas y, recíprocamente, la explicación analógica. ¿Otras preguntas interesantes? P: Ya que en las ciencias avanzadas cualquier defec­ to de un modelo teorético puede asignarse tanto al ob­ jeto modelo como a la teoría comprehensiva que lo aco8. M. Bunge, «Les concepts de modéle», L'áge d e la Science, 1, 165 (1968). (Publicado en este volumen.)

51

ge, ¿cómo detectar al culpable? R: Ésta es una pregunta muy conveniente. P: ¿Sería posible subsumir el concepto cualitativo de cuasimodelo bajo un concepto comparativo o incluso cuantitativo? R : Éste es otro legítimo problema abierto.

52

TEORIAS FENOMENOLÓGICAS

Publicado en M. Bunge, compilador, The Critlcal Approach (Nueva York, The Free Press). (Trad. cast. de José Luis García Molina.)

Siempre que se siente la necesidad de una nueva teo­ ría en algún campo de la ciencia factual, tanto el cons­ tructor de la teoría como el metacientífico se ven con­ frontados con el problema de elegir la clase de teoría que debería plantearse a continuación. ¿Deberá la si­ guiente tentativa ir en la dirección de un creciente de­ talle y profundidad (crecimiento de la población de en­ tidades teoréticas)? ¿O deberá evitar la especulación en torno a lo que sucede en los más íntimos recovecos de la realidad y dirigir su atención, por otra parte, hacia el ajuste de datos, con la sola ayuda de variables obser­ vables exclusivamente de modo directo? En otras pala­ bras, el futuro de la teoría ¿deberá ser representacional o fenomenológico, concebirse como un cuadro más fiel de la realidad o sólo como un instrumento más efecti­ vo de resumir y predecir observaciones? Ambas tenden­ cias — la representacional por un lado y la fenomenológica e instrumentalista por el otro— han tenido sus de­ fensores ya desde Demócrito y Platón. Las teorías fenomenológícas — como la termodinámi­ ca y la psicología E-R— ■se recomiendan a menudo por su reconocida generalidad, y en otras ocasiones por su alegado valor filosófico de no rebasar la descripción de fenómenos, de abstenerse de introducir dudosas entida­ des ocultas tales como los átomos o la voluntad. Des­ graciadamente, tal recomendación no es necesariamente prudente, y aún así sería difícil de ejercitar dada la am­ bigüedad del término ‘fenomenológico*. En lo que sigue, se investigarán los aspectos distintivos de las teorías

55

fenomenológícas {de la caja negra o conductistas) y se apuntarán sus méritos o deméritos. El resultado claro será que las cajas negras son necesarias pero no sufi­ cientes y que el caja-negrismo propende a obstaculizar el progreso del conocimiento.

1,

L as

t e o r ía s

c ie n t íf ic a s

com o

c a ja s

Tanto las teorías científicas como sus referentes han sido comparados a menudo con dispositivos en forma de cajas con cuadrantes externos que pueden manipularse.1 Los cuadrantes corresponden a las variables «externas» las cuales representan propiedades observables, tales como la extensión y la dirección del movimiento de los cuerpos visibles; las piezas en el interior de la caja corres­ ponden a las variables «internas» o hipotéticas, tales como la tensión elástica y el peso atómico. Sí para que la caja funcione sólo hay que manipular los cuadrantes, tenemos una teoría de la caja negra — un nombre útil acuñado por los ingenieros electricistas para describir el tratamiento de ciertos sistemas, tales como transforma­ dores o cavidades resonantes, como si fuesen unidades carentes de estructura. Si, además del manejo de los cua­ drantes que representan a las variables externas, nos vemos obligados a introducir un mecanismo interno hipotético descrito con la ayuda de variables «internas» (construcciones hipotéticas), entonces nos hallamos fren­ te a lo que puede denominarse una teoría de la caja traslúcida. Las teorías de la caja negra se llaman también fenomenológícas; y las teorías de la caja traslúcida pue­ den llamarse representacionales. Representantes distinguidos de la clase de teorías de la caja negra son: 1. Véase, v. g,, J. L. Synge, Science: Sense and tiomense (Lon­ dres, Cape, 1951), y W arren W eaver, «The imperfectíons of Science» P toc, Ámer. Philosophkd Soc,, vol. 104 (1960), p. 419

56

a) La cinemática, o el estudio del movimiento sin considerar las fuerzas involucradas — cuyo estudio se deja a la dinámica, típicamente una teoría de la caja tras­ lúcida, b) La óptica geométrica, o la teoría de los rayos de luz, que no bace suposición alguna acerca de la natura­ leza y estructura de los rayos de luz — un problema tra­ tado por la óptica física, una teoría representacional. c) La termodinámica, que no bace suposición algu­ na acerca de la naturaleza y movimiento de los consti­ tuyentes del sistema, problema que trata la mecánica estadística, una teoría de la caja traslúcida. d) La teoría de los circuitos eléctricos en la que todo elemento en un circuito es considerado como una unidad carente de estructura interna; esta estructura es el objeto de la teoría de campo y la teoría del electrón. e) La teoría de la matriz de dispersión (Scatteringmatrix) en la física atómica y nuclear que concentra su atención en las características mensurables de los flujos de partículas entrantes y salientes; la correspondiente teoría de la caja traslúcida es la usual teoría cuántica hamiltoniana, que postula interacciones definidas entre las partículas. f) La cinética química clásica que trata de veloci­ dades de reacción y evita la cuestión de los mecanismos de reacción. g) La teoría de la información, que ignora la clase y estructura de los elementos implicados (transmisor, canal, etc.) a la vez que el significado de los mensajes transmitidos. b) La teoría del aprendizaje, en la psicología conductista que evita cualquier referencia a mecanismos fi­ siológicos y estados mentales. Las teorías de la caja negra son, pues, aquellas cuyas variables son todas externas y globales, sea directamen­

57

te observables (como la forma y color de los cuerpos perceptibles) o indirectamente mensurables (como la temperatura y la diferencia de potencial). Las teorías de la caja traslúcida, por otra parte, contienen además refe­ rencias a procesos internos que se describen por medio de variables indirectamente controlables, las cuales no ocurren en la descripción de la experiencia ordinaria; ejemplos de tales construcciones Hipotéticas son la posi­ ción del electrón, la fase de onda y la utilidad subjetiva. Ninguno de estos conceptos puede manejarse de la mis­ ma forma que las variables externas, si bien a menudo son objetivables de una manera, más o menos tortuosa, que, habitualmente, coimpHca alguna teoría sofisticada. En pocas palabras, las teorías de la caja negra se concen­ tran en la conducta de sistemas y, particularmente, en sus entradas y salidas observables. Las teorías de la caja traslúcida no consideran la conducta como un algo últi­ mo sino que intentan explicarla en términos de la cons­ titución y estructura de los sistemas concretos de que se ocupa; a tal fin introducen construcciones hipotéticas que establecen detallados vínculos entre los inputs y outputs observables.2

2.

A

lgunos

m a l e n t e n d id o s

Los términos ‘caja negra’, ‘externo’, y no-representacional’, equivalentes entre sí, parecen preferibles a ‘fenomenológico’, un calificativo altamente equívoco. D e hecho, fenomenológico sugiere descripción de fenómenos (hechos experienciales) más bien que de hechos objeti­ vos; incluso sugiere una teoría hecha en lenguaje feno­ ménico — el inexistente lenguaje de los sensa soñado por algunos filósofos— . Pero ninguna teoría científica con­ siste meramente en un sumario de fenómenos, o siquie­ ra de hechos objetivos; y ninguna teoría científica pres­ cinde en su totalidad de términos diafenoménicos o

58

trascendentes, esto es, términos tales como ‘masa’ y ‘na­ ción’, que representan entidades y propiedades no dadas en la experiencia ordinaria. Así la termodinámica — el paradigma de la teoría fenomenológica— no trata de describir fenómenos de calor, sino más bien propiedades y leyes muy generales, con la ayuda de construcciones de alto nivel tales como energía y entropía. A fortiori, nunca una teoría científica ha sido moldeada en térmi­ nos puramente fenoménicos tales como cualidades secun­ darias (sensibles): apenas nadie se interesa por mis sen­ saciones privadas. La tarea, más bien, es dar cuenta del mundo — incluyendo aquella parte del mundo que llama­ mos nuestras experiencias privadas— por medio de teo­ rías objetivas. Antes de proceder a un anáfisis más detallado deben aclararse posibles malentendidos ulteriores relacionados con las teorías de la caja negra. En primer lugar, ‘la caja negra’ se refiere a una clase de planteamiento más que a un objeto; sugiere que nos estamos ocupando más de la conducta global que de la estructura interna — sin implicaciones concernientes a la no-existencia de una es­ tructura. D e ahí que no debiera igualarse ‘caja negra’ o ‘fenomenológico’ con, digamos, macroscópico.2 Una y la misma entidad macroscópica puede alternativamente abordarse como una unidad o como un sistema de par­ tes independientes o interdependientes; y sistemas mi­ croscópicos, como partículas nucleares, pueden ser trata­ dos como cajas negras o como sistemas complejos. En segundo lugar, no todas las teorías de la caja negra contienen variables «externas» u observables tan sólo. Corriente y voltaje, las principales variables de la teoría del circuito eléctrico, no son directamente obser-2 2. Véase, por otra parte, la exposición clásica de A, d ’ABRO, en The Decline of Mechantes (Nueva York, Van Nostrand, 1939), p. 91: «En las teorías fenomenológicas, nuestra atención se restringe a las pro­ piedades macroscópicas que aparecen en el nivel de la experiencia co­ mún».

59

vables; sus valores se infieren de la lectura de indica­ dores con la ayuda de la teoría. Tampoco el momento de partícula y la función de estado — las principales variables de la teoría de la matriz-ó'— son directamente observables. Lo que es esencial en el planteamiento de la caja negra no es tanto la restricción a observables — una restricción que haría imposible la teorización— cuanto la interpretación de todas las variables inobser­ vables como auxiliares meramente de cálculo carentes de referencia concreta,3 o como característica del siste­ ma como un todo. Así la entropía, que en la mecánica estadística es, en la mayoría de los casos, una medida del desorden microscópico, es tratada en la termodiná­ mica como una abreviatura conveniente para cierta rela­ ción entre el contenido de calor y la temperatura del sistema. Usando una terminología familiar a los psicólo­ gos,4 podríamos decir que las teorías de la caja negra no pueden dejar de contener variables intermedias, esto es, variables que median entre la entrada y la salida; las teorías de la caja traslúcida, contienen además construc­ ciones hipotéticas, esto es, variables que se refieren a entidades, acaecimientos y propiedades inobservadas. Una tercera aserción engañosa habitual es la de que todas las teorías fenomenológicas son no-fundamentales o derivadas. Es verdad que las teorías de la caja negra macroscópicas no apelan a las propiedades de los cons­ tituyentes «fundamentales». Así la teoría de la elastid-

3. Así, v. g,, E rnest W, A dam, «Survey of Bemouíllian Utility Theory», en H erbert Solomon, ed., Matbematzcal Thinktng tn tbe Measurement of Bebavior (Glencoe, III., The Free Press, 1960), p. 158: «Desde el punto de vista conductista, el análisis de los procesos menta­ les implicados en la decisión funciona simplemente como una guía heurística en la construcción de teorías cuyos significados se apoyan en­ teramente en sus consecuencias observables». 4. Kenneth M cCorquodale y P aul E, Me e h l , «Hypothetical Constructs and Intervening Variables», Psychologtcal Review, vol. 55 (1948), p. 95.

60

ciad clásica trata ios sólidos como medios continuos, sin referirse a su estructura atómica. Pero las teorías fenomenológicas de las partículas «fundamentales», tales como aquella en la que el parámetro de «extrañeza» juega un papel-clave — son contra-ejemplos de la ecuación Fenomenológico = No-fundamental, la cual por consi­ guiente debe rechazarse. En cuarto lugar, las teorías de la caja negra no son dispositivos puramente descriptivos. Ninguna construc­ ción científica puede recibir legítimamente el nombre de teoría sí no proporciona explicaciones en el sentido lógi­ co de la palabra, esto es, subsunciones de enunciados singulares bajo enunciados generales. Lo que es verdad es que las teorías de la caja negra aportan sólo explica­ ciones superficiales, en el sentido de no suplir interpre­ taciones en términos de acaecimientos y procesos dentro del sistema de que se ocupa. (Volveremos a esta cuestión en la sección 9.) En quinto y último lugar, las teorías de la caja negra no son incompatibles con la causalidad. Así la teoría que considera los organismos como unidades empujadas aquí y allá por estímulos externos es a la vez causal y fenomenológica.5 Es más, que las teorías conductistas deban tener un ingrediente causal se sigue de la defini­ ción de causa eficiente y de la definición del compor­ tamiento como el conjunto de respuestas a cambios en el medio. Que un conocimiento de causas no suple el mecanismo lo ilustra dramáticamente la patología actual: una etiología muy avanzada del cáncer es consistente con una ignorancia tenaz de los mecanismos provocados por las causas actuantes. En consecuencia, Caja negra ¥* No-causal.

5. Véase Mamo Bunge, «Chance, Cause and Law», American Scientist, vol. 49 (1961), p. 432, y The Myíh of Simplicity (Englewood Cliffs, N. J., Prentice-Hall, 1963), cap. 11,

61

Una inspección más cerrada sobre el cometido de las variables «internas» confirmaría las anteriores argumen­ taciones.

3.

E structura de las teorías de la caja negra

Cualquier teoría científica que se ocupe de las trans­ acciones de un sistema con su medio puede ser resumida en la siguiente relación simbólica:

O = MI

(1)

donde T ’ designa o el estado inicial del sistema en cues­ tión o el conjunto de estímulos (input), * 0 ’ representa o el estado final o el conjunto de respuestas (output), y ‘AP resume las propiedades de la caja. En las teorías de la caja negra el «mecanismo» que conecta I con O se dejará sin especificar; esto es, ‘AP será justo un símbo­ lo (v. g., un operador) que ejecuta el vínculo sintáctico entre los datos input I y los datos output O. En las teorías de la caja traslúcida, por otro lado, *AP se refe­ rirá a la constitución y estructura de la caja — en una palabra, *AP representará el mecanismo responsable de la conducta abierta de la caja. Tres tipos de cuestiones pueden suscitarse en rela­ ción con la ecuación (1): a) El problema de la predicción: dado el input I y la clase de caja (esto es, AT), hallar el output O. b) El problema inverso de la predicción: dado el output O y la clase de caja (esto es, M) hallar el input I. c) El problema de la explicación: dado el input I y el output O, hallar la clase de caja — esto es, determi­ nar Af, E l contraste entre las teorías representacionales y las no-representacionales no ocurre en conexión con los dos

62

primeros problemas tan tajantemente como con el terce­ ro. Si sólo se dispone o se quiere una teoría de la caja negra, el problema de la explicación c) se resolverá calcu­ lando el inverso, í" 1, del input pues, de acuerdo con (1), tenemos

M = O I~l

(2)

La terminación de esta tarea coincidirá con la cons­ trucción de la teoría de la caja negra; o, en caso de disponer de la última, se habrá respondido entonces a la cuestión particular. Pero esto es sólo una primera etapa en la construcción de la teoría y en sus aplicaciones si el planteamiento de la caja traslúcida es adoptado, pues en éste se requiere la interpretación de M. Esta inter­ pretación comporta la hipotetización de las entidades que componen M, y la asignación de significado específico (físico, biológico, etc.) a todos los parámetros, de lo con­ trario no-interpretados, que usualmente infestan las teo­ rías fenomenológicas. En otras palabras, un «mecanismo» que enlace I con O se requiere en el planteamiento de la caja tras­ lúcida. Ahora bien, ninguna doble columna de datos in­ put y datos output apunta nunca sin ambigüedad al me­ canismo simbolizado por *M\ Si éste está más allá de nuestros sentidos, lo que no sucede con nuestro reloj pero sí ciertamente con nuestro equipo biológico, tal me­ canismo debe ser inventado. Y una invención tal no exi­ ge más o aún mejor observación sino un esfuerzo de la imaginación 6 — lo que ha constituido con frecuencia una fuente de desconfianza respecto de las teorías representacionales. Una vez inventado, contrastado y satisfacto­ riamente fundamentado el «mecanismo» (esto es, no re­ 6. Véase Karl R.. P opper, The Logic of Scientific Discovery (Lon­ dres, Hutchinson, 1959), pp, 31-32 {trad. cast. de V. Sánchez de Zavala, La Lógica de la investigación científica, Madrid, [Ed. Tecnos, 1962]) y Bunge, Intuición y ciencia, cap. 3.

63

futado hasta el momento) se considera, hasta nuevo avi­ so, como «establecida» la teoría de la caja traslúcida. N i que decir tiene que el «mecanismo» M no necesita ser mecánico o visualizable; puede ser un campo o una ca­ dena de reacciones químicas o un sistema de relaciones sociales. Lo que caracteriza a las teorías representadonales no son modelos visualizables sino la suposición de que la teoría es en sí misma un modelo del sistema total al que se refiere la teoría y que incluye las entrañas del sistema.

4. A lgunas limitaciones de las teorías DE LA CAJA NEGRA

La tarea de analizar e interpretar el símbolo M que media entre los inputs y outputs no siempre se com­ pleta: la forma de la relación (1) puede a menudo ave­ riguarse, pero la naturaleza del mecanismo puede per­ manecer desconocida; decimos entonces que podemos dar cuenta de la conducta pero no de la estructura de nuestra caja. Si nos paramos a mitad de camino, dejan­ do a M en términos descriptivos (v. g., físicos) sin es­ pecificar, tenemos una teoría de la caja negra. D e acuerdo, pues, con la anterior exposición, las teorías fenomenológicas tienen lugar primaria aunque no exclusivamente en las etapas iniciales de la construcción de las teorías científicas, a saber, en la realización de la tarea del ajuste de datos. Una comprensión más plena de la relación entre I y O sólo se obtendrá mediante el relleno del esqueleto O = M I con un mecanismo defi­ nido. N o se trata de una exigencia meramente psicoló­ gica, de una necesidad de satisfacer la prisa por com­ prender lo que se ha descrito con precisión. Es una exi­ gencia científica: las teorías de la caja negra son incom­ pletas, pues dejan los interiores de la caja en la oscuri­ dad. Un desiderátum del planteamiento representacional

64

(realista, no-convencionalista) es derivar M de suposi­ ciones relativas a la constitución y estructura de la caja. Y una derivación tal conduce usualmente a la constata­ ción de inadecuaciones, o, al menos, limitaciones, en el planteamiento fenomenológico — como en el caso del descubrimiento de fluctuaciones estadísticas de la termo­ dinámica y de las variables del circuito eléctrico. La derivación de M a partir de leyes fundamentales, y particularmente la expresión de los coeficientes que ocurren en M en términos de constantes fundamentales, involucra la introducción de variables «internas», y en ocasiones hasta «ocultas». D e hecho, desde un punto de vista lógico, el «mecanismo» representado por M con­ siste en una red de relaciones entre variables interme­ dias y ostensibles. Ahora bien, según el positivismo, el operacionalismo, el fenomenalismo y el convencionalis­ mo, las variables «internas» son parásitos y en conse­ cuencia deben eliminarse. Pero en la medida en que el anterior análisis sea correcto, las variables internas no sólo son psicológica y heurísticamente instrumentales, sino que su introducción incrementa la profundidad y cobertura de la teoría a la vez que aumenta su riesgo de refutación — lo que, según Popper,7 equivale a aumentar su contenido y contrastabilidad. La historia de la ciencia factual puede ser construi­ da como una secuencia de transiciones de teorías de la caja negra a teorías de la caja traslúcida, pese a irnos pocos contratiempos ocasionales en esta tendencia prin­ cipal. La revolución copernicana acarreó la introducción de variables «internas» que describían, no el movimien­ to aparente, sino el camino real de los cuerpos celestes. La física de campo que reemplazó a las teorías de la acción a distancia, comporta intensidades de campo in­ observables, y lo que desde un punto de vista fenomenalista es peor, potenciales de campo. La mecánica es­ 7.

Véase P opper, ob. cit., cap. IV.

S, — BTJNGE

65

tadística, que explica leyes fenomenológícas tales como la de Boyle, emplea algunos de los predicados trascen­ dentes característicos de la física atómica. La teoría cuán­ tica se ocupa de inobservables tales como la posición y momento de la partícula (originalmente considerados en la mecánica matricial como meros auxiliares de cálculo), además de propiedades esencialmente no mensurables como fases de onda y estados virtuales. E intentos re­ cientes relativos a un nivel subcuántico mecánico impli­ can la introducción de variables de nivel más profundas, por el momento ocultas, que den cuenta de la conducta aleatoria de los sistemas microscópicos.8 Finalmente, la genética nos capacita para deducir las leyes fenomenológicas de Mendel, tal como la neurología intenta suminis­ trar el mecanismo que enlaza estímulos y respuestas. La epistemología y la historia refutan mutuamente, pues, la pretensión de que las leyes fenomenológícas sean el tipo supremo de sistematización científica. Así pues, hemos tratado de cajas negras, de cajas traslúcidas y de la transición entre ambas. ¿No hay es­ pecies intermedias, teorías de la caja semitraslúcida? Las tres secciones siguientes mostrarán que hay lugar para un concepto comparativo de la negrura de las teo­ rías, esto es, que las teorías pueden ordenarse, por así decir, según el grado de luz que arrojan sobre la estruc­ tura de sus referentes. 5 . T eorías semifenomenológicas EN ELECTROMAGNETISMO

La teoría del campo electromagnético ha sido llama­ da a menudo fenomenológica,9 presumiblemente sobre la 8. Véase D avid Bo h m , Causality and Chance in Modern Physks (Londres, Routledge and Kegan Paul, 1957). (Trad. cast., Causalidad y azar en la física moderna, México [UNAM].) 9. V. g., G ian Antonio Maggi, Teoría fenomenología del campo electromagnético (Milán, Hoepli, 1931).

66

base de que, correctamente interpretada, era posible prescindir en ella de modelos mecánicos del campo. En este caso, se tomaba 4fenomenológico’ para significar «nomecánico». Y como en tiempo de Kelvin se aceptaba ampliamente que sólo los modelos mecánicos podían producir explicaciones satisfactorias, se llegó a la conclu­ sión de que la teoría de Maxwell era más bien descrip­ tiva que explicativa — de ahí que constituyera un triun­ fo del programa descriptivo, antiexplicativo del positi­ vismo.10 Ahora bien, es cierto que la teoría de M axwell es no-mecánica. N o se ocupa primariamente del movimien­ to de partículas sino de la estructura y movimiento de una clase inobservable e imponderable de materia, a sa­ ber, el campo electromagnético. Pero esta teoría está lejos de dar cuenta del campo ab extrínseco, conside­ rándolo como una caja negra en la que sólo las termina­ les sean escrutables. Lejos de esto, las ecuaciones de Maxwell son las leyes clásicas de la estructura del campo electromagnético (en tanto que determinado por la on­ dulación y las divergencias de las intensidades de campo en cada punto). Todo acaecimiento concerniente a cam­ pos macroscópicos en el vacío ■— salvo los efectos típi­ camente cuánticos como la «creación» de partículas fue­ ra del campo— pueden ser explicados sobre la base de la estructura de campo. La conducta del campo, según se manifiesta a través del movimiento de cuerpos carga­ dos y magnetizados, está determinada por la estructura del campo y esto no es precisamente lo que caracteriza las teorías conductistas o de la caja negra. Más aún, aunque las ecuaciones de M axwell no re­ to. Incidentalmente, la obra de Kelvin sobre los circuitos reso­ nantes dentro de la estructura de la teoría fenomenológíca del circuito, fue un vínculo histórico entre la predicción de Maxwell de la existen­ cia de ondas electromagnéticas y la confirmación empírica de las mis­ mas por Hertz. Esto es más interesante a la vista de la oposición de Kelvin a la teoría de campo.

67

quieran ninguna de las complicadas maquinarias del éter fantaseadas a fines del siglo pasado por M axwell y otros físicos británicos, nos proporcionan un modelo no-mecá­ nico, a saber, las pautas de las líneas de fuerza que rodean e interconectan a los cuerpos cargados y magnetizados. Así podemos dibujar o visualizar el campo electrostático entre las planchas de un condensador o el campo de radiación en torno a una antena, en términos de líneas orientadas. En una palabra, la teoría de M axwell se ocupa de la estructura de su objeto y suministra una in­ terpretación de los procesos electromagnéticos. ¿Por qué, pues, llamarla fenomenológica? Comparemos ahora la teoría de campo de Maxwell con las teorías de la acción a distancia. Tanto la diná­ mica pre-maxwelliana sin campo (Ampére, Gauss y Weber) como las teorías post-maxwellianas de la acción directa entre partículas (Tetrode, Fokker, y W heeler y Feynmann) son teorías de la caja negra, en la medida en que no inquieren por el «mecanismo» de la interac­ ción electrodinámica. N o postulan variables intermedias (intensidades y potenciales de campo) que enlacen, diga­ mos, el movimiento observable de dos cuerpos cargados. Su objetivo es calcular los efectos netos observables de un cuerpo sobre otro. Comparada con este conjunto de teorías de espíritu newtoniano (o más bien, amperiano), la teoría de Maxwell es un paradigma de la caja tras­ lúcida. ¿Qué ha propuesto la teoría cuántica de campos acerca del cuadro del campo electromagnético? En un sentido es una teoría de la caja traslúcida, igualmente y aún más traslúcida que la teoría clásica, puesto que da cuenta de la estructura finamente granulada del campo. Una consideración del campo electrostático bastará para mostrar las diferencias entre los tres planteamientos en consideración. La teoría clásica de la acción a distancia describe este campo con la sola ayuda de la ley de Cou­ lomb. La teoría clásica de campo da cuenta de ella con

68

la ayuda de la ecuación de Poisson, que subsume la ley de Coulomb y nos capacita para dibujar los cuadros de líneas de fuerza y las superficies equipotenciales. Final­ mente, la electrostática cuántica sugiere el siguiente cua­ dro: las partículas cargadas están rodeadas de fotones virtualmente inobservables y la interacción electrostática es el resultado de la emisión y reabsorción de estos cuan­ tos virtuales de campo.11 Cualquiera que sea nuestra creencia en la realidad de los fotones virtuales, el asunto es que en cuanto se la compara con este cuadro dinámico de la interacción elec­ trostática, la exposición estática de Maxwell parece semífenomenológica aún cuando, como fiemos visto, trate de la estructura de campo y proporcione un cuadro de menor alcance. En cambio, la teoría cuántica electromag­ nética no se concentra en la producción y propagación de campos de onda. Su problema central no es «¿Cómo se originan y propagan tal y cual campo?», sino más bien «¿Qué número de cuantos de campo con una dirección de un determinado momento y polarización hay en un determinado volumen espacio-temporal?». A este respec­ to, la habitual teoría de campo está muy cerca del punto de vista de explicación de la naturaleza que triunfa en la termodinámica. En cualquier caso, la moraleja parece ser ésta: vistas desde ciertos ángulos algunas cajas son más traslúcidas que otras. O , mejor, el grado de «fenomenologicalidad» o negrura de las teorías varía según el respecto en consideración. En consecuencia, no debería decirse «x es más fenomenológico que y» sino, más bien, «x es más fenomenológico que y en el respecto z».

II, Los cuantos virtuales no son libres; se limitan a los «puros» cuerpos cargados. Cuando un electrón se para, «sacude» algunos de los cuantos virtuales que lo rodean —tina explicación del Bremssttablung mucho más pictórica que la explicación clásica. Véase, v. g., W. H eitler, The Quantum Theory of Radiation, 3 * ed. (Oxford, Clarendon Press,

1954), P, 146.

69

6. T eorías semifenomenológicas EN LA MECÁNICA CUANTICA Se mantiene a menudo que la mecánica cuántica es una teoría fenomenológica, si bien no está claro por qué se hace esta afirmación. La argumentación parece falsa: la mecánica cuántica no sólo contiene variables interme­ dias, sino tal como en el caso de la teoría de Maxwell, todas sus variables básicas son intermedias en el sentido de que sólo cantidades derivadas (tales como valores pro­ pios y promedios) pueden contrastarse con los resultados de experimentos actuales; al mismo tiempo son construc­ ciones hipotéticas en el sentido de que sus referentes son entidades y propiedades hipotetizadas. Así si se desea obtener las frecuencias de la luz emitida por ciertos áto­ mos, o la probabilidad de colisión de dos partículas de una cierta clase, uno no las obtiene procesando informa­ ción de las lecturas de instrumentos, sino que se parte disponiendo un modelo miscroscópico descrito por fór­ mulas básicas, tales como hamiltonianos, ecuaciones de onda, relaciones de conmutación, «condiciones de causa­ lidad», y así sucesivamente. Tales ecuaciones relacionan variables que están muy alejadas de los datos empíricos concernientes a los fenómenos cuya explicación ha de darse en ultimidad. D e hecho, contienen, digamos, el número, la carga, la masa, la longitud de onda y la fase de las partículas que colisionan — y datos semejantes nunca se recogen mediante la mera observación sino que deben ser o inferidos o hipotetizados. Pero hay casos en los que un planteamiento fenomenológico puede injer­ tarse en esta esencialmente teoría de la caja traslúcida; de esta unión, nacen teorías mícrofísicas semiíenotntnológicas. Recordemos unos cuantos casos recientes impor­ tantes. El problema de las fuerzas nucleares puede plantear­ se o campo-teoréticamente (teoría del mesón de las fuer­

70

zas nucleares) o hipotetizando directamente potenciales del nucleón-nucleón que cuadren con la evidencia, siendo el nucleón-nucleón el quid de la así llamada teoría fenomenológica o empírica de las fuerzas nucleares. Este nombre está justificado en cuanto que la teoría guarda silencio en lo tocante a la naturaleza de los campos que se supone han de ser descritos por las respectivas fun­ ciones de fuerza; en otras palabras, no se postula en este planteamiento ninguna ecuación de campo, sino que se tantean azarosamente lo que normalmente se conside­ rarían como las soluciones de las ecuaciones de campo. En resumen, el objetivo global de este planteamiento es hallar funciones de fuerza que cuadren con los datos empíricos — un blanco que puede alcanzarse mediante la manipulación de un número suficientemente amplio de parámetros. Pero para comparar las suposiciones con la eviden­ cia empírica hay que introducir los potenciales hipotetizados en una ecuación de onda; esto es, hay que injertar las suposiciones fenomenológicas en una teoría básica­ mente no-fenomenológica, tal como la mecánica cuántica ordinaria. Por esto es por lo que esta teoría de las fuer­ zas nucleares merece llamarse ¿ewz'fenomenológica más bien que fenomenológica. Sólo las hipótesis singulares, re­ ferentes a las diferentes fuerzas de posible ley, merecen llamarse fenomenológicas. Inddentaímente, la contrastabifidad de la teoría semifenomenológíca del enlace nu­ clear es lamentablemente baja, ya que sus consecuencias contrastables son prácticamente insensibles a amplias va­ riaciones de aquellas hipótesis, tanto bajo la forma de funciones de fuerza como en los valores numéricos de los parámetros. Esta débil agresividad es característica del planteamiento de la caja negra. Un segundo ejemplo de un planteamiento dentro de un esquema representacional (pero sólo parcialmente ima­ ginable) de la mecánica cuántica es la teoría de la matriz de dispersión. Este planteamiento se propuso origína-

71

riamente en 1943 sobre el supuesto filosófico fie que la mecánica cuántica es superdescríptiva, pues dice mucho más de lo que puede ser controlado por el experimento (v. g., habla del promedio de velocidad de un electrón singular dentro de un átomo).12 En la estructura del planteamiento Ó-matricial, el problema de la interacción entre partículas, tales como una reacción nuclear, no se resuelve hipotetizando interacciones y postulando deta­ llados movimientos de partículas sino considerando la región de dispersión como una caja negra en cuyo inte­ rior ciertas partículas inciden a lo largo de ciertos cana­ les y de entre los cuales las mismas o distintas partículas emergen de un modo legal pero indeterminado.13 El problema de la fuerza (o, mejor, de la interacción) se supera en este planteamiento al reformularse el problema de la siguiente manera: un conjunto de partículas am­ pliamente separadas (prácticamente libres por ello) se da al comienzo fiel proceso (esquemáticamente, en el pasado infinitamente remoto), y otro conjunto de par­ tículas igualmente separadas (y por ello prácticamente libres) se da al final del proceso (en el futuro infinita­ mente distante). N o se pregunta nada acerca del mo­ vimiento de partículas y los movimientos de interacción. En este tratamiento sólo los flujos incidentes y salientes están involucrados, junto con exigencias muy generales tales como la conservación del flujo y la prioridad tempo­ ral del input sobre el o u tp u t14 — un postulado llamado, usual y erróneamente, condición de causalidad. El planteamiento ó-matricíal es fenomenológico y a 12. W erner H eisenberg, Zeits. f. Phystk, vol. 120 (1943), pp. 513, 673; Zeits. f. Naturforschung, vol. 1 (1946), p. 608. 13. Véase J o h n M. Blatt y Víctor F. Weisskopf, Tbeoreticd Nuclear Pbysics (Nueva York, ’Wiley, 1952), pp. 313, 517 y ss. 14. La ecuación central de la teoría de la matriz-S es tj¿( co ) = S ■ • t]¿(— oo), donde ‘ ( oo)’ la amplitud de su estado final, mientras S designa el operador de dispersión. La correspondiente matriz-S da las amplitu­ des de probabilidad de las transiciones posibles.

72

primera vista cumple la exigencia positivista de perma­ necer dentro de lo que puede ser medido. Pero esto últi­ mo es una ilusión. La teoría de la matriz-S (y la técnica de las relaciones de dispersión que la acompañan) no es una teoría independiente; no reemplaza a la mecánica cuántica sino que más bien la complementa. Aunque después de ser formulada la teoría, se diseñaron técnicas independientes para calcular las matrices de dispersión,15 los conceptos básicos de momento lineal y angular, y función de estado, que ocurren en la teoría, sólo son significativos en el amplio contexto de la teoría cuántica. La teoría de la matriz-S es, pues, un sistema semiítnomenológico, aun cuando la intención original, esto es, el planteamiento, fuese en conjunto fenomenológico. Similarmente, el método de la matriz de dispersión puede aplicarse a circuitos de guía de ondas,16 un pro­ cedimiento que para el ingeniero electricista (no así para el físico) tiene la ventaja de evitarle el cálculo efectivo del campo dentro de cavidades. Este planteamiento, em­ pero, utiliza la estructura conceptual de la teoría de Max­ well, aunque sólo sea porque se requieren expresiones generales (no-especificadas) para el campo en los empal­ mes de la guía de ondas. Incídentalmente el plantea­ miento S-matricial puede generalizarse de modo que se aplique a sistemas de cualquier clase,17 lo que muestra 15. Originalmente, el cálculo de la matriz-i1 se basaba en el forma­ lismo usual cuántico-mecánico (hamiltoniano), por consiguiente consis­ tió justamente en rechazar información acerca de los procesos interme­ diarios. Sólo seis años después se desarrolló un método para computar la matriz-i sin emplear aquel formalismo. Véase, v. g., N. N. Bogoliubov y D, V. S h irkov, Introduction to the Theory of Quantized Fields (Nueva York, Interscience, 1959), pp. 198 y ss., y J. H ilgervoorb, Dispersión Rélations and Causal DescripHon (Amsterdam, North Holland, 1960). 16. A. E. P annenborg, Philips Research Reports, vol. 7 (1952), pp. 131, 169, 270. 17. M ario Bunge, «A general Black Box Theory», Philosophy of Science, vol. 30 (1963), p. 343.

73

una vez más que las teorías fenomenológícas no se carac­ terizan por un objeto sino por un planteamiento.

7. Una teoría semifenomenológica en el dominio DE LAS PARTÍCULAS ELEMENTALES

Un tercer y último ejemplo de teoría semifenomeno­ lógica será el esquema para partículas «elementales» de Gell-Mann y Nishijima (1953-54). Esta teoría se caracte­ riza por lá hipótesis ad hoc pero sorprendentemente fe­ cunda de que ciertas partículas tales como los mesones -K e hiperones, tienen una propiedad nueva, no-visualizable llamada «extrañeza». La hipótesis es ad hoc, porque, en cuanto tal, el parámetro de extrañeza no tiene interpre­ tación física y ocurre en un enunciado legal singular, a saber, la ulterior hipótesis ad hoc de la conservación de la extrañeza en las interacciones que se supone dan lugar a ciertas metamorfosis, como la transformación de un hiperon lambdazero en un protón y un pi-mesón. Por otra parte, son comprendidas, aunque sólo parcialmente, las propiedades familiares de las partículas «elementales». La masa se relaciona con la inercia y la cantidad de sus­ tancia, la carga con el acoplamiento al campo electro­ magnético, el spín con alguna clase de rotación interna, y el spín isobárico (o isotópico) con la clase de nucleón. Ninguna de estas variables ocurre casual o aisladamente. Todas ocurren en más de un enunciado legal relativo a la estructura de la materia, de modo que se hallan muy firmemente establecidas en la teoría física. La hipótesis de extrañeza por otra parte está siendo por el momento una suposición que concordando con los hechos explica la existencia y la conducta — no la estructura— de las partículas «elementales». Sería falso, empero, decir que la teoría de Gell-Mann y Nishijima es en conjunto fenomenológica. Después de todo, relaciona el nuevo parámetro con los antiguos, a

74

saber, en la expresión de la ley de conservación de la extrañeza; y hasta este punto tiene sentido, si en absoluto, en relación con la teoría general de la mecánica cuántica. Debería decirse mejor que la hipótesis de extrañeza es tina suposición fenomenológica y que la teoría como un todo es ¿m ifenom enológica. Y cabe esperar (o soñar, según la filosofía de cada cual) que la teoría será even­ tualmente subsumida bajo una teoría más profunda, de caja traslúcida, que derivará todos los aspectos del actual esquema de Gell-Mann y Nishijima de algunas suposi­ ciones básicas relativas a la compleja estructura de las partículas y campos implicada.18 Una teoría tal interpre­ tará presumiblemente el parámetro de extrañeza o su su­ cesor en términos descriptivos, tal como la hipótesis del spín proporciona una interpretación del nuevo número cuántico originariamente introducido de una manera ad hoc o fenomenológica para dar cuenta de la «anómala» división de Zeeman de las líneas espectrales. Nuestra argumentación de que las teorías semifenomenológicas o de la caja traslúcida existen entre los ideales extremos de teorías de caja negra y caja traslú­ cida parece estar confirmada. Examinemos ahora el al­ cance del planteamiento tipo caja negra.

8.

A lcance

del

p l a n t e a m ie n t o

t ip o

c a ja

negra

El planteamiento de la caja negra tiene los siguientes rasgos peculiares: 18. Un intento de tal clase es la teoría extremadamente abstracta de P. H illion y J.-P. Vigier «New Isotopic Spin Space and Classification of Elementary Particles», Nuovo Cimento, vol. 18 (1960), p. 209. Se introducen vectores de estado internos que correspondan a la estructura interna de las partículas elementales de diferentes clases; extrañeza, spín isotópico y spín ordinario se explican todos por ciertos movimientos en el espacio-tiempo ordinario.

75

a) Alto grado de generalidad. Toda teoría de la caja negra es consistente con un número ilimitado de meca­ nismos concebibles. La generalidad de las teorías de la caja negra puede llevarse al extremo casi de las teorías abstractas, esto es, sistemas que apenas contienen varia­ bles específicas (interpretadas), por lo que pueden apli­ carse a una amplía clase de sistemas. b) Carácter global o general. Las teorías de la caja negra son, parcialmente al menos, no-locales en el sentido de considerar los sistemas como unidades más que como complejos de partes localizadas interactuantes. c) Sencillez. A l prescindir de detalles de estructura que exigirían la introducción de construcciones hipoté­ ticas y dejar sin interpretar la mayoría de los parámetros, las teorías de la caja negra son formal, semántica y epis­ temológicamente las más sencillas posibles.19 Esta sen­ cillez hace más fácil construir y aplicar teorías fenomenológicas. d) Precisión. Las teorías fenomenológicas pueden hacerse para encajar cualquier conjunto de datos aumen­ tando o manipulando un número de parámetros. e) Seguridad. Las teorías de la caja negra son las más firmemente ancladas en la experiencia, por lo tanto las mejor protegidas contra la refutación. Así la teoría del circuito continúa siendo, dentro de su dominio, verda­ dera a pesar de los cambios en la teoría del electrón. Estas son, al mismo tiempo, tanto ventajas como debilidades del planteamiento según la caja negra. De 19. Estas clases de simplicidad (economía de formas, economía de presuposiciones, economía de conceptos trascendentes), al igual que la simplicidad pragmática, se examinan en The Myth of Sm plicity (Englewood Cliffs, N. J., Prentice-Hall, 1963), caps. 4 y 5,

76

hecho un alto grado de generalidad o falta de especifi­ cidad revela que no se tiene en cuenta la clase de sis­ tema; la no-localízabilídad (non-locality) muestra que se ha pasado por alto o en todo caso integrado la probable estructura compleja del sistema; la sencillez es un sig­ no de superficialidad: 20 finalmente la ventaja de adecua­ ción sin profundidad, y la seguridad, o certeza, acercan peligrosamente las teorías fenomenológicas a la irrefutabilidad, que es, según Popper, el sello de la no cien­ cia.21 Todas estas virtudes pecadoras de las teorías de la caja negra parten, desde luego, del hecho de evitar la postulación de variables «internas». Como consecuen­ cia de semejante restricción, ciertas cuestiones no pueden contestarse pues no se pregunta prepositivamente. Pre­ guntas como «¿Cómo son los campos y las partículas en el interior de una esfera de acero?» y «¿Cuáles son las fuerzas sociales detrás de la última revolución lati­ noamericana?» simplemente no ocurren dentro de la estructura de las teorías de la caja negra. Tales cuestio­ nes exigirían teorías más profundas, representacionales, capaces de aportar interpretaciones adecuadas de los hechos.

9. E xplicación e interpretación El hecho de que ciertos problemas no puedan enun­ ciarse en la estructura de las teorías fenomenológicas no significa que las teorías de la caja negra no propor­ cionen, como a menudo se oye, explicación. Siempre 20. Véase Mario Bunge, «The Weight of Símplicity in the Constructíon of Scientific Theories», Pbilosopby of Science, vol. 28 (1961), p. 120, y The Myth of Simplicily (Englewood Cliffs, N. J., PrenticeHaU, 1963), cap. 7. 21, Véase nota 6, supra.

77

que un enunciado singular se deduce de enunciados de leyes y circunstancias, hay explicación científica. Las teo­ rías fenomenológicas proporcionan, pues, explicaciones científicas (véase 2). Pero las explicaciones científicas pueden ser más o menos profundas. SÍ las leyes invoca­ das en la explicación son justamente leyes de coexisten­ cia y sucesión, la explicación será superficial. Éste es el caso de la explicación de un hecho de un individuo sobre la base de que siempre hace tales cosas, o la explicación de la compresión de un gas según el aumento de presión en términos de la ley de Boyle. Necesitamos a menudo tales explicaciones superficiales, pero también necesita­ mos explicaciones profundas tales como las que se tra­ man en términos de la constitución y estructura interna del sistema considerado: la estructura dinámica de un gas, los rasgos de personalidad de un individuo y así sucesivamente. Una teoría de la caja negra puede proporcionar una explicación y predicción lógicamente satisfactorias de un conjunto de datos, en el sentido de su derivación de la teoría y de información específica. Pero dejará de pro­ porcionar lo que los científicos llaman usualmente una interpretación de los mismos datos. Una interpretación tal en términos descriptivos se obtiene cuando se postula un «mecanismo» y se asignan todos los parámetros a propiedades del «mecanismo» (véase 3 y 4, anterior­ mente). El «mecanismo» será en el caso de la termodi­ námica las moléculas en incesante movimiento y colisión, las ondas interfirientes en el caso de la óptica, la retícula del cristal y el gas del electrón en el caso de la física del estado sólido, los circuitos nerviosos y las asociacio­ nes en el caso de la conducta, la interacción de los grupos sociales y de los intereses en el caso de la sociología y de la historia, y así sucesivamente. Notem os, no obstante, que aunque las teorías de la caja negra no intenten ofrecer explicaciones no las exclu­ yen; esto es, las teorías de la caja negra pueden comple­

78

mentarse por medio de hipótesis representacíonales, Esto se llevó a cabo ya a comienzos del siglo pasado, entre los defensores de la teoría calórica y los de la teoría atómica. Fourier derivó así sus ecuaciones de la transmisión del calor empleando la hipótesis molecular como un instru­ mento heurístico, pero vio que «la verdad de estas hi­ pótesis (que eran fenomenológícas) no se basaba en una explicación (interpretación) física de los efectos del calor. Cualquiera que sea la manera como se desee concebir la naturaleza de este elemento, bien se la considere como una cosa material definida que pasa de una parte del es­ pacio a otra (esto es, como el fluido calórico), o sólo como una transmisión de movimiento, siempre se llegará a las mismas ecuaciones, pues la hipótesis que uno forma debe representar los hechos generales y simples de entre los cuales se derivan las leyes matemáticas».22 Hablando generalmente, toda teoría fenomenológica es consistente con un número de hipótesis alternativas relativas al «me­ canismo» empleado. En otras palabras, un número de teorías más profundas, representacíonales, es consistente con cualquier teoría fenomenológica dada. El contraste entre teorías cinemáticas y dinámicas ilustra claramente los conceptos de profundidad de la teoría y nivel de explicación. Cualquier conjunto deter­ minado de cambios puede estudiarse desde un punto de vísta o cinemático o dinámico, según que sea posible o se requiera una explicación superficial o profunda. Así, por ejemplo, las reacciones químicas pueden estudiarse en lo que respecta a las velocidades de reacción (cinética química) o en lo que respecta a los mecanismos de reac­ ción (esto es, los procesos por medio de los cuales un determinado sistema se transforma en otro sistema). Tal 22. C harles F ourier, Tbéorie Analylique de la chaleur (1822), en Geuvres, ed. por G. Darboux (París, Gauthier-Villars, 1888), I, p. 538. Véase también M. Bunge, Causality: The Place of tbe Cau­ sal Principie in tbe Modera Science, 2.® ed, (Nueva York, Meridian Books, 1963), pp. 77 y ss. (Trad. cast. Buenos Aíres [Ed. Eudeba].)

79

como en el caso de la mecánica el segundo planteamiento subsume al primero; si se conoce, o se supone, el meca­ nismo de reacción, entonces puede deducirse la cinética del proceso, Pero esta mayor profundidad de la dinámica comparada con las teorías cinemáticas no hace superflua la cinemática. Sólo sobre la base de algún conocimiento previo de ciertas clases de movimiento pueden hípotetizarse las leyes de movimiento, y sólo un detallado cono­ cimiento de la cinética química ha hecho posible sugerir mecanismos compatibles con ello. Esto es, aun cuando la teoría dinámica no fenomenológica usualmente incluye a la correspondiente teoría cinemática, ésta siempre es útil en tanto que acceso a la primera. Más aún, las teorías de la caja negra son a menudo suficientes para ciertos propósitos; así gran parte del trabajo de la ingeniería puede lograrse sin la estadística mecánica. En resumen, las teorías de la caja negra, aunque su­ perficiales, son necesarias. Satisfacen un genuino desi­ derátum científico, a saber, el de contar con cuadros generales y globales de los sistemas reales. Además las teorías fenomenológicas son útiles porque constituyen un puente entre las teorías más profundas, representacionales y los datos empíricos. Desgraciadamente, hay una motivación ulterior, ilegítima respecto de la construcción de la teoría fenomenológica, a saber, la exigencia filosó­ fica de renunciar a conceptos transobservacionales o diafenoménicos, esto es, no sólo el descarte metodológico de las entrañas del sistema sino el rechazo ontológico a reconocer la existencia de tales entrañas. Vuelvo ahora a esta filosofía oscurantista.

10.

C a ja n e g r is m o

Llamemos cajanegrismo al punto de vista según el cual la conversión de cajas negras en cajas traslúcidas

80

mediante el relleno de las primeras con «mecanismos» definidos, no es necesario ni deseable. N o sería necesa­ rio, desde este punto de vista, porque las teorías de la caja negra nos dan todo lo que legítimamente podríamos pedir, a saber, instrumentos para transformar conjuntos de enunciados observacionales actuales (evidencia) en conjuntos de enunciados observacionales potenciales (pre­ dicciones); y no sería deseable ir más allá de las teorías fenomenológicas porque la introducción de entidades y propiedades ocultas está desautorizada por la experiencia sensible, que es el juez supremo de la verdad. Como es bien sabido, este rechazo deliberado de la especulación en torno al «mecanismo» oculto en la caja, ha sido vocea­ do por eminentes filósofos de la tradición positivista, a la vez que por científicos eminentes — algunos de ellos famosos por su contribución a las teorías de la caja tras­ lúcida.23 Que tal punto de vísta es incorrecto e incluso peligroso para el avance del conocimiento, debería quedar claro con las siguientes consideraciones. a) Históricamente las teorías de la caja negra han emergido usualmente como primeras etapas en la cons­ trucción de teorías; en tanto que una regla, han sido superadas o complementadas por teorías representacionales que subsumen a las primeras capacitándonos así para dar cuenta de más hechos que las primeras. b) Epistemológicamente, las teorías de la caja negra son menos completas que las correspondientes teorías de la caja traslúcida, aunque sólo sea porque acentúan la conducta a expensas de la estructura. (Muy frecuente­ 23. La historia de la guerra del cajanegrismo (particularmente, energetismo) contra el caja-traslucidismo (particularmente, mecanicismo y atomismo) ha sido varias veces contada. Véase P ierre D uhem , La théorie physique, 2.a ed. (París, Alean, 1923), y Ernst Cassirer, Substance and Funcíion (1910; Nueva York, Dover, 1953). Para exposicio­ nes más recientes del punto de vista del cajanegrismo, véase P. A. M. Dirac, Proc. Royal Society (A), vol. 180 (1942), p. 1, y H eisenberg, oh. cit.

6.

81 — BU NG E

mente, las teorías fenomenológicas se concentran en el curso temporal de los procesos, esto es, son cinemáticas, y dejan de lado las características espaciales del sistema, que son necesarias aunque no suficientes, para dar cuenta del mecanismo.) Las teorías representadonales tienen un contenido más rico y, como consecuencia, se prestan por sí mismas a una mayor variedad y finura de contrastacíón empírica. c) Lógicamente, las teorías de la caja negra están un poco aparte del resto de la ciencia; no gozan en conse­ cuencia del apoyo de áreas contiguas sino que cuentan con un apoyo casi exclusivamente «inductivo» (esto es el apoyo de la evidenda empírica). Ahora bien, una teoría gana en corroboración si se muestra no sólo compatible con otras teorías sino en cierto modo lógicamente nece­ sitada por ellas. d) Pragmáticamente hablando, aunque las teorías de la caja negra tienen una cobertura amplia, poseen una débil fecundidad en el sentido de no ayudarnos a explo­ rar los aspectos aún ocultos de la realidad. Sólo al sos­ pechar primero y suponer después que puede haber algo más allá de los fenómenos triunfamos eventualmente en descubrir actualmente este algo invisible. La hipotetización de propiedades y entidades ocultas no es mala en sí misma, puesto que la mayor parte de la realidad está oculta a la percepdón sensible directa. Como Hertz vio, es precisamente el éxito limitado en el intento de esta­ blecer relaciones directas entre fenómenos observables el que nos lleva a advertir «que la diversidad del universo actual debe de ser superior a la diversidad que nos reve­ lan nuestros sentidos».24 Tan perjudicial a la ciencia es la postulación de entidades inherentemente inescrutables como la excomunión de la especulación controlada. Desde un punto de vista lógico, el cajanegrismo es 24. H einrich H ertz, The Principies of Mechanics (1894; Nueva York, Dover, 1956).

82

semejante al holismo y al Gestaltismo, en cuanto estas escudas igualmente desean detener el análisis, esto es, limitar la razón. Epistemológicamente, el cajanegrismo es como una forma suave de fenomenismo, la filosofía que trata de reducir toda cosa a elementos experienciales, tales como sensaciones. Pero no debería exagerarse el maridaje. El cajanegrismo sólo nos pide que no postu­ lemos, por ejemplo, movimientos de partículas en el interior del núcleo atómico para explicar las reacciones nucleares, y nos ordena trabajar exclusivamente con los flujos input y output de las partículas. El fenomenismo radical, por otro lado, prescindiría totalmente del núcleo atómico, sobre la base de ser una ficción esencialmente no sensible. Para el fenomenismo, la totalidad de la microfísica es un cuento fantástico. Contrariamente al cajanegrismo, el fenomenismo ra­ dical nunca ba atraído a los científicos teoréticos, porque ni tan siquiera la más sencilla teoría de la caja se traduce a términos de datos sensibles. Todas las teorías científi­ cas, sean fenomenológicas o representacionales, son siste­ mas de enunciados de objetos físicos (proposiciones físicalistas). Todas ellas se ocupan de lo que los científicos significan por ‘fenómeno’, no con los fenómenos de los filósofos (esto es, lo que inmediatamente aparece al su­ jeto). Más aún, las teorías de la caja negra no implican necesariamente la negación de la existencia independien­ te de las cosas que describen, y no contienen referencia alguna al sujeto. Muy al contrario, una de las motiva­ ciones del conductismo es evitar las variables internas tales como las sensaciones o sentimientos privados. En resumen, ni las teorías fenomenológicas ni el caja­ negrismo apoyan la epistemología fenomenista. El hecho de que el fenomenismo, en cuanto filosofía, haya moti­ vado históricamente algunos desarrollos en las teorías de la caja negra (notablemente en termodinámica) y que los fenomenistas hayan recomendado teorías fenome­ nológicas puede explicarse por el fracaso en constatar

83

que ni siquiera el tiempo, la menos comprometida de todas las variables, es directamente observable, y que la más epidérmica de las teorías está hecha de constructos, no de perceptos.

C o n c l u s ió n

Se construirán cajas negras, presumiblemente, en la medida en que se aprecien las teorías generales y globales y en la medida en que las teorías representacionales se conozcan como inadecuadas. Y las teorías de la caja tras­ lúcida se construirán en la medida en que se sienta la ne­ cesidad de explicar las cajas negras, y en la medida en que se advierta que las cajas tienen interiores dignos de ser ojeados. Prohibir las cajas traslúcidas, tal como exigió el positivismo tradicional es considerar la conducta como un algo últimamente inexplicable, renunciar a su explica­ ción en términos de constitución y estructura y reempla­ zar la metafísica de la sustancia inalterable por una meta­ física de la función sin cosa alguna que funcione. En particular, el cajanegrismo prohíbe la construc­ ción de modelos visualizables salvo la caja negra misma, el más pobre de los modelos. Ahora bien, si se renuncia a los modelos, ya se los maneje como representaciones (signos icónicos) o como análogos (signos alegóricos), se nos previene de explotar su poder heurístico. Se nos pre­ viene además de obtener un vislumbre — literal o sim­ bólico— de los engranajes internos del mundo. Una metaciencia correcta exigirá que se eviten no toda clase de modelos sino sólo los modelos infundados e incontras­ tables por completo. El objetivo último de la teorización científica es cons­ truir teorías representacionales que incluyan y expliquen las correspondientes teorías fenomenológicas. El cajane­ grismo, por otra parte, hace falsa la suposición de que el

84

único objetivo de la teorización científica sea sistematizar fenómenos directamente observables. La historia de la ciencia sugiere que éste es sólo un desiderátum inmedia­ to, El objetivo a largo plazo de la teorización científica no es resumir la experiencia científica sino interpretar la realidad y, en particular, explicar aquella parte de la rea­ lidad ajustada al conocedor — esto es, el campo de los fenómenos (en el sentido del filósofo). La teorización científica puede inicialmente estar motivada por la urgen­ cia en comprender lo observado, y es ciertamente con­ trastada por hechos de esta clase; pero no triunfa en su tarea a menos que tome en consideración hechos inobser­ vables (pero inferibles). N o un vínculo directo entre los aspectos observables sino un dar cuenta de lo inobserva­ ble ha sido el programa más ambicioso y recompensante de la ciencia factual, ya desde su formulación en Demócrito. El reconocimiento de este hecho ayuda a abandonar la búsqueda de una certeza final — una de las motiva­ ciones del cajanegrismo— y adherir a una variedad de realismo crítico. Con todo, el menosprecio del cajanegrismo no es ne­ cesario que acarree la supresión de las cajas negras. Al contrario, un realista crítico tendrá que conceder que el mundo está aún y estará siempre lleno de cajas negras y que la investigación nunca logrará convertirlas en tras­ lúcidas por completo. Prohibir las cajas negras sería tan oscurantista como condenar las cajas traslúcidas. En pri­ mer lugar porque las cajas negras son inevitables en los estadios iniciales de la teorización y son útiles siempre que puedan despreciarse detalles o cuando únicamente se estudian efectos globales; así, cualquiera que sea la clase de radiación (fotones, electrones, neutrones, etc.) y el mecanismo de absorción, la ley de absorción de radiación será exponencial porque en todos los casos lo que impor­ ta es la cantidad de radiación que permanece en una determinada profundidad. En segundo lugar, las teorías de la caja negra deberían siempre plantearse cuando el

85

surtido de cajas traslúcidas fracasa — como era el caso de la psicología conductísta cuando enfrentaba la esteri­ lidad del introspeccionismo y de las relaciones de disper­ sión y teorías aliadas frente a los fracasos de las teorías hamiltonianas. En tercer lugar, las teorías de la caja negra proporcionan explicaciones generales y globales, y como tales son útiles aun mucho después de quedar subsumidas bajo teorías representacionales. En cuarto lugar, las teo­ rías de la caja negra proporcionan una contrastación para las correspondientes teorías de la caja traslúcida; así una psicología profunda que trate de procesos psíquicos subliminales y motivaciones internas no puede quedar esta­ blecida como una ciencia a menos que satisfaga la con­ dición límite de dar cuenta de todo aquello que el planteamiento conductísta establece. Lo que obstaculiza el progreso del conocimiento no es la multiplicación de las teorías de la caja negra sino la filosofía que valora la teoría fenomenológica como el tipo supremo de sistematización científica y denuesta la teoría representacional. El perjuicio ocasionado por esta filosofía es demasiado grande para permitir que continuemos in­ diferentes hacia ella. Lo que debe tolerarse o, mejor aún, estimularse, es la proliferación de teorías contrastables de todas clases, fenomenológicas o representacionales, cine­ máticas o dinámicas, precavidas u osadas, si bien te­ niendo en cuenta que las teorías no fenomenológicas y la epistemología realista que estimula su construcción deben ser preferidas en ultimidad por su superior contenido, su mayor riesgo y su mayor fecundidad: en resumen, las teorías representacionales satisfacen mejor los cánones de Popper respecto de la buena ciencia.25 25. Quedo muy agradecido a la discusión con el profesor Juan José Gíambagi (Departamento de Física, Universidad de Buenos Aires) sobre el alcance de la teoría de las relaciones de dispersión (una teoría feno­ menológica).

86

LA MADURACIÓN DE LA CIENCIA

Publicado en I. L akatos y A. Musgrave, compiladores, en Problems in the Philosophy of Science (Amsterdam, North-Holland, 1968). (Trad. cast. de Joaquim Setnpere.)

1.

C r e c im ie n t o n e w t o n ia n o y b a c o n ia n o

El conocimiento científico puede crecer en superficie o en profundidad, es decir, puede extenderse acumulan­ do, generalizando y sistematizando información o bien introduciendo ideas radicalmente nuevas que sinteticen y expliquen la información de que se dispone. El primer tipo de crecimiento, característico tanto de la investiga­ ción primeriza como de la rutinaria, puede llamarse ba­ coniano porque estuvo patrocinado por los dos Bacon, mientras que el crecimiento en profundidad puede cali­ ficarse de newtoniano por ser N ew ton quien inventó el primer sistema científico profundo y en gran escala. El crecimiento en volumen exige ambos tipos de crecimien­ to: el mero crecimiento en superficie es ciego y tiende a la parálisis por falta de ideas, mientras que el crecimiento exclusivamente en profundidad corre el riesgo de dar en una especulación incontrolada. N o obstante bay períodos en la historia de cada dis­ ciplina que se caracterizan por el predominio de uno de los dos tipos de crecimiento: los avances van habitual­ mente precedidos y seguidos por etapas de crecimiento vegetativo. El desarrollo más frecuente consiste, por su­ puesto, en el crecimiento en superficie, que tiene lugar cuando la atención se centra en la descripción, sistemati­ zación y predicción a expensas de la teorización. Este es todavía el caso de la mayoría de ciencias no físicas y de amplios sectores de la física, tales como la física de las partículas elementales. Si bien se da en estos campos 89

cierta actividad teorética, la mayor parte de las veces es de carácter taxonómico o fenomenológico, ya sea porque todavía se sabe demasiado poco para conjeturar pormenorízadaménte los mecanismos o porque la propia for­ mulación de hipótesis acerca de ellos topa con la resis­ tencia de una filosofía superficial. El crecimiento en superficie es necesario pero no su­ ficiente para alcanzar la madurez, siendo así que una ciencia madura es aquello a lo que debemos tender aunque la madurez completa sea verosímilmente inalcanzable. Es de esperar que la ciencia madure cuando la investigación aspira a la extensión, la profundidad y la solidez, es decir, cuando no sólo ensancha su campo sino que además pro­ fundiza en él y lo organiza mejor. Todo el mundo sabe lo que significa ‘organización lógica’, pero ¿qué quiere decir ‘profundidad’? Es más fácil reconocer la profundi­ dad que elucidarla, pero su análisis no es imposible. Puede alcanzarse básicamente de dos maneras: 1) me­ diante la introducción de hipótesis que contengan facto­ res no observables, a diferencia de los supuestos relativos a características fenoménicas u observables; y 2) median­ te la formulación de mecanismos a los que se atribuye la fundamentación de los hechos considerados. En ambos casos se supone que la profundidad epistemológica es un reflejo de la profundidad ontológica: se pretende referir las ideas más profundas a niveles más profundos de la realidad (aunque la suposición pueda resultar, natural­ mente, falsa). La profundidad halla su remate si va unida a la or­ ganización lógica. Está claro por qué razón toda mejora de la estructura lógica contribuye a la madurez de una disciplina: cuando se formaliza o simplemente se axiomatiza un cuerpo de ideas, es fácil reconocer sus componen­ tes esenciales (para su subsistencia y para su génesis). Éstas serán las ideas más profundas del sistema: sólo tienen capacidad explicativa las ideas lógicamente sólidas y los fenómenos (acontecimientos perceptibles) sólo pue­ 90

den explicarse por factores hipotéticos imperceptibles, como en el caso de las teorías atómicas. El proceso ideal de maduración es el que comprende los tres objetivos fundamentales mencionados antes, a saber, la formulación de teorías que (1) usan factores inobservables, a los que (2) articulan en forma de hipó­ tesis que, a su vez, (3) se estructuran axiomáticamente. Echemos un vistazo a estos objetivos.

2. Los

c o n c epto s: con cepto s

e m p ír ic o s

y

TRANSEMPÍRICOS

Un concepto puede calificarse de teorético si perte­ nece a alguna teoría científica; y de teorético factual si aparece en una teoría científica factual. Ejemplos de con­ ceptos teoréticos factuales: ‘energía’ (física) y ‘utilidad subjetiva’ (teoría de la utilidad). Los conceptos teoréticos factuales pueden ser genéricos o específicos: los primeros aparecen en una serie de disciplinas científicas, mientras que los últimos son característicos de las teorías indivi­ duales. En el contexto actual no nos interesan los con­ ceptos genéricos, tales como ‘ley’ y ‘teorema’: éstos pue­ den presentarse en un cuerpo cualquiera de ideas cientí­ ficas, sea cual sea su profundidad. Los rasgos típicos de una teoría, y en particular su profundidad, vienen deter­ minados por sus conceptos específicos. Los conceptos teoréticos específicos de la ciencia fac­ tual pueden ser observadonales o no observacionales, se­ gún se refieran o no a objetos observables. Los no ob­ servacionales pueden llamarse también ‘construcciones’; son característicos de la ciencia por oposición al cono­ cimiento ordinario. Ejemplos de conceptos teoréticos observacionales: ‘cuerpo’, ‘m óvil’ y ‘número de verifica­ ciones’; ejemplos de construcciones (o conceptos teoréti­ cos no observacionales): ‘momento’, ‘mutación’ y ‘apren­ dizaje’. Adviértase que la dicotomía observacional/no ob-

91

servadonal no es estricta, sino que deja un margen para las categorías de transición, y que no coincide con la par­ tición ordinario/científico. A eso debe añadirse que en la ciencia avanzada los registros de observaciones contienen construcciones. Toda teoría contiene construcciones, aun cuando sus correlatos pretendan ser por lo menos parcialmente ob­ servables, como en el caso de los cuerpos líquidos y sóli­ dos, correlatos de la mecánica del continuo. D e hecho los conceptos de masa, presión y viscosidad, que aparecen en estas teorías, son no observacionales: representan pro­ piedades que no pueden señalarse con el dedo. Esto no hace que estas teorías sean empíricamente incontrasta­ bles, sino que supone que la contrastacíón empírica va mucho más allá del mero tocar y oler. Algunas teorías no tienen ningún concepto observacional; por ejemplo, todas las teorías puras de campo y las teorías de entidades atómicas y subatómicas. Es cierto que las variables que representan, pongamos por caso, la po­ sición de un electrón y la fuerza de un campo electromag­ nético se llaman a veces observables; pero esto es una bro­ ma, que ni siquiera tiene gracia. En realidad ninguno de los correlatos de estas variables puede ser observado, en el sentido epistemológico de la palabra: la medición de estas variables exige no sólo un complejo equipo de la­ boratorio, sino también teorías adicionales (de carácter macrofísico) para designar las piezas de los aparatos e interpretar sus lecturas. Las variables presentes en tales teorías pueden tener todas objetivamente sentido o pue­ den no tenerlo: si las teorías son falsas en su conjunto, estas variables pueden carecer de referencia objetiva aunque hayan sido concebidas como plenas de sentido factual. Pero en cualquiera de los casos, tanto si se refie­ ren a entidades reales o a objetos imaginarios, no tienen ningún contenido empírico: ni se refieren a ninguna ex­ periencia propiamente dicha, como una percepción o una acción, ni tan siquiera a una experiencia científica (medi-

92

rión o experimento), aunque sólo sea porque los acon­ tecimientos experienciales son multifacéticos y deben por ende ser explicados mediante todo un conjunto de teorías. Tómese por ejemplo el enunciado ‘La medida de la energía del electrón a en el lugar b y en el instante c es E \ Esta frase tiene siempre sentido (factualmente), tanto si expresa una afirmación verdadera como si no lo hace y tanto si hay como si no hay un intento de comprobar por medios empíricos cuál es su valor de verdad. Sin embargo es corriente declarar que, mientras no se efectúe esta operación empírica, carece de sentido; esta condena su­ pone, evidentemente, algún uso no técnico del concepto de sentido. En cualquier caso, aun si se efectúa una serie de operaciones empíricas (guiadas por un conjunto de teorías) que confirmen la frase, ésta sigue careciendo em­ píricamente de sentido aunque factualmente sea signifi­ cativa. Una medición de la energía del electrón nos per­ mitirá asignarle un valor numérico o, mejor dicho, un intervalo numérico, pero no atribuirá ningún sentido a la expresión. Y esta medición — bueno es repetirlo— dista mucho de ser directa: requiere la colaboración de otras teorías, algunas de las cuales (como la mecánica clásica) son lógicamente incompatibles con la teoría en cuyo marco adquiere sentido el enunciado dado. El hecho de que los ‘observables’ de las teorías de los quanta no representan rasgos directamente observables puede verse también a partir de su definición usual. Ésta dice: ‘Una variable dinámica es observable si sus valores propios son reales y sus funciones propias constituyen una serie completa’. N o es la observabilidad sino ciertas propiedades matemáticas lo que constituye la diferencia específica que distingue los ‘observables’ de la mecánica cuántica de otras variables dinámicas. Análogamente, en la relatividad general los ‘observables’ no se definen se­ gún operaciones empíricas sino como magnitudes que permanecen invariantes en el curso de transformaciones 93

coordinadas arbitrarias. En cualquier caso, la noción de ‘observable’ no debe tomarse demasiado al pie de la letra y el término es un término confusionista cuyo efecto consiste en crear la ilusión de que las teorías de los quanta y la relatividad general tienen un contenido em­ pírico directo. Lo que se supone que los ‘observables’ de estas teorías representan de una manera simbólica son propiedades objetivas (independientes del operador) de los sistemas físicos; no se trata de conceptos observacionales sino de construcciones de elevado nivel, algunas de las cuales representan rasgos indirectamente mensurables. Un observable propiamente dicho — por ejemplo, un con­ cepto que sirva para describir una luminosidad en un contador de destellos— es una función más o menos complicada de dos series de variables: ‘observables’ re­ lativos a microsistemas y macrovariables referidas a pie­ zas del aparato. En cualquier caso las teorías más profundas se carac­ terizan por los conceptos no observacionales o construc­ ciones, ya sean microvariables o macrovariables. Los conceptos observacionales aparecen en las aplicaciones de teorías básicas a situaciones empíricas, aunque de ellas no se excluyen las construcciones. En la filosofía de las ciencias del comportamiento suelen distinguirse dos clases de construcciones: variables intermedias y construcciones hipotéticas. Las primeras median o intervienen entre conceptos observacionales, mientras que las segundas son formuladas en tanto que hipótesis para referirse a entidades y propiedades inob­ servables, como por ejemplo los niveles de energía de los átomos. El «centro de masa» en macrofísica y la «fuerza del hácito» en la psicología conductista serían variables intermedias, mientras que la «fuerza del campo gravitatorio» y el «coste de producción» serían construcciones hipotéticas. La principal diferencia entre variables intermedias y construcciones hipotéticas parece residir en el correlato

94

asignado a cada uno de ellos y, por consiguiente, viene determinada por los postulados interpretativos de la teoría en que aparecen, postulados que hasta cierto punto deben cambiarse sin modificar el formalismo. Así, una única construcción, como por ejemplo «fuerza de campo» o «impulso», se considerará construcción hipotética en una interpretación de la teoría y variable intermedia en otra. La distinción puede hacerse pues en términos semánticos independientemente de consideraciones metodológicas: las variables intermedias se refieren al sistema como tota­ lidad, mientras que las construcciones hipotéticas se refieren a partes o rasgos de objetos individuales supues­ tamente reales. En otras palabras, los predicados interme­ dios son holísticos mientras que las construcciones hi­ potéticas son atomísticas. A sí, en la teoría del campo electromagnético los potenciales y la energía total pueden considerarse variables intermedias, mientras que las fuer­ zas de campo y las diversas densidades son construccio­ nes hipotéticas. Y enfocado bajo esta luz, el conductismo pertenece a la misma categoría que el gestaltísmo desde el punto de vista semántico, aunque no desde el punto de vista metodológico. Está claro que las construcciones. hipotéticas o atomísticas son más profundas que las va­ riables intermedias u holísticas. Vamos a ver a continua­ ción cómo las primeras nos permiten construir las hipó­ tesis más profundas.

3. De

los

haces

de

in f o r m a c ió n

a

las

h ip ó t e s is

Una fórmula se llamará hipótesis factual cuando (1) se refiera a hechos de los cuales no se tenga hasta el momen­ to experiencia alguna o de los cuales sea en principio imposible tenería, y cuando (2) sea corregible a la luz de nuevos conocimientos. Desde el punto de vista de su ostensibilidad o de su inmediatez empírica, las hipótesis pueden clasificarse en observacionales y no observationales, según si contienen sólo conceptos observacionales o 95

por lo menos un concepto no observacíonal. «Los niños se parecen a sus padres» es una hipótesis observacíonal porque se refiere en términos observacíonales a una clase que rebasa el conjunto accesible a la experiencia indivi­ dual. Por su parte, el enunciado siguiente es manifiesta­ mente una hipótesis no observacíonal: «el momento an­ gular de una masa puntual situada en un campo central se conserva». Mientras que la primera es extensionalmente hipotética, la segunda lo es a la vez extensional e intensionalmente. Con las hipótesis ocurre lo mismo que con los con­ ceptos: cuanto más profundo sea un cuerpo de conoci­ mientos, tanto más numerosas serán las ideas no observacionales que contenga. Para un ser omnisciente los con­ ceptos y las hipótesis no observacíonales no tendrían presumiblemente ninguna utilidad; pero para el hombre la mayor parte de la realidad está oculta y debe ser por consiguiente objeto de conjetura. N o debe, por lo tanto, sorprender que las suposiciones iniciales (axiomas) de las teorías científicas sean todas hipótesis no observacíonales y, en particular, carentes de significación operacional (aunque contrastables). Aun cuando se refieran en último extremo a objetos empíricamente accesibles, tales como cuerpos de tamaño humano, su trato inmediato es con esquematizaciones ideales de tales objetos y su atención se dirige raras veces a propiedades fenoménicas. Así, en la mecánica de los cuerpos sólidos, se estudian más las dis­ tribuciones de masa y los movimientos posibles que las apariencias. Las apariencias, como las que se presentan al astrónomo que observa, son objetos complejos que no pueden explicarse sólo con la física sino también con la óptica fisiológica y la psicología fisiológica, las cuales a su vez se basan en hipótesis no observacíonales. A su vez, las hipótesis no observacíonales pueden ser modestas o ambiciosas: pueden o bien limitarse a des­ cribir un sistema desde fuera, como un todo, o bien pe­ netrar en los detalles de la estructura y en los mecanis96

mos internos del sistema al que se refieren. Las primeras pueden denominarse hipótesis fenomenológicas o de «caja negra», y las segundas hipótesis de «mecanismo», aunque entendiendo este último término no en el sentido estricto de referencia a una articulación de partes mecánicas. Las hipótesis fenomenológicas pueden comprender variables intermedias pero no construcciones hipotéticas (así como eventualmente también predicados intermedios); y ambas pueden ser o no ser estocásticas. Las hipótesis fenomenológicas son mucho más pro­ fundas que los enunciados que resumen haces de infor­ mación, pero no lo son tanto como las hipótesis de un mecanismo. Considérese, por ejemplo, la ecología de la población. En ella pueden distinguirse tres tipos de hi­ pótesis: 1) las relaciones (o curvas) funcionales, que in­ tegran y generalizan los datos relacionados con los pa­ rámetros observables; 2) las ecuaciones diferenciales, que expresan la tasa de variación del tamaño de la pobla­ ción, y 3) enunciados más complejos que den cuenta del tamaño de la población en términos genéticos y ecoló­ gicos. Si lo que nos interesa es comprimir, extrapolar e interpolar datos empíricos, nos quedaremos satisfechos con el establecimiento de curvas. Sólo cuando no nos basta con integrar y generalizar y abrigamos la ambi­ ción de explicar, tratamos de establecer hipótesis de ni­ vel más elevado, como por ejemplo ecuaciones diferen­ ciales cuya integración produciría las curvas empíricas o las hipótesis observacionales. Así, el crecimiento de una población perteneciente a una especie puede representarse mediante una de entre un conjunto infinito de curvas, siempre que se manten­ ga suficientemente cerca de los datos empíricos. Pero se prefiere el llamado modelo logístico, a saber, dN/dí = = rN (K — N ), aunque no pueda incluir posiblemente toda la información relevante, porque este modelo dice algo acerca del proceso de crecimiento, a saber, que la variación de la población es proporcional al tamaño N de

97 7 . — BKNCE

la población misma y a la diferencia entre el valor de sa­ turación K y el valor instantáneo N. Pero incluso esta hipótesis es insuficiente, aun cuando sea lógicamente más fuerte y semánticamente más profunda que cual­ quiera de las curvas empíricas: sabemos que el crecimien­ to de la población es regido por unas variables adiciona­ les, algunas de ellas internas, como la frecuencia de mu­ tación, y otras externas, como la fuerza de la compe­ tencia con las especies con las que se produce interac­ ción. El estudioso en ecología, de acuerdo con esto, tra­ tará de idear hipótesis más profundas que abarquen estos factores y que analicen eventualmente la variable y (tasa de crecimiento) fenomenológica (o intermedia): en tal caso se tratará de hipótesis de mecanismo. En todas las demás ciencias factuales puede apreciar­ se una tendencia similar, que lleva de los haces de datos a las hipótesis fenomenológicas y de éstas a las de me­ canismo. A medida que una ciencia madura se hace más profunda, es decir, introduce más y más hipótesis de me­ canismo, con la única condición de que no sean incohe­ rentes ni del todo incontrastables. Las razones de ello son múltiples: 1) las hipótesis ‘más profundas pueden alcanzar niveles más profundos de realidad (relevancia ontológica); 2) las hipótesis más profundas son las más fuertes desde el punto de vista lógico, puesto que inclu­ yen (eventualmente en conjunción con otras hipótesis) las hipótesis que sintetizan información (relevancia ló­ gica); 3) las hipótesis de mecanismo son más contrastables que las de «caja negra» — aunque lo sean menos directamente— porque son sensibles a detalles más mi­ nuciosos y a pruebas empíricas más variadas: al ser más fuertes dicen más cosas y por lo tanto se comprometen y se exponen mucho más que las más seguras y simples hipótesis fenomenológicas (relevancia metodológica). N o es de sorprender que todo salto teorético sea un avance en profundidad y que vaya seguido de un crecimiento sin precedentes en superficie. 98

4.

D e l « c a ja n e g r is m o » a l m e c a n is m o

Recordemos que una teoría propiamente dicha es un conjunto de fórmulas ligadas deductivamente. Si estas fórmulas tienen un correlato real, la teoría puede ser lla­ mada factual. En tal caso algunas de las fórmulas ini­ ciales serán puramente formales (por ejemplo, las que determinan la estructura matemática de un concepto), otras semánticas — que construirán la configuración de los símbolos de acuerdo con sus correspondientes correla­ tos— , otras serán hipótesis factuales propiamente di­ chas y por último habrá otras que serán supuestos sub­ sidiarios, tales como aproximaciones o incluso simples datos. Por ejemplo, en la teoría clásica de la gravedad, la suposición de que el potencial de un campo escalar real es formal; la suposición de que este campo matemático re­ presenta un medio extenso, el campo físico, o se refiere a él, es semántica; la ecuación de campo y las de movi­ miento son hipótesis propiamente dichas y además cons­ tituyen las suposiciones básicas de la teoría; por último, la expresión del valor numérico de la constante gravitatoria, y cualquier suposición especial, como la de que el campo en cuestión está asociado a una esfera material, son suposiciones subsidiarias. Las demás partes de la teoría son o bien definiciones (como la definición de la densidad) o teoremas (como cualquier fórmula que re­ presente la trayectoria de una partícula de prueba en el campo). N o es preciso decir que si bien la teoría no contiene ninguna «definición» operativa, es no obstante físicamente significativa y también contrastable. Se supone que las teorías factuales reproducen la configuración de sistemas reales: campos, cuerpos, orga­ nismos, sociedades. La representación puede ser global o detallada: puede modelar el sistema y su entorno en bloque o puede analizarlos en grados distintos. En am99

bos casos el sistema en cuestión (el correlato) puede considerarse como una caja; sólo en el enfoque externo o global no se descompondrá en unidades más pequeñas, mientras que en el enfoque interno o atomístico será analizado con referencia a sus componentes y a su fun­ cionamiento interno. El primer enfoque puede denomi­ narse fenomenológico o global, el segundo, mecanístico o atomístico. En cualquier caso, el entorno del sistema puede ser esquematizado, en primera aproximación, de manera glo­ bal mediante un conjunto de variables input (causas ne­ tas) y otro conjunto de variables output (efectos netos), que pueden ser empíricamente accesibles pero que no han de serlo todas necesariamente. Toda teoría cuya hi­ pótesis rectora sea una relación (o ley) fija entre inputs y outputs es una teoría fenomenológica, y toda teoría que se arriesgue a formular como hipótesis algo que me­ dia entre input y output, es decir, un mecanismo retenido por los inputs y con los outputs requeridos, es una teoría mecanística. En cualquiera de los casos la hipótesis cen­ tral puede simbolizarse así: O = MI, donde M repre­ senta un operador que convierte los inputs en outputs. Si M es una variable intermedia, entonces la teoría es fe­ nomenológica o un «cajanegrismo»; pero si se supone que M representa un mecanismo no visible responsable de la transformación de input en output, entonces la teoría es mecanística o representadonal. Así, mientras que la termoelasticidad clásica maneja parámetros glo­ bales, como la conductividad y los módulos elásticos, la teoría cuántica de los sólidos analiza tales parámetros en términos atómicos. Es evidente que, si bien ambas teo­ rías son necesarias, la teoría cuántica es la más profunda: va más al fondo en la estructura de la materia y, por lo menos en principio, explica la teoría fenomenológica. Ahora vemos qué es lo que hace que una teoría sea profunda: 1) la presencia de construcciones de alto ni­ vel, 2) la suposición de mecanismos y 3) una elevada

100

capacidad explicativa. La relación entre estas tres pro­ piedades de toda teoría profunda es evidente: los con­ ceptos transempíricos (construcciones) son necesarios para describir los mecanismos hipotéticos, los cuales a su vez son indispensables para explicar el comportamiento del sistema y eventualmente la apariencia que presenta a todo observador. Podemos dar un paso más e introducir la definición siguiente del concepto relacíonal de profundidad de una teoría: Si T y T' son teorías factuales, entonces T es más profunda que V 1) si T incluye construcciones — no observables— en mayor cantidad o de más alto nivel que V (aspecto epistemológico); 2) si estas construcciones se presentan en la descripción de mecanismos hipotéticos subyacentes a los hechos a los que hace referencia T' (aspecto ontológico o semántico); y 3) sí T implica una gran parte de T' pero no a la inversa (aspecto lógico). En particular, sí T implica la totalidad de T', entonces pue­ de decirse que T' es reductible a T. La física del estado sólido ofrece múltiples ejemplos de reducción de teo­ rías. Pero aun cuando la reducción, como ocurre en el caso de la relación de la mecánica estadística a la ter­ modinámica, es todavía incompleta (es decir, la intersec­ ción de las dos teorías es no vacía), la teoría más pro­ funda es la más depurada y la menos profunda es la más grosera. Las ventajas de las teorías más profundas o teorías de «caja traslúcida» sobre las más superficiales o de «caja negra» debieran ser obvias. La percepción de tales ven­ tajas debería tener consecuencias importantes tanto para la ciencia como para la filosofía: debería estimular a los científicos a idear más teorías profundas y osadas, aunque aumenten sus riesgos de error, y debería convencer a los filósofos de que la adhesión dogmática a las teorías más groseras o «cajanegristas» — fomentada por el empirismo y el convencionalismo— es puro oscurantismo. Por ejem­ plo, las teorías existentes sobre partículas inestables,

101

que pueden calcular la probabilidad de desintegración sin explicar detalladamente las razones del proceso, podrían subsumirse en una teoría más profunda que formulara como hipótesis algún mecanismo de descomposición, aun cuando esta última teoría siguiera siendo estocástíca y fuera por tanto incapaz de predecir el tiempo exacto de descomposición de una partícula individual. Pero este tipo de teorías de mecanismo o de «caja traslúcida» no serán siquiera abordadas a menos que se abandonen las filosofías que las desaprueban: la investigación científi­ ca no crece en profundidad si ha de dar oídas a una filo­ sofía superficialista.

5.

De

la

s u b s u n c ió n

a

la

e x p l ic a c ió n

INTERPRETATIVA

La explicación puede ser también superficial o pro­ funda. Desde un punto de vista lógico, toda explicación es una subsunción bajo un conjunto de premisas; en el caso de la ciencia teorética, algunas de estas premisas son fórmulas teoréticas (en particular, enunciados de leyes) y otras son suposiciones especiales que permiten la aplicación de la teoría a la situación de hecho. Si ade­ más de ser una subsunción de esta clase la explicación muestra de qué manera se produce una cosa, es decir si al menos una de las premisas es una hipótesis de meca­ nismo, entonces tenemos lo que a veces se llama una in­ terpretación del hecho en cuestión, que se llamará expli­ cación interpretativa. D e modo que se distinguen dos tipos de explicación científica: la subsuntiva y la inter­ pretativa. Cuando la desviación de un rayo de luz es explicada en función de la ley de Snell y del valor particular del índice de refracción del medio, nos las habernos con una explicación subsuntiva. Si el proceso es explicado con ayu­ da de ondas luminosas que satisfagan el principio de Huy-

102

gens, ganamos en profundidad. Y si se admite que la luz es un grupo de ondas electromagnéticas y se formula una hipótesis acerca de la estructura del medio, tene­ mos entonces una explicación aún más profunda del mismo hecho: tanto al medio como al rayo luminoso se les asigna una estructura descriptíble únicamente en base a construcciones. Lo que ocurre con los hechos ocurre también con las leyes. Si un enunciado de ley es subsumido bajo hipóte­ sis de nivel más elevado decimos que hemos explicado la ley. Pero podríamos desear ir más lejos y averiguar cómo apareció el esquema real al que se refiere el enun­ ciado de la ley. En otras palabras, podemos desear des­ cubrir el mecanismo de emergencia de una ley dada a partir de otras leyes. Estas otras leyes pertenecerán a niveles distintos (generalmente más bajos) del que corres­ ponde a la ley dada. Estos otros niveles pueden coexis­ tir o sucederse en el tiempo. Así, una de las tareas de la química cuántica consiste en explicar las leyes de la quí­ mica en función de las leyes cuánticas de los sistemas de partículas cargadas eléctricamente; en la medida en que consigue realizar esta tarea, la química cuántica aporta una explicación interpretativa de un sistema de leyes en función de otras leyes con un nivel de organización coexistente con el de las primeras e inferior a él. Y se­ ría tarea de la psicología descubrir cómo surgieron los modelos de aprendizaje en el curso de la evolución según leyes biológicas, surgimiento cuya explicación interpre­ tativa se hace en función de leyes de nivel evolutivo previo. Las teorías más profundas proporcionan las explica­ ciones más profundas, que son las explicaciones de tipo interpretativo o explicaciones en profundidad, aunque ambas son subsuntivas o recubridoras, en el sentido de que razonan a partir de leyes generales. La razón por la que las explicaciones interpretativas son más profun­ das que las subsuntivas es clara: algunas de sus premisas

103

dan lugar a un análisis más profundo en sentido ortoló­ gico, alcanzan estratos más profundos de la realidad. La profundidad de la explicación, por consiguiente, corre parejas con la profundidad de la teoría. La capacidad explicativa de una teoríá debe depender pues, no sólo de la extensión y exactitud de la teoría, sino también de su profundidad. Los dos primeros facto­ res constituyen el rendimiento de una teoría. El con­ cepto de rendimiento de una teoría puede elucidarse cuantitativamente en fundón del concepto de verdad par­ cial. Pero, sea cual sea la fórmula que se adopte para el rendimiento R(T) de una teoría T, cabe la tentación de escribir E(T) = R(T) • P(T) para expresar la eficien­ cia explicativa de T, donde P(T) es la profundidad de la teoría. Por desgracia, no se sabe de qué manera atri­ buir una medida apropiada al concepto de profundidad de una teoría. Una ocurrencia obvia es la de asignar a P(T) una medida ordinal según el número n de niveles (o de subniveles) franqueados por la teoría, número que es bastante arbitrario. A sí, a una teoría del aprendizaje que analizara el organismo en base a variables físicas, químicas, biológicas, psicológicas y ecológicas, podría asignársele una profundidad P(T) = 5. Pero habida cuen­ ta de la naturaleza bastante arbitraria de esta medida de la profundidad de una teoría, este índice n debe consi­ derarse más bien comparativo que cuantitativo. N o obs­ tante, no hay ninguna razón conocida que impida que la profundidad de una teoría sea cuantificada en sentido estricto. En cualquier caso, el índice E (T ) puede tomarse como cuasi-medida de la eficiencia o del volumen explica­ tivos de las teorías: por lo menos sintetiza la idea de que la potencia de una teoría viene determinada no sólo por su extensión y exactitud, sino también por su profun­ didad. Si fuera posible establecer una medida plenamente cuantitativa del volumen o de la eficiencia explicativos de una teoría, podríamos medir el crecimiento del saber

104

de manera mucho más exacta que por el mero recuento del número de escritos publicados en un terreno determi­ nado. Podríamos de hecho seguir la variación en el tiem­ po de E(T ) a medida que van siendo inferidos y pues­ tos a prueba nuevos teoremas, y podríamos incluso cal­ cular la tasa media de crecimiento de T en el transcurso de un intervalo de t , A¿, definido así: r ~ A J 5 / P o ­ dríamos además determinar el crecimiento del saber teo­ rético en la totalidad de un campo del modo siguiente: 1) tomando todas las teorías no contradictorias Ti de un campo dado y formando su unión lógica T — UT ay con *x ~ a \ N o hay que preferir la proposición o el sistema más simple, sino el más simple entre proposiciones y sistemas de análoga precisión, tanto por ser la precisión una exígengencia independiente de toda la ciencia como porque fa­ vorece la contrastabilidad. La escrutabilídad de los predicados básicos es otra condición obvia de contrastabilidad. Los predicados bási­ cos de una teoría científica no han de ser observables o mensurables de modo directo (lo son pocos de ellos), tínicamente han de estar abiertos al escrutinio público por el método de la ciencia, y para ello es condición necesaria y suficiente que la teoría establezca relaciones exactas entre sus predicados básicos y los predicados observables. Ciertos términos como ‘élan vital’, ‘sexua­ lidad infantil’, ‘espacio absoluto’ y otros parecidos no

140

pueden formar parte de enunciados contrastables, y por esto hay que abandonarlos. Si se quiere, esta norma de escrutabilidad puede llamarse principio de simplicidad metodológica, a condi­ ción de que se reconozca que no está necesariamente re­ lacionada con otros tipos de simplicidad, como por ejem­ plo la economía formal de la base predicativa. Una teoría que contenga un gran número de predicados escrutables será preferible a otra que contenga menos pero tales que todos o parte de ellos no sean escrutables, aunque sólo sea porque la primera teoría es contrastable, a diferencia de la otra. El estatuto metodológico de la base predicativa es mucho más importante que su es­ tructura lógica y su extensión. Así, el término ‘cargado eléctricamente’ es más complejo sintáctica y semántica­ mente que ‘providencial’, y sin embargo es escrutable y por consiguiente puede presentarse en la teoría cientí­ fica, mientras que el otro término no puede hacerlo. En suma, la exactitud y la escrutabilidad pueden ser com­ patibles con la complejidad lógica. Cuando esto ocurre hay que estar dispuesto a sacrificar la simplicidad. Por otra parte, una complejidad lógica excesiva pue­ de dificultar la contrastabilidad y, particularmente, la refutabilidad,11 siendo ésta la razón por la cual la sim­ plicidad lógica es de desear mientras no implique pér­ dida de exactitud, de alcance ni de profundidad. La irrefutabilidad puede producirse debido a la protección mutua de hipótesis que contengan predicados inescruta­ bles. Esto puede acontecer mediante el sentido común o por medios técnicos. Tenemos un ejemplo de lo pri­ mero en la teoría de la percepción extrasensorial, en la que todo caso desfavorable a la hipótesis de la transmi­ t í . K arx» R. Popper , The Logic of Scientific Discovery (Londres, Hutchinson, 1859 [1.* ed., 1955]), secciones 44 a 46 y apéndice V III. (Hay trad. cast. de V. Sánchez de Zavakj La lógica de la investigación científica [Madrid, Tecnos, 19623.)

141

sión telepática puede considerarse favorable a la de la precognición, o a la hipótesis según la cual el sujeto se ha cansado con el ejercicio de sus poderes sobrenatura­ les. Otros ejemplos de irrefutabilidad lograda con me­ dios más convincentes son todas las teorías fenomenológicas que contienen una serie de parámetros adapta­ bles y cuyo objeto es dar cuenta de ciertos fenómenos ex post jacto sin arriesgarse a formular ninguna presu­ posición acerca del mecanismo implicado. (Así, por ejem­ plo, la teoría fenomenológica de las fuerzas nucleares permite introducir una serie de parámetros que no son medibles independientemente y que pueden ser libre­ mente modificados dentro de amplios límites; además, las consecuencias observables de la teoría son en gran medida insensibles a las variaciones cualitativas en las formas y profundidades de los vacíos de potencial. Esta es una de las razones por las que se prefiere como des­ cripción de la realidad la teoría de los mesones de las fuerzas nucleares, que implica un mecanismo definido.) La exigencia de contrastabilidad conduce a largo pla­ zo o bien a prescindir de las hipótesis mutuamente de­ pendientes o a empezar enteramente de nuevo. En el primer caso se efectúa una simplificación, pero entonces pueden quedar unos pocos ejemplos conformatorios; en el segundo caso la teoría resultante del nuevo punto de vista puede ser más simple o más compleja, pero en cualquiera de los casos será más detallada y, por consi­ guiente, más audaz que la timorata teoría fenomenoló­ gica (la cual, si es validada empíricamente, será útil como pauta para otras teorías nuevas y más profundas). En todo caso, la falsedad de las teorías simples es gene­ ralmente más fácil de exponer que la falsedad de las teorías complejas, a condición de que sea falseable. La parquedad en el número de parámetros empíricamente ajustables no es el sello de la verdad sino el signo del fracaso de la falsedad.

142

1.4. Sim plicidad , verosim ilitud y verdad Las teorías más simples son contrastadas más fácil­ mente tanto por la experiencia como por otras teorías, es decir, por inclusión o imbricación con sistemas contiguos. Las simplificaciones sintáctica y semántica son, pues, con­ diciones suficientes para mejorar la contrastabilidad, aun cuando no sean estrictamente necesarias para garantizar­ la. Sin embargo, hay tanta distancia entre contrastable y contrastado como entre una promesa y su cumplimien­ to. Las simplificaciones sintáctica y semántica tienen sig­ nificación para la verosimilitud de las teorías científicas en la medida en que son factores tanto de sistematicidad como de contrastabilidad. Pero el establecimien­ to del grado de verosimilitud de una teoría es una cosa, y la estimación de su grado de corroboración es otra distinta: esta última se efectúa a posteriori, después de la realización de ciertas pruebas, que incluyen la corro­ boración empírica, el control de compatibilidad con la masa de conocimiento relevante y el control de la capa­ cidad explicativa. Sólo en la estimación previa de la ve­ rosimilitud de una teoría pueden plantearse legítimamen­ te consideraciones de simplicidad, y esto de un modo indirecto, a saber, mediante la contribución de la simpli­ cidad a la sistematicidad y a la contrastabilidad. En cuanto una teoría ha sido aceptada como la más verdadera de que se dispone, no nos preocupamos dema­ siado por su simplicidad. N o tiene sentido decir que esto ocurre porque la simplicidad ha sido ya tenida en cuenta en la teoría durante su construcción: como ya hemos visto, la simplicidad epistemológica es incoherente con la profundidad y con la simplicidad formal, y esta últi­ ma es incoherente con la exactitud, que no es sólo un desiderátum por sí misma, sino también una condición de la contrastabilidad. La probabilidad tampoco funda la tesis de que la sim-

143

plicidad es necesaria para la verdad, como sostiene la teoría según la cual las teorías más simples son las más probables porque la base de toda teoría consiste en la conjunción de un número de axiomas, y cuanto menor sea el número de miembros que aparezcan en la conjunción mayor será su probabilidad total (igual al producto de las probabilidades de los axiomas individuales). La ina­ decuación de esta teoría es patente: (1) no se aplica a teorías que contengan al menos un enunciado de ley es­ trictamente universal, ya que la probabilidad de las leyes universales es exactamente cero; (2) no son las hipótesis más simples sino las más complejas las que son más fá­ ciles de adecuar con los datos empíricos: piénsese en una línea sinuosa que pase entre los puntos que representan los datos empíricos en un plano de coordenadas, en con­ traposición con una curva sintácticamente más simple, tal como la línea recta; es improbable que muchos «pun­ tos» empíricos estén en una curva simple. Las hipótesis más complejas — especialmente si están construidas ex post fado y ad hoc— son las más probables a prior!.12 En suma, la simplicidad es incompatible con una alta pro­ babilidad a priori. En resumen, la simplicidad sintáctica y la semántica, dentro de ciertos límites, son favorables a la sístematicidad y a la contrastabilidad, en cambio no lo son a la exactitud y a la verdad; sin embargo, no son condiciones necesarias de sistematiddad y contrastabilidad. Ahora bien, se puede idear un número cualquiera de sistemas contrastadles capaces de dar interpretación de una serie dada de datos empíricos; la cuestión estriba en dar con el más verdadero — problema científico— y en reconocer los signos de la verdad aproximada — pro­ blema metacientífico— . Porque lo cierto es que la ver­ 12. Cf. H ermann ’Weyl, Pbilosophy of Matbemafics and Natural Science (Princeton, Princeton University Press, 1949 [1.a ed., 1927]), p. 156, y P ofper, véase nota 11.

144

dad no es el desvelamiento de lo que ha estado oculto, como han pretendido los presocráticos y Heidegger: la verdad se hace, no se encuentra, y diagnosticar la verdad es tan difícil como diagnosticar la virtud. Tenemos una teoría válida de la verdad completa (no la aproximada) de enunciados compuestos sólo de enunciados observacionales,13 pero no tenemos ninguna teoría satisfactoria de la verdad aproximada de las teorías. Decir que una teoría factual es verdadera si y sólo si sus consecuencias observables son verdaderas y ninguna de ellas es falsa, es impropio, no sólo porque la teoría puede contener supuestos incontrastables y sin embargo ser consistente con hechos observables, sino también porque no hay me­ dios de contrastar exhaustivamente la infinidad de conse­ cuencias (teoremas) de las teorías científicas cuantitativas y porque la noción de verdad aproximada está implícita en ellas. Además, debiéramos saber que todas las teorías factuales son falsas hablando estrictamente: que son ver­ daderas con una aproximación mayor o menor. N o tene­ mos ningún procedimiento decisorio para reconocer la verdad aproximada de las teorías factuales, pero hay sín­ tomas de la verdad, y el experto emplea estos signos para evaluar las teorías. Examinemos estos síntomas de la verdad y veamos qué simplicidades, en caso de que las haya, son relevantes para ellos.

2. R equisitos de

teoría científica o síntomas DE LA VERDAD

la

Pueden distinguirse por lo menos cinco grupos de síntomas de la verdad de las teorías factuales, que pue­ den denominarse sintácticos, semánticos, epistemológi­ cos, metodológicos y filosóficos. Cada síntoma da lugar a 13. Alfred T arski, «The Semantíc Conception of Truth», Pbil. and. Pbenom. Research, 4, 341 (1944).

10.

145 — bunge

un criterio o norma, que concurre en la práctica actual de sopesar las teorías factuales antes y después de su prue­ ba empírica, con objeto de averiguar si constituyen un progreso respecto a otras teorías competidoras, si se da el caso. Los ñamaremos criterios de prueba. Son los veinte siguientes:

2.1. Requisitos sintácticos 1. Corrección sintáctica. — Las proposiciones de la teoría han de estar bien formadas y han de ser coherentes entre sí si se aspira a tratarlas con ayuda de la lógica, sí la teoría ha de tener sentido y si ha de referirse a un determinado ámbito factual. Los conjuntos de signos ca­ rentes de corrección sintáctica, por otra parte, no pueden ser manipulados lógicamente; tampoco pueden ser inter­ pretados unívocamente, y si contienen contradicciones internas pueden llevar a una multiplicidad estéril de enun­ ciados irrelevantes. Sin embargo, toda teoría es algo con­ fusa en sus primeras etapas; por consiguiente, una co­ rrección sintáctica aproximada y la posibilidad determi­ nada de un mejoramiento formal son criterios más rea­ listas que la nitidez formal final, que puede no ser alcanzable en modo alguno. La simplicidad no es, evidentemente, un factor de corrección sintáctica; por otra parte, la simplicidad faci­ lita la prueba de la corrección sintáctica.2 2. Sisiematicidad o unidad conceptual. — La teoría, para merecer este nombre, ha de ser un sistema concep­ tual unificado (es decir, sus conceptos han de «estar li­ gados entre sí»), y también ha de serlo si pretende afron­ tar las pruebas empíricas y teoréticas como totalidad, es decir, si la contrastación de cualquiera de sus partes ha de ser relevante para el resto de la teoría, de tal manera

146

que pueda eventualmente omitirse un juicio acerca de la corroboración o falsacíón de la teoría como un todo. Como vimos anteriormente (sección 1.2), la simpli­ ficación de la base predicativa de la teoría basta para aumentar la sistematicidad, pero no es necesaria para al­ canzarla y no puede ser forzada más allá de ciertos lí­ mites en parte establecidos por el correlato de la teoría (por ejemplo, un aspecto de la naturaleza). Además, la tendencia histórica de la ciencia no ha sido el estrecha­ miento de las bases predicativas sino su expansión, junto con el establecimiento de un número cada vez mayor de conexiones — principalmente mediante enunciados de le­ yes— entre los diversos predicados. La tendencia de la ciencia consiste en un enriquecimiento conceptual progre­ sivo, acompañado de una cohesión o integración lógica creciente, y no una unificación por empobrecimiento.14

2,2. Requisitos semánticos 3. Exactitud lingüística. — La ambigüedad, la va­ guedad y la oscuridad de los términos específicos han de ser mínimas para asegurar la interpretabilidad empírica y la aplicabilidad de la teoría. Este requisito descalifica las teorías en que ocupan un lugar esencial términos como ‘grande’, ‘caliente’, ‘energía psíquica’ o ‘necesidad histó­ rica’. Ahora bien, la supresión de tales términos indeseables tiene poco que ver con la simplificación. La clarificación supone con más frecuencia complicación o, por lo menos, la manifestación de una complejidad efectiva por debajo de una simplicidad aparente. D e ahí que la simplicidad sea desfavorable para la exactitud lingüística o, a lo sumo, irrelevante respecto a ella. 14. Mario Bunge, Causaliiy (Cambridge, Mass., Harvard University Press, 1959), pp. 290-291.

147

4. Interpretabilidad empírica. — H a de ser posible inferir de las presuposiciones de la teoría electrón + neutrino

H 2

Esta hipótesis es epistemológicamente compleja; también es metodológicamente complicada puesto que el neu­ trino, debido a su falta de carga y a su masa pequeña (o nula), es notablemente escurridizo, hasta el punto que muchos físicos no han creído durante años en su exis­ tencia, especialmente después de haber fracasado muchos intentos independientes y bien preparados para detec­ tarlo. Con todo y con esto, H 2 no es todavía suficien­ temente compleja: es consistente con el espectro ener­ gético continuo, pero no con la hipótesis de conserva­ ción de spín, que en otros campos se ha visto que es correcta. Esta última hipótesis es respetada mediante la introducción de otra entidad teorética, a saber, el antineu trino: mesón mu -> electrón + neutrino -fantineutrino

H 3

Esta hipótesis es consistente con la conservación de la carga, la energía y el spín; pero implica una entidad que no es empíricamente discernible del neutrino. El esque­ ma de desintegración se ha vuelto cada vez más com­ plejo sintáctica, epistemológica y metodológicamente. Naturalmente, la hipótesis H 3 no es la única cohe­ rente con los hechos conocidos: podemos formular, en su

171

lugar, un montón de conjeturas sólo con suponer que un número arbitrario n de neutrinos y antíneutrinos par­ ticipan en una desintegración beta. Pero no hay motivo para adoptar una cualquiera de estas hipótesis más com­ plicadas mientras no sepamos distinguir experimental­ mente entre sus consecuencias, y mientras no arrojen nueva luz sobre la explicación de los fenómenos. Es en este caso cuando apelamos a la regla de la simplicidad. Pero no nos limitamos a elegir «la más simple entre las hipótesis compatibles con los hechos observados», como propone la metodología inductivista: seleccionamos la más simple entre un conjunto de hipótesis igualmente precisas, todas ellas compatibles con los hechos conoci­ dos y con el conjunto de enunciados de ley que conside­ ramos relevantes y válidos. Y esto está muy lejos de la simplicidad en abstracto, puesto que se produce tras un trabajo considerable de elaboración y cuando ya nin­ guna complicación ulterior promete ser fructífera. La re­ gla usada actualmente en la investigación científica no es sólo Ja de «elegir lo más simple», sino «probar pri­ mero lo más simple, y si falla — como normalmente ocu­ rre— introducir de modo paulatino complicaciones com­ patibles con el conjunto del conocimiento». Una segunda hipótesis de la teoría es que las leyes que rigen esta clase de desintegración no son invarian­ tes cuando tiene lugar una inversión de las coordenadas de posición (es decir, bajo la transformación de paridad x Antes de los trabajos de Lee y Yang (1956), se había adoptado la más simple de las hipótesis respecto a esta transformación, a saber, que todas las leyes físi­ cas son invariantes respecto a la paridad (es decir, que no cambian al invertirse la derecha y la izquierda). El rechazo de este enunciado m etanomológico36 permitió 36. Para un análisis del estatuto lógico de la ley de conservación de la paridad y otras afirmaciones metanomológícas, véase Mario BunG", «I.awa o£ Physical Laws», American Journal of ‘Pkysics, 29, 518 (1961).

172

identificar dos clases de partículas (los mesones zeta y tau) — lo cual supuso una simplificación taxonómica— y condujo a la predicción de hechos anteriormente insos­ pechados, tales como la asimetría de la distribución an­ gular de los productos de desintegración. La teoría, después de ser corregida por las vías antes elaboradas: a) tenía capacidad serendípica, b) era original hasta llegar a la «extravagancia» (esto es lo que ha opi­ nado mucha gente a propósito de la hipótesis del neutrino y de la no conservación de la paridad), y c) era pro­ funda, hasta el punto de derribar la creencia laboriosa­ mente adquirida según la cual no pueden hallarse jamás en la naturaleza diferencias intrínsecas entre la izquier­ da y la derecha. N o sería correcto considerar la identificación de los mesones zeta y tau como caso que confirma el principio de la simplicidad: esta pequeña simplificación introdu­ cida en la sistemática de las partículas fundamentales no suponía una simplificación en la teoría básica sino una atribución de simplicidad a la propia naturaleza. Ade­ más, estaba contrarrestada con creces por la introduc­ ción de términos nuevos y menos familiares (contribu­ ciones pseudoescalares y pseudovectoriales al operador de energía), que complicaban paralelamente los teoremas dependientes de ellos. N o fue, pues, el respeto a la simplicidad sino la in­ vención audaz de hipótesis nuevas, originadoras de mayor complicación, lo decisivo para la elaboración, el perfec­ cionamiento y la aceptación de la teoría de la desintegra­ ción beta. 3.4. ha teoría de la evolución ¿Qué fue lo que dio a la teoría darviniana de la evo­ lución por la selección natural la victoria sobre sus diver­ sos rivales, y en particular sobre el creacionismo y el lamarckismo? La teoría de Darwin fue declarada defec­

173

tuosa desde el punto de vista lógico (recuérdese la idea de que la «supervivencia del más apto» es un círculo vicioso); contenía diversas aserciones falsas o por lo me­ nos no probadas («Toda variación es buena para el in­ dividuo», «los caracteres adquiridos, cuando son favora­ bles, se transmiten hereditariamente»); no había sido contrastada con la observación, salvo mediante la expe­ rimentación sobre especies vivientes bajo condiciones con­ troladas (el desarrollo de especies de bacterias resistentes a los antibióticos, el melanismo industrial en las maripo­ sas y algunos otros procesos que apoyan la teoría fueron observados décadas después de que apareciera The Origin of Species); su capacidad explicativa era claramente me­ nor que la de sus rivales (las teorías irrefutables son las que tienen la mayor capacidad explicativa post factum)\ no tenía ninguna base inductiva sino que constituía, por el contrario, una invención audaz cargada de elementos inobservables de elevado nivel. Y por si no bastaban estos pecados para condenar la teoría, el sistema de Dar­ w in era mucho más complejo que cualquiera de sus ri­ vales: compárese el postulado único que establece la creación individualizada de cada especie, o los tres pos­ tulados de Lamarck (que establecen la tendencia inma­ nente a la perfección, la ley del uso y de la atrofia y la herencia de los caracteres adquiridos), con el sistema de Darwin, que comprendía entre otros los siguientes axio­ mas: «Una elevada tasa de crecimiento de la población lleva al aumento de la densidad de ésta», «una alta den­ sidad de población conduce a la lucha por la vida», «en la lucha por la vida sobreviven los que tienen mayor adaptabilidad innata», «las diferencias favorables son he­ reditarias y cumulativas» y «los caracteres desfavorables llevan a la extinción». Los rasgos que aseguraron la supervivencia de la teo­ ría de Darwin a pesar de su complejidad y de sus diver­ sos fallos parecen haber sido los siguientes: a) coheren­ cia externa: la teoría era compatible con la geología

174

evolucionista y con la teoría evolutiva del sistema solar; b) capacidad unificadora y fecundidad: la teoría se ex­ tendió con rapidez, audacia y fecundidad a la antropología física, a la psicología y a la historia, y se extrapoló sin garantías hacia la sociología (darwinismo social) y la ontología (progresismo spenceriano); c) originalidad: aun­ que la idea de evolución era vieja, el mecanismo propues­ to por Darwin era nuevo y sugería numerosos puntos de partida audaces en todos los terrenos, así como el establecimiento de relaciones entre campos hasta enton­ ces inconexos; d) escrutabilidad: la teoría de Darwin no empleaba predicados inobservables, como ‘'creación’, “fi­ nalidad’, “perfección inmanente’ y otros análogos, y no implicaba supuestos modos de conocer no científicos (co­ mo la revelación); e) refutabilidad empírica: contraria­ mente a las teorías rivales, en la de Darwin cada elemen­ to de prueba significativo era favorable o desfavorable; /) parsimonia de niveles: no se invocaba ninguna enti­ dad espiritual para dar cuenta de fenómenos de nivel inferior, y tampoco se recurría a ningún mecanismo pu­ ramente físico-químico; g) solidez metacientífica: en par­ ticular, compatibilidad con el postulado de legalidad, vio­ lado por la hipótesis de la creación; sin embargo, por otra parte, la teoría era incompatible con la metodología inductivista entonces dominante y a muchos les resultaba sospechosa bajo este ángulo; h) coherencia desde el pun­ to de vista de la concepción del mundo: paralelismo muy preciso con la visión naturalista, agnóstica, dinamicista, progresista e individualista de la intelectualidad, sobre la cual habían producido una profunda impresión los re­ cientes cambios sociales y culturales (especialmente 1789, el cartismo y 1848). Estas virtudes del darwinismo su­ peraron con creces sus debilidades y lo hicieron merecedor de correcciones en varios pim íos, hasta que fue superado por la genética (sólo en la década de 1930). En resolución, la simplicidad no se tuvo en cuenta en la génesis y desarrollo de la teoría de la evolución.

175

3.5. La teoría genética La teoría mendelíana de la herencia ha sido impug­ nada desde sus orígenes por el circunstancialismo (environmentalism) o neolamarckismo. La teoría de la omni­ potencia del entorno es atractiva para muchos por estar mucho más cerca del sentido común, por ser causal, por­ que nos permitiría — en caso de ser cierta, y ¡ojalá lo fuera!— pronto controlar la evolución de una manera planificada y por último porque es superficialmente com­ patible con una visión optimista y progresiva de la vida humana, en la que el cuidado podría compensar toda de­ ficiencia de la naturaleza. Frente a ella, la genética men­ delíana es formal, semántica y epistemológicamente mu­ cho más compleja; emplea términos teoréticos tales como ‘gene1; exige el uso de estadísticas; no proporciona por ahora el control preciso de la evolución; apunta hacía perspectivas bastante poco halagüeñas y refuerza — por lo menos en la versión que da Weismann de la teoría— el anacrónico supuesto ontológico de la existencia de una sustancia inmutable (el plasma germinativo). Ade­ más, la teoría genética no explica satisfactoriamente la herencia en el caso de los organismos superiores, y mu­ chos genetistas están comenzando a pensar en una inter­ vención paralela, aunque más débil, del citoplasma en la transmisión de caracteres. ¿Por qué la mayoría de los biólogos acepta, pues, la genética mendeliana? Las principales razones parecen ser las siguientes: a) es representacionab. localiza con preci­ sión cada factor hereditario en un fragmento de materia (gene o complejo génico), y describe un mecanismo probabilístico (mezcla de genes) que explica el resultado final, mientras que el circunstancialismo es una teoría fenomenológíca; b) es coherente con la teoría de la evo­ lución por selección natural (siempre que ésta sea mo­ dificada para cumplir precisamente este requisito) y con

176

la bioquímica (recientemente se ha descubierto un me­ canismo plausible y preciso de transmisión de información genética y de duplicación de genes); c ) tiene capacidad predictiva\ con la ayuda de sus leyes son a menudo po­ sibles las predicciones estadísticas cuidadosas (no las in­ dividuales); d) es refutable y confirmable por experi­ mento (por ejemplo, por mutación mediante acción física directa de rayos X sobre los cromosomas), mientras que la teoría circunstancialista es sólo confirmable, puesto que habla de vagas influencias del entorno; e) es compa­ tible con algunas concepciones filosóficas bien fundadas y ampliamente aceptadas, tales como el naturalismo (base material de las características biológicas) y el atomismo (existencia de unidades discretas de uno u otro tipo en cada nivel de organización). Una última razón, no por esto menos importante, es que su principal enemigo, el lyssenkismo, se vio perjudicado por el fraude, el dog­ matismo y ciertas concomitancias desagradables con li­ mitaciones de la libertad académica. Pero, ¿quién po­ dría negar que se produjeron actitudes antiacadémicas y desleales en ambos campos, hace algunos años, sim­ plemente porque toda la controversia se concibió como parte integrante de una guerra santa? En cualquier caso, la simplicidad — que, dicho sea de paso, estaba del lado de Lyssenko— no desempeñó ningún papel en la discusión si se compara con las consi­ deraciones ideológicas y políticas.

3.6. La contrastación de las contrastaciones Se han recordado cinco ejemplos históricos para con­ trastar las contrastaciones propuestas en la sección 2. (Una metaciencia no sería científica si no contrastara sus propias hipótesis.) N o se trataba meramente de ca­ sos elementales de adaptación de fórmulas a conjuntos aislados de datos, lo cual constituye el ejemplo favorito

177 12. — B'JNCE

del tratamiento inductívísta de la simplicidad. Los cinco casos seleccionados para el examen consistían en siste­ mas de hipótesis contrastables y eran suficientemente importantes para afectar en alguna medida la moderna concepción del mundo. En ninguno de ellos se ha visto que la simplicidad haya sido un factor importante de construcción o evaluación de la teoría: al contrario, las teorías que acabaron imponiéndose eran en la mayoría de aspectos notablemente más complejas que las teorías rivales que fueron derrotadas. Ello hace pensar en la complejidad objetiva de lo real.

4. C onclusión: La

ligereza de las simplicidades

4.1. La simplicidad, ni necesaria ni suficiente Mientras que la concordancia con los hechos según lo atestigua la experiencia era considerada por los metacientíficos como la única prueba de una teoría verdade­ ra,37 la simplicidad por sí sola parecía proporcionar el cri­ terio de selección decisivo entre teorías competidoras. ¿Qué otro factor podía distinguir una teoría de otra, siendo así que — de acuerdo con el inductivísimo— la aten­ ción se centraba en la confirmación empírica, con menos­ cabo de todos los restantes factores que de hecho, cons­ ciente o inconscientemente, intervienen en la evaluación de las teorías científicas? Ya pasaron aquellos días de la sancta simplicitas: cada día está más claro que el grado de verdad o de sustentación de las teorías científicas nunca ha sido equi­ valente a su grado de confirmación. Los científicos siem­ 37. Véase, por ejemplo, W. Stanley Jevons, The Principies of Science, 2.a ed. (Nueva York, Dover, 1958 [1.a ed., 1877]), p. 510; P ierre D u h e m , La théorie physique, 2.a ed, (París, Riviére, 1914), p, 26; véase, no obstante, en la p. 259, donde admite que la simpli­ cidad no es un signo de certeza.

178

pre han impuesto de jacto muchos más requisitos, que han sido reconocidos de vez en cuando.38 En la sección 2 se enumeraron veinte requisitos — que a nivel pragmáti­ co actúan como otros tantos criterios de prueba— , pero no se incluyó entre ellos la simplicidad en general por la sencilla razón de que una teoría puede ser simple y falsa, o compleja y aproximadamente cierta, es decir, por la sencilla razón de que la simplicidad no es un signo

necesario ni suficiente de la verdad. N o sería realista considerar ninguno de los veinte requisitos, a excepción de la sistematicidad, la precisión y la contrastabílidad, como estrictamente necesarios para que pueda llamarse teoría científica a una serie de hipó­ tesis, si bien en su conjunto son suficientes para deno­ minarla teoría científica más o menos verdadera. (Los criterios de prueba son por consiguiente útiles para distin­ guir los sistemas científicos de los no científicos y, en especial, para eliminar las teorías pseudocientíficas.) Los veinte requisitos son más bien desiderata para la cons­ 38, Un temprano reconocimiento de la multiplicidad de requisitos puede verse en H einrich H ertz, The Principies of Mechantes (Nueva York, Dover, 1936 [1.a ed., 1894]), Introducción. Hertz enumeraba los siguientes: 1) la posibilidad lógica o compatibilidad con las «leyes del pensamiento»; 2) la capacidad predíctiva; 3) el número máximo de «relaciones esenciales del objeto» (lo que yo he llamado profundidad); 4) «el número mínimo de relaciones superfluas o vacías». Transcurrió medio siglo antes de que otro científico-filósofo se atreviera a añadir requisitos no empíricos: H enry Margenau, The Nature of Phystcal Reality (Nueva York, MacGraw Hill, 1950), cap. 5, enumera los si­ guientes «requisitos o construcciones metafísícos»: 1) fecundidad lógica, 2) multiplicidad de relaciones, 3) permanencia o estabilidad, 4) capa­ cidad unificadora, 5) causalidad, 6) simplicidad y elegancia. Véase también: Mario Bunge, Metascientific Queries (Springfield, 111., Orar­ les Thomas, 1959), pp. 79 y ss., y Karl R. P opper, «The Idea of Truth and the Empirical Character of Sdentific Theories», trabajo pre­ sentado en el Congreso internacional de Lógica, Metodología y Filoso­ fía de la Ciencia (Stanford, 1960). En este trabajo Popper sostiene que uno de los requisitos de una buena teoría es que «tenga éxito al menos en algunas de sus nuevas predicciones», es decir, que resulte confirmada.

179

trucción de teorías, medios para alcanzar la verdad y sín­ tomas de la verdad; y, al igual que otros desiderata, no son todos mutuamente compatibles: de ahí que haya que buscar siempre un compromiso. Ahora bien, cada desiderátum — en este caso como en cualquier otro— puede satisfacerse con diversos gra­ dos, y el fracaso de una teoría para cumplir rigurosa­ mente con alguno de los requisitos mencionados— salvo con la sistematicidad, la precisión y la contrastabilidad, que son imperativos — no debiera llevar al abandono de una teoría en su conjunto. Así, por ejemplo, la correc­ ción sintáctica y la exactitud lingüística son siempre es­ casas al principio. Si una teoría es rica en conceptos pro­ fundos, trascendentes y escrutables, y si promete unificar amplios campos de conocimiento o ser útil para la explo­ ración de nuevos territorios, sería estúpido abandonarla del todo por culpa de algunas deficiencias formales; lo mejor será acabar de elaborar la teoría y contrastarla: la precisión sintáctica y la semántica se perfilarán even­ tualmente en este proceso. Sólo las teorías maduras cum­ plen todos los requisitos de una manera excelente. Pero también ocurre que las teorías factuales maduras, como las personas maduras, son las que están a punto para ser sustituidas. Qué lugar ocupa la simplicidad en el conjunto de criterios que guían nuestra evaluación de las teorías cien­ tíficas? Para poderlo apreciar debemos recordar, en pri­ mer lugar, que hay varios tipos de simplicidad (sec­ ción 1.1) y, en segundo lugar, que la simplicidad de uno u otro tipo es sólo favorable a unos pocos síntomas de verdad, e incluso en este caso dentro de ciertos límites. En las secciones 1.2 y 2.2 se puso de manifiesto que la simplicidad sintáctica favorece la sistematicidad, aunque no sea necesaria para alcanzarla; también se propuso co­ mo criterio probatorio una moderada simplicidad semán­ tica y metodológica, sobre todo por razones prácticas. Por otra parte, algún tipo u otro de complejidad es in­

180

separable de otros once criterios: la consistencia exter­ na, la exactitud lingüística, la ínterpretabilidad empírica, la representatividad, la capacidad explicativa, la capaci­ dad predictiva, la profundidad, la capacidad unificadora, la originalidad, la confirmabilidad y la compatibilidad con la concepción del mundo. Por último, la regla de la simplicidad es ambigua con relación a la contrastabilidad y a la parsimonia de niveles y, en el mejor de los casos, es neutral respecto a los cuatro requisitos restantes (correc­ ción sintáctica, fecundidad, escrutabilidad y solidez metacientífica). N o parece posible asignar un peso numérico a la ma­ yoría de los requisitos, y no parece muy prometedor in­ tentar cuantificar la contribución — positiva, negativa o nula— de la simplicidad a aquellos diversos síntomas. Si parece necesario mencionar cantidades al respecto, con­ tentémonos con decir que la simplicidad no influye po­ sitivamente sobre diecisiete de los veinte principales sín­ tomas de la verdad. Respecto a la mayor parte de los síntomas de la verdad, la simplicidad es análoga al flogisto: es vaga, escurridiza y, cuando no es imponderable, tiene una influencia negativa.

4.2. El papel de los diversos tipos de simplicidad en la

investigación El papel de las simplicidades en la investigación cien­ tífica — a diferencia de sus productos: los datos y las teorías— es en resumen el siguiente. Las simplicidades no son de desear en la fase del hallazgo de problemas, puesto que el mero descubrimiento o la mera invención de problemas aumenta la complejidad existente. Por otra parte, bay simplicidades de varios tipos que son de desear en la formulación de problemas y, en medida mucho me­ nor, en la solución de los problemas, que a veces exige una complicación del problema dado (por ejemplo, la

183

ampliación de su ámbito) o la invención de conceptos, hipótesis o técnicas nuevos y complejos. Además, algu­ nos tipos de simplicidad — en particular, la economía sintáctica y semántica— están implicadas nolens volens en la construcción de teorías, ya sea a causa de la obli­ gada indigencia de todo comienzo o porque una compli­ cación incómoda aparecida en una fase avanzada haya requerido algún tipo de simplificación (usualmente sin­ táctica); pero ninguna teoría sería sacrificada a la sim­ plicidad si fuera profunda y prometedora. Por último, la simplicidad sintáctica y la pragmática son favorables, dentro de ciertos límites, a la contrastación de las teo­ rías. Pero en tal caso la simplicidad en uno u otro as­ pecto es generalmente compensada por la complejidad en algún otro aspecto; basta con recordar la compleji­ dad sintáctica infinita que debe admitirse como pago por el empobrecimiento epistemológico de teorías promovi­ das por la sustitución de expresiones trascendentes («au­ xiliares») por expresiones observacionales.39 La función de las simplicidades en la investigación científica no es, en cualquier caso, tan importante como lo habían imaginado convencionalistas y empiristas. La principal razón de la pérdida de importancia de la sim­ plicidad es la siguiente. La tarea del teórico no consiste únicamente en describir experiencia del modo más econó­ mico, sino construir modelos teoréticos (no necesariamen­ te mecánicos) con fragmentos de realidad, y contrastar es­ tas imágenes mediante la lógica, otras construcciones teo­ réticas, datos empíricos y reglas metacientíficas. Un tra­ bajo constructivo de este tipo supone, sin duda alguna, el olvido de las complejidades, pero no apunta a su me­ noscabo; el desiderátum de toda nueva teoría es más bien el de explicar lo que haya sido ignorado en las con­ cepciones previas. Ésta es la razón por la que no podemos seguir cre­ 39. William Craig, véase nota 5.

182

yendo en la máxima escolástica simplex sigillum veri: poique sabemos que todas nuestras construcciones son defectuosas puesto que suponen, deliberadamente o no, el olvido de una suma desconocida de factores. Las teo­ rías factuales se aplican exactamente a modelos o imá­ genes esquemáticos y empobrecidos, y sólo de un modo inexacto a los correlatos reales de estos signos; cuanto más simple sea el modelo teorético, tanto más grosero o irreal resultará. N o necesitamos esperar las constrastaciones empíricas para descubrir que todas nuestras teo­ rías son falsas, hablando de modo estricto (cf. 1.4). Le» sabemos a priori aunque sólo sea porque todas incluyen demasiadas simplificaciones, como lo muestra un aná­ lisis de la construcción y aplicación de las teorías fac­ tuales, y la experiencia histórica. La economía concep­ tual es por consiguiente un signo y una prueba de transitoriedad, es decir, de falsedad destinada a ser sustitui­ da por una falsedad menor. Simplex sigillum falsi.

4.3. Conclusión La exigencia indiscriminada de economía en todos los aspectos, o incluso en uno solo, es claramente in­ compatible con una serie de requisitos importantes de la construcción de teorías — tales como, por ejemplo, la precisión, la profundidad y la consistencia externa— , de donde se desprende que la simplicidad tout court no debe considerarse como imperativa ni como criterio in­ dependiente a la par con los demás, por no decir por encima de los demás. Las reglas de la simplicidad se subsumen bajo la norma general que dice «No sostener

creencias arbitrarias (sin fundamento)». Si se rodea de todas las precauciones debidas para evitar la mutilación de la teoría científica, la regla de la simplicidad se reducirá a la norma que nos exige mini­ mizar superfluidades. Pero, naturalmente, esta regla, igual

183

que toda otra prescripción negativa, es insuficiente como medida para la construcción de teorías; además, no nos ayuda a reconocer qué elementos de una teoría son re­ dundantes, es decir, cuáles no desempeñan una función lógica ní una función empírica. La producción no se ase­ gura especificando lo que debe hacerse. La simplicidad es ambigua como término y como pres­ cripción es un arma de doble filo, y debe ser controlada por los signos de la verdad más que considerada como un factor de verdad. Parafraseando a Baltasar Gradan — «Lo bueno, si breve, dos veces bueno»— , digamos que una teoría eficaz cuando es simple funciona doblemente bien; pero esto es una trivialidad. Si se desea un consejo práctico como corolario, éste puede ser que la navaja de Ockham, como todas las navajas, debe manejarse con cuidado para evitar que sea decapitada la ciencia al intentarse afeitar algunas de sus pilosidades. En la cien­ cia, como en la barbería, vale más estar vivo y bar­ budo que muerto y bien rasurado.

Me complace dar las gracias a mis alumnos James Hullett y Robert Schwartz por sus consejos literarios.

184

TEORÍA Y REALIDAD

Leído en el coloquio sobre «Objectivíté et réalité dans les différentes Sciences» convocado por la Académíe Internationale de Philosophie des Sciences, Bruselas, 7-9 septiembre 1964. (Trad. cast. de José Luis García Molina.)

1.

I n t r o d u c c ió n

Toda ciencia gira en tom o a una u otra clase de obje­ tos. En particular, la física trata conjuntos de objetos físicos: la física teorética se supone que representa cier­ tos aspectos de objetos de una clase — a saber, sistemas físicos— y la física experimental asume la tarea de con­ trastar tales representaciones teoréticas. Y aquellos obje­ tos que son de incumbencia — o, como diremos, los refe­ rentes propuestos (the intended referents)— de la teoría física son, ex-hypothesi, auto-existentes: no dependen de la mente. Verdaderamente, algunos de ellos, tales como los trasuranianos, podrían no haber llegado a la existen­ cia sín la acción humana guiada por la teoría física; otros, tales como los monopolos magnéticos, pueden no ser más que ficciones. Y toda idea relativa a objetos físicos de una clase, sea o no una idea adecuada, no es ni más ni menos que una idea. Es más, nunca una idea semejante es una descripción fotográfica de su referente propuesto sino una representación hipotética, incompleta y simbó­ lica del mismo. Empero la cuestión en debate es que la teoría física se propone referir últimamente objetos rea­ les, y, sobre todo, de la manera más objetiva (esto es, separada del sujeto o invariante del operador) y verda­ dera (adecuada) posible. Lo que sigue va más allá de las anteriores triviali­ dades e intenta analizar algunos rasgos de las teorías físicas que a menudo oscurecen su referencia real pro­ puesta, objetividad y verdad parcial.

187

2.

R e f e r e n c ia 1

A l hablar de temperaturas intentamos caracterizar los estados térmicos de algún sistema físico, tal como un cuerpo o un campo de radiación. En este caso el refe­ rente de nuestras aserciones es un sistema físico o qui­ zás una clase de sistemas físicos. Esta referencia es más bien tácita que explícita: se toma por supuesto ya que viene sugerida por el contexto. Pero al omitir apuntar a la referencia objetiva podemos olvidar que los concep­ tos físicos tienen por objeto representar propiedades de sistemas físicos. Lo mismo vale para cualquier relación constante (no accidental) entre variables físicas, esto es, para cualquier ley de la física. Así, cuando escribimos una ecuación de estado intentamos que esta fórmula re­ fiera algún sistema físico, o, más bien, sea acerca de algún miembro arbitrario de una cierta clase de sistemas físicos. Lo mismo rige, a fortiori, para sistemas de enunciados legales, esto es, teorías. La referencia objetiva puede hacerse más precisa me­ diante la matematización; pero al mismo tiempo este procedimiento de refinamiento oscurecerá, si se le malinterpreta, la referencia. D e hecho, el objeto de la ma­ tematización en la física es representar cosas y sus pro­ piedades en un plano conceptual, tratando por esta razón con sus delegados más que con sus constituyentes. Así, lo que usualmente se enfoca en la representación mate­ mática de una variable física no es el concepto entero sino sólo su(s) parte(s) numérica(s). Tomemos de nuevo el concepto de temperatura: lo que insertamos en un enunciado legal termodinámico no es el concepto entero de temperatura sino la variable numérica $ que se pre­ senta en la función proposicional «/(o-, s) — -5», que es 1 1. Cf.La investigación científica del autor —citado en lo que sigue como I C—, secs. 2.2, 2.3, 3,5 y 3,6, 188

un resumen de «La temperatura del sistema 0.) El realista ingenuo acentuará la referencia de cual­ quier posible concepto de temperatura al conjunto de to­ dos los posibles sistemas físicos, mientras que el convencionalista subrayará la arbitrariedad de la elección de la escala y unidad, y, a partir de esta arbitrariedad, con­ cluirá en la ausencia de referencia objetiva. Debemos conceder a cada contendiente un punto. Dado que el valor numérico de la temperatura de un sistema determinado no es único, una representación fo­ tográfica de los estados térmicos está fuera de cuestión. Pero una vez se ha elegido una escala, la función favore­ cida de temperatura representará a su manera el con­ junto de los estados térmicos posibles de los sistemas físicos. Después de todo, ni tan siquiera los fotógrafos se exigen fotografiar a sus sujetos siempre desde el mismo ángulo. Además, aun cuando la elección de un determina­ do sistema escala-c«^-unidad sea convencional, no por ello es enteramente arbitraria. Así, la escala absoluta es preferible a otras para la mayoría de los propósitos, 1) porque es independiente de la conducta peculiar de cual­ quier sustancia termométrica, y por consiguiente un paso más allá de las limitaciones humanas, y 2) porque encaja mejor con las interpretaciones estadísticas de la termo­ dinámica. Esto es, la convención por la que la escala y unidad de Kelvín es preferida desde siempre, es fundada más bien que caprichosa. La razón absoluta de que los valores de temperatura sean independientes de cualquier sustancia real y de cualquier operador humano es que el concepto fue recortado para especificar los estados tér­ micos del gas ideal. Tales estados son ideales porque el mismo gas ideal es un constructo. Con todo, este constructo no es una ficción: el gas ideal se supone que es una esquematización teorética o modelo de un gas real. Las varias ecuaciones de estado del gas ideal que hasta hoy se han propuesto refieren inmediatamente este modelo conceptual antes que cualquier gas real. La física no es un juego: un modelo físico, por inín-

191

tuitivo que sea, es siempre un boceto conceptual de al­ gún objeto cuya existencia se asume. Que esta hipótesis de existencia pueda resultar falsa está fuera de cuestión. El asunto en debate, en la controversia sobre el realismo y objetivismo, es que el físico inventa algunos conceptos clave (v. g., «temperatura») que en alguna parte asig­ na a objetos físicos (v. g., estados térmicos de los cuer­ pos). Esta correlación concepto-objeto físico se enuncia parcialmente en las reglas de interpretación que asignan un significado físico a símbolos determinados (ver sec­ ciones 4 y 7). Los modelos ideales o teoréticos se supo­ ne que representan, de manera más o menos simbólica — esto es, indirecta y convencional— y hasta una cierta aproximación, algunos aspectos de la constitución y con­ ducta de los sistemas físicos. Cada uno de tales mode­ los forma parte de, al menos, una teoría física. (Aquello que puede considerarse como perteneciendo esencialmen­ te al mismo modelo sirve ocasionalmente a diferentes teorías: así todas las teorías de campo electromagnéticas, usen o no potenciales, sean o no lineales, participan esen­ cialmente del mismo modelo de campo aun cuando di­ fieran en las propiedades que le asignan, tal como todas las teorías de acción ínter-partículas directa participan del modelo de la caja negra.) Lo anterior puede refrasearse de la siguiente manera negativa: ninguna teoría física pinta o retrata directa­ mente un sistema físico. En primer lugar, porque toda teoría se construye con conceptos, no con imágenes, y esos conceptos, lejos de ser empíricos (v. g., observacionales), son constructos maduros, esto es, conceptos transobservacionales tales como «masa», «carga», «tem­ peratura» e «intensidad de campo». En segundo lugar, porque los conceptos clave son, en cualquier teoría, com­ parativamente pocos y consiguientemente refieren, si en cualquier caso, sólo unos cuantos aspectos elegidos de los objetos físicos (los que se suponen importantes), más bien que el sistema físico real con todo detalle, esto es,

192

tai como sería conocido a un observador supremamen­ te atento y agudo.3 En resumen, toda teoría física debe de ser, como subrayó Duhem, a la vez simbólica e in­ completa — de lo que no se sigue que le falte entidad existendal o referencia objetiva. D e hecho, toda teoría física se propone representar un miembro arbitrario de una clase de sistemas físicos. Ciertamente lo hace de manera simbólica y simplifica­ da más bien que icónica y completa; y con todo, trata de representar un existente real así. D e lo contrario el mis­ mísimo problema de construir una teoría no se plantea­ ría. Y siempre que un intento semejante fracasa rotun­ damente, la teoría es cambiada o abandonada; la ima­ gen que suministra se reconoce o como inexacta (falsa) o dependiente del operador (variable). A l hablar de la referencia de una idea física (varia­ ble, enunciado, teoría) debemos por consiguiente distin­ guir la referencia directa de la indirecta. Todo constructo físico refiere directamente a uno u otro modelo teoréti­ co, esto es, a alguna esquematizadón ideal incorporada en una teoría que se supone da cuenta, aun modesta­ mente, de un sistema físico de una clase. El mismo cons­ tructo refiere por consiguiente indirectamente algunos aspectos de un objeto físico tal (fig. 1). Así, el referente mediato de la termodinámica dásica (la termoestática) es cualquier sistema físico razonable­ mente aislado, que se representa como un Huido en un continente perfectamente cerrado (siendo el ñxádo-cum-paredes el modelo de la teoría). Desde luego, no hay siste­ mas tales en la naturaleza, a excepción del universo como un todo. Pero cualquier sistema contenido en un calorí­ metro que satisfaga aproximadamente la condición de cierre puede decirse que es un referente mediato de la termoestática. 3. Cf. del autor The Myth of Simpliciiy (Englewood Clíffs, N. J., Prentíce-Hall Irte., 1963), parte II.

193 13,



bunge

F ig . 1. — Referencia

objetiva: una correspondencia entre un mo­ delo conceptual y un objeto real.

En palabras claras: la física intenta representar la rea­ lidad pero lo hace de una manera hipotética, de rodeo y parcial. (Con más detalle: una teoría física T gira en torno a una clase definida conceptual U — el universo de discurso de T. U corresponde a — pero no es— una par­ te 2 de realidad. La frase «T refiere inmediatamente U» significa que las fórmulas de T valen, por estipulación, para cualquier elemento de U, esto es, para el modelo. Y la expresión «T refiere mediatamente U» significa que U se supone que corresponde a si o no las fórmulas de T continúan siendo verdaderas cuando los miembros de U que acaecen en ellas se reemplazan por los miembros correspondientes de Si la teoría no sólo refiere hechos sino que en adición lo hace de modo muy similar, tanto mejor. U es una clase definida ya que está determinada por los predicados y suposiciones de la teoría. Por otra

parte el referente mediato 2 es u&a dase no definida: siendo incompleta su especificación, cualquier número de casos fronterizos pueden eliminarse.) Esto nos forzará a distinguir dos clases de reglas de significado en la sec­ ción 7. Pero antes de llegar a esto hagamos que el ope­ rador entre en escena.

4. I nterpretaciones : objetiva y operativa 4’ 5 U n símbolo que acaece en una teoría física es o pura­ mente formal (lógico o matemático) o puede asignársele algún significado no formal (factual). A su vez, un signo factualmente significativo que acaece en el lenguaje de una teoría física puede asignársele una interpretación ob­ jetiva y /u operativa. Así «i» puede simbolizar la inten­ sidad (quizá desconocida) de una corriente eléctrica cuan­ do ningún amperímetro la mide; pero el mismo signo puede, en una ocasión diferente, sustituir el valor medido de «la misma» corriente — tras la asignación que se ha hecho a la fracción de corriente disipada en el disposi­ tivo de medida. En resumen, «¿» puede ser leído objeti­ vamente y /u operativamente. (Los valores individuales no necesitan coincidir en ambos casos: en lo que respecta a una cosa, los valores medidos estarán siempre afectados por algún error experimental que está ausente de los cálculos teoréticos.) Por otra parte, a magnitudes bási­ cas tales como potenciales de campo, lagrangianos, o fun­ dones-^'’, puede asignárseles un significado objetivo pero no uno operativo. Sólo a algunos de los conceptos cons­ truidos con su apoyo puede vincularse una interpreta­ ción operativa (v. g., p = d L /d q en el caso de una par­ tícula cargada en un campo magnético). En general, diremos que un símbolo recibe una inter4. Cf. í C, secs, 3.5, 3.6, 3.7 y 7,5. 5. Cf. del autor Metascientific Queries (Springfield, 111., Charles C. Tilomas, 1959), cap. 8.

195

pretación objetiva cuando se establece una tegla que asigna a ese signo un objeto físico (cosa, propiedad, acae­ cimiento, proceso), tanto si el objeto está o no bajo ob­ servación como si o no la relación de referencia la satis­ face actualmente la pareja signo-objeto. Y diremos que un símbolo está dotado de una interpretación operativa (¡no definición!) si se estipula una correspondencia en­ tre el símbolo y los resultados de operaciones actuales o factibles diseñadas para observar o medir «la misma» propiedad del «mismo» objeto. (Las comillas tratan de sugerir que el objeto puede cambiar como resultado de tales operaciones empíricas.) N o habrá peligro al asig­ nar interpretaciones de esas dos clases a uno y el mismo símbolo en tanto la distinción no se empañe. Todo símbolo operativamente significativo puede tam­ bién ser interpretado de una manera objetiva. La inver­ sa no es verdadera: los significados objetivos son más fundamentales y universales que los operativos. Así los predicados «partícula libre», «intensidad de una onda de luz in vacuum» y «estado estacionario de un átomo» se suponen todos con referentes objetivos aunque no pueda asignárseles interpretaciones operativas. La razón de esta imposibilidad es clara: las medidas, y particularmente las medidas atómicas, implican un aparejamiento entre el mensurándum y algunos aspectos de un dispositivo ex­ perimental, por medio del cual alguna de las propiedades del objeto, inicialmente libres, son alteradas. Y la razón para considerar los significados objetivos como más fun­ damentales que los operativos es ésta: cualquier cosa que esté compuesta de un objeto físico interactuando con una pieza del aparato constituye un tercer sistema, más in­ clusivo, destinado a ser estudiado como tal y consiguien­ temente exigiendo símbolos objetivamente significativos. Sólo la contrastacíón de enunciados teoréticos relativos a este sistema más amplio requerirá la interpretación de alguno de los términos que ocurren en él en términos de operaciones de laboratorio.

196

Lo que acaba de decirse vale para la física cuántica tanto como para la física clásica. La diferencia principal estriba en que en la física clásica las teorías de la me­ dida están lo suficientemente avanzadas para posibilitar­ nos calcular (predecir) los disturbios introducidos por operaciones empíricas especificadas, mientras que en los dominios atómicos y subatómicos no existen tales teo­ rías maduras. En otras palabras, en la física clásica pode­ mos dar cuenta de la diferencia objetiva entre un sistema natural y otro objeto de la misma clase que interactúa con nuestros medios físicos de observación: la interac­ ción se incorpora en los enunciados legales y el resultado del cálculo puede ser confrontado empíricamente con el sistema en medida. Si la predicción calculada por medio de la teoría de la medida es corroborada por la medida, la teoría relativa al objeto natural se considera como confirmada (no como verificada). Por otra parte, la teo­ ría mecánico-cuántica de la medida no es capaz por el momento de producir resultados similares. (N o haremos caso aquí de los alegatos mutuamente incompatibles de que la teoría disponible cumple de lleno su tarea y que ninguna teoría así es concebible porque la interacción sujeto-objeto es, en última instancia, inanalizable, esto es, irracional.) En cualquier caso, hay diferencias físicas y epistemológicas entre un sistema natural y uno medi­ do, y correspondientemente entre la interpretación obje­ tiva y la operativa de un símbolo físico. Nuestra distinción semántica carece de sentido en el contexto de la filosofía operadonal de la física. Tanto peor para ella, por cuanto esa distinción se emplea de hecho en la física, a pesar de los esfuerzos extenuantes por reducir toda idea a percepciones y operaciones que tengan lugar en un vacío conceptual. Consideremos la teoría cuántica, considerada en ocasiones como hija del operacíonalismo. Usualmente se empieza enunciando algún problema concerniente a lo que se supone que es un objeto autónomamente existente, tal como un átomo ar­

197

bitrario de helio. Este átomo puede suponerse que está en su estado fundamental, pero que no seremos capaces de ponerlo en evidencia a menos que lo movamos en primer lugar a algún otro nivel de energía. Este pro­ blema carece de interés para el teórico; por otra parte, el experimentalísta se ve forzado a utilizar alguna teoría relativa a los estados estacionarios inobservables y las posibles transiciones entre ellos: con objeto de producir esas transiciones debe tener alguna idea relativa a la energía requerida. Más aún, ningún experimento propia­ mente tal es menester con objeto de confrontar los cálcu­ los teoréticos en este caso, ya que la naturaleza nos pro­ vee de lo que hípotetizamos como siendo estados. Las medidas correspondientes no alterarán ninguna de las propiedades de nuestros átomos, ya que las medidas con­ sisten en coleccionar y analizar la luz espontáneamente emitida por los átomos. Al final de esto, los mismos átomos pueden ser localizados más allá de nuestro la­ boratorio: pueden morar, digamos, en algún lugar de la nebulosa Crab. En resumen, no es verdad que cual­ quier cálculo mecánico-cuántico concierna a un sistema acoplado a un dispositivo de medida, mucho menos a la mente del observador; y no es verdad que toda medi­ da relevante en la teoría cuántica produzca disturbios, aun si se dejan aparte las enteramente impredíctibles. La circunstancia de que en cualquier teoría física fun­ damental manejemos algún u otro objeto natural más bien que sistemas sujetos a severas condiciones de contrastación, es tácitamente reconocida al plantear un pro­ blema típico en la física teorética. D e hecho, en el enun­ ciado de un problema tal, sólo variables que se refieran al sistema bajo estudio ocurrirán ordinariamente. (Así, cuando al utilizar una teoría hamiltoniana correspon­ diente a nuestro sistema físico, o más bien a un modelo esquemático del mismo, empezamos poniendo por escrito, esto es, hipotetízando, el hamiltoniano correspondiente a nuestro sistema físico, o más bien a un modelo esque-

198

mátíco del mismo, y pasamos a buscar una solución pro­ pia del hamiltoniano. En particular, esta solución puede ser independiente del tiempo, representando así un es­ tado estacionario, que es inobservable. Usualmente nin­ guna perturbación que represente la interacción no-hipotetízada de nuestro sistema con un dispositivo experi­ mental fónico ocurrirá en el hamiltoniano: el último con­ tendrá sólo las coordenadas de posición, tiempo y mo­ mento del sistema que se supone existe autónomamente — o más bien un boceto del mismo, tal como un osci­ lador.) Sin embargo, muchos físicos, engañados por lo que se han habituado a considerar como una filosofía prac­ ticable, introducen de contrabando en los teoremas algo que se omitía en las suposiciones iniciales — a saber, un dispositivo de medida e incluso eventualmente a su ope­ rador, con sus pensamientos y sus intenciones impredictibles. Así es cómo las relaciones de Heisenberg se inter­ pretan frecuentemente, si bien ningún símbolo que re­ presente las operaciones de medida — dejando aparte los acaecimientos mentales— aparece en los axiomas de donde se derivan. Otro ejemplo: los posibles estados de ener­ gía de un átomo libre de helio se interpretan, en la misma vena, como los resultados posibles de medidas de energía — medidas que implicarían perturbaciones no su­ puestas al comienzo, esto es, al poner por escrito la ecua­ ción de Schrodinger del átomo de helio. Esta ecuación no contiene variable que se refiera a la estructura y con­ ducta del dispositivo de medida fónico, y es sólo condes­ cender con una filosofía aceptada de antemano el que los teoremas se interpreten de una manera no justificada por las suposiciones iniciales. En resumen, la solución del problema original se interpreta de alguna manera como la solución de un problema enteramente diferente — un giro establecido para introducir al operador en los recovecos más íntimos de la naturaleza. Nuestro físico-filósofo cuán­ tico está haciendo uso por tanto de un privilegio reser­

199

vado primariamente a los teólogos: a saber, el de «con­ cluir» de un enunciado a un segundo enunciado refirién­ dose a un universo de discurso por entero disyunto. Echemos una ojeada más íntima a esta estrategia habi­ tualmente practicada pero aún mal estudiada.

5. Unidad conceptual — y cómo violarla EN LA

M. C.

El paso que acabamos de discutir ejemplifica un giro ilegítimo de significado por medio del cual símbolos a los que inicialmente se les asigna un significado objetivo se interpretan repentinamente de modo operativo. Esta maniobra se lleva a cabo sin cuidarse de hasta qué punto tal reinterpretación es en absoluto posible. Si no se jus­ tifica tal reinterpretación, las «conclusiones» obtenidas de esta manera continúan por lo mismo injustificadas. Tal giro de significado caracteriza las interpretaciones usua­ les (fenomenalistas, operacionalístas, idealistas) tanto de la teoría cuántica de las «partículas» como de la teoría cuántica de campo, lo que las convierte por consiguiente en, lo que llamaremos, semánticamente inconsistentes. Dado que el trivial pero importante concepto de consis­ tencia semántica, o unidad conceptual, no parece haber sido analizado, un breve excursus será conveniente en este punto. Un tratamiento más pleno se ofrece en otra parte.6 Es un desiderátum de toda teoría poseer a la vez unidad formal y semántica. La primera consiste en la conexión lógica del sistema, esto es, en constituir un sis­ tema hipotético-deductivo más bien que un amasijo ar­ bitrario de fórmulas. La consistencia semántica o unidad conceptual de una teoría factual se reduce a esto: el sistema debe ser acerca de una clase (no vacía) que, le6. Cf. I C, sec. 7.2.

200

jos de ser una colección arbitraria, se caracteriza por ciertas propiedades mutuamente relacionadas. Presente­ mos una caracterización más precisa de la consistencia semántica. Para empezar, la unidad conceptual de una teoría re­ quiere una referencia común de sus fórmulas a alguna colección de objetos. En el caso de una teoría física, esta colección no es un conjunto arbitrario sino una clase natural (no-arbitraria) de objetos físicos. La clase de objetos que la teoría refiere es su universo de discurso. Así, el universo de discurso de la mecánica de fluidos es la clase de todos los fluidos: la teoría asigna a ésta ciertas propiedades, cada una de las cuales se representa por un cierto predicado. Se toma por supuesto que el universo de discurso o conjunto de referencia no es vacío, y se hipotetiza que los miembros de la misma pueden ser aparejados con objetos externos de modo tal que la teo­ ría valga, al menos, aproximadamente. Una referencia tal a objetos externos puede ser indirecta y aun falsa (véase secc. 3) pero siempre en una teoría física se pre­ supone alguna referencia a objetos físicos, y es por esto por lo que se denomina física y no, por ejemplo, psico­ lógica. La teoría acuña los nombres de sus referentes úl­ timos, aun sí esos resultan no existir; así, una teoría que refiera hyperones se llamará una teoría del hyperon. Por otra parte, un (meta) enunciado tal como «Los enun­ ciados de la mecánica cuántica no giran en torno a sis­ temas físicos autónomos sino en torno a nuestro conoci­ miento» no es sólo incompleto — en cuanto que deja de apuntar al objeto de un conocimiento semejante— sino que es un alegato tácito de que la teoría cuántica no es una teoría física. La unidad de referencia es necesaria pero no suficien­ te para que una teoría alcance plena unidad conceptual. Un segundo factor de consistencia semántica es que los predicados de la teoría pertenezcan a una familia singu­ lar — brevemente, que sean semánticamente homogéneos.

201

Así, una teoría física contendrá sólo predicados que de­ signan objetos físicos (sistemas, propiedades, acaecimien­ tos, procesos). Por otra parte, un enunciado como «La función de onda se propaga en el espacio (de configu­ ración) y resume la información experimental del obser­ vador» mezcla predicados físicos y teorétíco-informativos, enturbiando así la distinción entre un símbolo ^F, el es­ tado del sistema físico que se supone representar (de una manera torcida por tanto) y los bits de información empírica que pueden haberse utilizado al hípotetizar su forma precisa. (Encima, este enunciado sugiere la falsa idea de que ^F puede directamente construirse a partir de datos, sin elaborar hipótesis relativas a los constitu­ yentes del sistema, sus interacciones, y la ley a la que obedece.) Un común universo de discurso U, y una familia se­ mánticamente homogénea P de predicados, son necesa­ rios pero todavía insuficientes para asegurar la unidad conceptual de una teoría. Además, se necesita la prohi­ bición de introducir de contrabando en la teoría predi­ cados ajenos al campo cubierto por la teoría. Esta tercera condición, que puede ser denominada la exigencia de cierre semántico, puede enunciarse así: los predicados de la teoría serán sólo aquellos que acaecen en la base de predicados y en las definiciones de la teoría. D e no ser por esta exigencia semántica, la lógica formal consa­ graría la semánticamente mala jugada de deducir teore­ mas conteniendo conceptos no presentes entre los de la base de la teoría. D e hecho, la regla de adición — «t implica t o #»— ■ nos permitiría adjuntar subrepticia­ mente, a cualquier teorema de una teoría determinada, un enunciado u que violara la condición de homogenei­ dad semántica, en virtud de contener algún concepto no hermano del predicado base inicíalmente estipulado. Esta expansión de la base inicial podría llegar hasta cambiar el original universo de discurso de una manera arbitraria: podríamos empezar hablando de átomos como objetos

202

físicos y terminar hablando acerca de nuestra conducta, tanto si tuviera o no conexión con los átomos. (Más aún, el intruso u podría ser una proposición to­ talmente incontrastable, v. g., una hipótesis ad hoc pro­ puesta para salvar la teoría de la refutación empírica. Aun si esto no fuera bastante, «t o u» son lógicamente más débiles que el teorema genuino t , y por tanto más fáciles de confirmar — tan fáciles como nos dé la gana. Finalmente, dado que cualquier teorema de la teoría pue­ de hallarse a la espera en algún respecto u otro, su ne­ gación nos permitiría destacar al injustificado «, esto es, conservar como único superviviente de la crítica cientí­ fica al extranjero. Aun si u fuera contrastable y estuviera además fuera de la duda práctica, la estratagema haría fracasar el propósito del teórico, quien se ocupa de dar cuenta de los referentes de su teorema í, y no de los de u. La regla del cierre semántico tiene por objeto pre­ venir una maniobra de tal tipo. Puede mostrarse 7 que la exigencia previamente mencionada de homogeneidad semántica no es suficiente para rechazar debidamente esa estratagema.) Una cuarta condición de consistencia semántica es que los conceptos clave (predicados base) de la teoría concuerden, cuando se distribuyan entre las suposiciones iniciales de la teoría. Es lo que podemos denominar la condición de conexión conceptual. Puede enunciarse de modo más preciso y cabe mostrar que la unidad de refe­ rencia y la conexión conceptual son necesarias para al­ canzar la unidad formal, tal como las relaciones de deducibilidad sólo pueden ser establecidas entre fórmulas que participen de ciertos predicados clave, entre los que des­ taca U. Toda teoría factual debería poseer a la vez unidad formal y conceptual, aunque sólo fuera por razones me­ todológicas tales como las de evitar una confirmación 7, Cf. I C, sec. 7.2.

203

barata. Desgraciadamente algunas teorías físicas, aunque formalmente (lógica y matemáticamente) consistentes, son semánticamente inconsistentes, al violar todos o al­ guno de los tres primeros requisitos de unidad concep­ tual, esto es, unidad de referencia, homogeneidad semán­ tica, y cierre semántico. Tal como se anticipó en la sec­ ción precedente, tal sucede con las interpretaciones usua­ les de la teoría cuántica: en ocasiones el ansia por ase­ gurar la contrastabilidad, en otras el deseo de evitar un compromiso ontológico, y en otras la esperanza de revi­ vir filosofías subjetivistas, motivan los intentos de in­ troducir al operador de contrabando en un dominio al que en principio no pertenece; finalmente, el operador agarra el mango y el objeto físico es echado — ¡de la física! Por el momento no hay disponible ninguna interpre­ tación semánticamente consistente de la mecánica cuán­ tica en términos puramente operativos (preparación, me­ dición, experimento). En otras palabras, no existe una formulación coherente de Copenhague de la mecánica cuántica: la interpretación física propuesta por esa escue­ la no llega a concordar con las fórmulas básicas de la teoría (véase secc. 4). Más aún, el formalismo actual de la mecánica cuántica no parece posibilitar eso, puesto que una teoría tal tendría que incluir desde el punto de partida la consideración de los dispositivos de medida, dispensándose de todo término al que, como el de «par­ tícula libre», pudiera asignársele un significado objetivo pero no uno operativo. (Dado que la teoría fundamental tendría que referirse sólo a objetos bajo medida o expe­ rimento, 1) carecería de sentido distinguir en el hamiltoniano, el lagrangiano, o cualquier otra fuente de expre­ sión, la parte líbre de la que representa la interacción del sistema con un dispositivo macroscópico, y 2) que­ daría privada de la guía de la mecánica clásica al conje­ turar el adecuado hamiltoniano mecánico-cuántico — una tarea ardua tal como las cosas están.) Incluso si tina in­

204

terpretación semánticamente consistente de la mecá­ nica cuántica se formulara eventualmente según el es­ píritu del operacionalismo no sería una teoría estricta­ mente física, sino más bien una investigación psicológica o de operaciones, y 3) sería inaplicable a objetos que, como los átomos en Andrómeda, podemos aportar para dejarlos solos, sin la asistencia del operador. En suma, carecemos de una teoría cuántica semánti­ camente consistente, sea en términos operativístas, idea­ listas o realistas.8 Y deberíamos tratar de formular una teoría cuántica semánticamente consistente y totalmente física que pudiera en principio aplicarse a un objeto au­ tónomo cualquiera: o, mutatis mutandis, a un sistema bajo control experimental y en todo caso tal que el últi­ mo se maneje justo como un sistema físico de una clase especial más que como un compositum mente-cuerpo. El fisicalismo es una ontología estrecha: concedido; pero vale para el universo físico, y toda retirada del fisicalis­ mo en el dominio de la física es una vuelta al antropocentrismo precientífico. ¿Por qué situamos mal la mente humana? ¿No es un sistema de funciones de ciertos cuer­ pos constituidos de átomos, y no basta con acreditar a la mente humana la invención de teorías, el planeamiento de pruebas, y la interpretación de los resultados de las últimas? (Debemos advertir de paso que una interpretación realista de la teoría cuántica no pide renunciar a su fun­ damental carácter presente estocástico. En otras palabras, no hace falta introducir variables extra ocultas con objeto de restaurar la objetividad en el dominio cuántico: las variables ocultas ya están ahí. Sólo que equivocadamentereciben el nombre de observables, aun cuando nadie pueda alegar seriamente que ninguna de las variables fundamentales sea estrictamente, esto es, directamente 8. Un intento de llenar este vacío ha sido llevado por el autor, desde que esto fue escrito, en Foundations of Pbysics, I, cap. 5.

205

observable o medible. Las variables ocultas, en el sentido de magnitudes no estocásticas — que no fluctúen, ni se dispersen— son suficientes, pero no necesarias para pro­ ducir una teoría no estocástica que se asemeje a la diná­ mica clásica. Pero tales conceptos neoclásicos son casi con seguridad insuficientes, y ciertamente eximibles, para construir la muy necesitada interpretación(es) semántica­ mente consistente y minuciosamente física del formalismo mecánico-cuántico. N o deberían mezclarse los problemas de la realidad y la objetividad con el problema del determinismo: 9 un realista puede consistentemente mantener una posición indeterminista en cualquier grado, tal como un subjetivista puede ser tan determinista como le plaz­ ca. Para el realismo la conducta precisa de los objetos físicos es irrelevante en la medida en que pueden andar solos.) Todo lo que necesitamos para restaurar el realismo en la física es reinterpretar los formalismos presentes de la teoría cuántica ateniéndonos a las reglas de consis­ tencia semántica y teniendo presente el objetivo de pro­ ducir una teoría física más bien que psicológica del mundo microfísico. Esto es posible ahora, sin modificar los formalismos presentes — que necesitan reparaciones por motivos diferentes. Una interpretación realista así de las estructuras disponibles es muy improbable que nos retrotraiga a la física pre-cuántica. Por ejemplo, no po­ demos decir que un electrón tiene al mismo tiempo tanto una posición precisa como un momentum preciso, sólo las relaciones de Heisenberg nos dicen que no podemos medirlos, esto es, los conocemos empíricamente con exac­ titud completa. Por tanto, si se supone que las relaciones de Heisenberg rigen en cualquier sistema mecánico, tanto bajo observación como si no, un realista no puede, dada la resistencia de la teoría usual, asignar al electrón una 9. Cf. del autor Causalidad: él lugar del principio causal en la ciencia moderna (Buenos Aires, Eudeba), Apéndice.

206

posición y momento simultáneos precisos. Esto es, no puede considerarla como una clásica partícula-punto — que conocemos también mediante experimentos de difracción con pantallas de partículas extremadamente débiles. Estamos ahora en posición para tratar el problema de la interpretación física de una manera más completa y precisa a como se hizo en la secc. 4.

6.

R e f e r e n c ia

y

so porte

e m p ír ic o

10

Deberíamos conocer tanto lo que se supone que una teoría física representa como la razón que apoya a una referencia tal, esto es, cuál es su soporte empírico \_evidence~\. Si nos concentramos en la referencia podemos acabar en un realismo acrítico, mientras que si ignoramos la referencia nos vemos confinados a perorar en el subje­ tivismo. Keferencialmente (semánticamente) considerada, una teoría física apunta de manera inmediata a un modelo conceptual que a su vez se supone que simboliza un sistema real de algún tipo (véase secc. 3). Tal como el referente inmediato es un constructo, así el referente mediato puede de hecho ser no existente, y en cualquier caso no necesita ser observable. Y eviiencialmente con­ siderada, la misma teoría apunta en un sentido desviado a un conjunto de hechos observados y potencialmente observables — la evidencia empírica disponible y posible (fig. 2). N o es sólo que una teoría física deba decir más de lo que se expresa por el conjunto de información actual que compone y contrasta la teoría ya que de lo contrario sería sólo un sumario de información sobre el nivel de la última: una teoría física se supone que dice cosas muy diferentes de los informes observacionáles re­ levantes (favorable o desfavorablemente) a la misma. Así, las teorías atómicas no son acerca de observaciones es­ to. C£. I C, sec. 8.4.

207

pectroscópicas si bien participan (junto con otras teorías) en la explicación de tales datos. Teoría

F ig . 2. — La referencia y la evidencia son diferentes.

Por ejemplo, el referente mediato de la teoría cinética de los gases es cualquier miembro de un cierto conjun­ to de conjuntos idealizados de partículas que se supone poseen ciertas características, mientras que uno de los referentes mediatos de esa teoría es una nebulosa. Los datos concernientes a la cinemática nebular constituyen parte de la evidencia pro o contra la teoría cinética y /o la hipótesis que se aplica aproximadamente a tales sis­ temas — una suposición metateorética, dicho sea de paso.

208

Cualquier informe futuro de la misma clase constituirá una evidencia adicional de la misma dase. En este caso el referente propuesto de la teoría puede observarse con la ayuda de instrumentos construidos e interpretados con la ayuda de teorías adicionales, principalmente la mecanica y la óptica, que juegan aquí un papel instrumen­ tal más que explicativo o sustantivo. Otro ejemplo: cual­ quier teoría de «partículas» «elementales» refiere inme­ diatamente a ciertos inobservables que se sospecha (hipotetiza) son entidades (existentes reales), pero sólo su­ ministra un hipotético y con toda probabilidad un más bien crudo modelo de ellos. Y la evidencia relevante para una teoría tal — v. g., un conjunto de huellas en una placa fotográfica nuclear— difiere en naturaleza de los referentes de la teoría: las huellas no son referidas en absoluto por la teoría y esos datos llegan a ser una evi­ dencia relevante para la teoría a condición de que se inter­ preten a la luz de otro cuerpo de teoría (notablemente la mecánica clásica y alguna teoría relativa al paso de par­ tículas eléctricamente cargadas a través de la materia). En este respecto, la tarea del físico no es diferente de la tarea del paleontólogo, el historiador, o incluso el detective: en todos esos casos, hechos no vistos se hipotetizan y tales hipótesis y sistemas de hipótesis se con­ trastan a través de las huellas obervables dejadas por el presunto criminal (animal extinto, héroe, o protón), hue­ llas que llegan a ser evidenciadas sólo a la luz de hipó­ tesis instrumentales o auxiliares y /o teorías relativas a los posibles mecanismos por los que las huellas podrían haberse producido; claramente, la teoría en contrastación puede emplearse en una explicación tal, esto es, puede contribuir a producir su propia evidencia. (Hasta aquí hemos evitado a propósito hablar de fe­ nómenos como datos, mucho menos como evidencia rele­ vante para las teorías físicas. La razón es ésta. Lo que los filósofos denominan fenómeno es un acaecimiento que ocurre en conexión con algún sujeto cognoscitivo: fenó­

209 14. —

BUNCE

meno es lo que nos aparece a nosotros, humanos; de don­ de, sin humanos, ningún fenómeno. El fenomenalismo es la doctrina según la cual el mundo es el conjunto de las apariencias; en particular, la realidad física sería el conjunto de observaciones llevadas a cabo por físicos. El programa del fenomenalismo, del que participa en gran medida el operacionalismo, es la construcción de los ob­ jetos físicos como sistemas de apariencias. Este programa ha fracasado y es impracticable. Hay varias razones para rechazar el fenomenalismo, entre otras las siguientes. En primer lugar, la física no está interesada en lo que se me aparece a mí, o en lo que a mí m e parece ser el caso: la física es un intento de trascender la subjetivi­ dad, de ir más allá del perspectivismo. En segundo lugar, la mayoría de los fenómenos comportan acaecimientos macroscópicos que pueden ser explicados conjuntamente por la física y la psicología. En tercer lugar, el programa del fenomenalismo ha fracasado, mientras que el pro­ grama del realismo, de explicar la apariencia por la reali­ dad (hipotetizada) funciona. En cuarto lugar, los fenó­ menos son a-legales; sólo hechos objetivos (en gran me­ dida imperceptibles) se supone que son'legales, y no hay ciencia que no sea un paquete de enunciados legales.) Volvamos a las diferencias entre el referente hipoté­ tico y la evidencia observacxonal de una teoría física. En lo que respecta a una cosa, el referente propuesto me­ diato de una teoría se supone que existe independiente­ mente de la teoría — suposición que puede ser falsa. Por otro lado, no puede haber evidencia sin alguna u otra teoría, por esquemática que fuere, ya que es la teoría quien determinará si o no un dato es relevante para ella. (Las teorías que cumplen un cometido instrumental lo que hacen es ayudar a recoger e interpretar tales da­ tos, pero la relevancia de los datos para la teoría en contrastación es determinada por la última.) Así, una teoría cuántica de la dispersión de «partículas» constituirá una base para aceptar valores medidos de pantallas direccio-

210

nales, y si se supone que los proyectiles están cargados eléctricamente, la curvatura medible de las huellas que dejan tras de sí se considerará relevante — justo porque la teoría, en conjunción con la electrodinámica clásica, así lo dice. Por otra parte, otros millares de piezas de información relativos al mismo dispositivo experimental serán por completo irrelevantes para la teoría en con­ testación — lo que es una ventaja. La observación da noticia (de datos) a interpretar con la ayuda de, al menos, una teoría con objeto de que se convierta en evidencia. Si se prefiere el apoyo empírico de que goza una deter­ minada teoría sustantiva se determina comparando sus predicciones con la evidencia producida por las opera­ ciones empíricas diseñadas e interpretadas con la ayuda al menos de una teoría (fig. 3). Otra manera de exponerlo es ésta. Ninguna teoría fundamental singular puede ex­ plicar directamente las observaciones, esto es, puede ac­ tuar así sin la asistencia de teorías adicionales. (Lo que una teoría singular puede explicar son experimentos men­ tales, tal como el «experimento» de las dos ranuras, cuya realización actual requiere, en el caso de las «par­ tículas», el empleo de cristales reales y consiguiente­ mente alguna teoría acerca de la estructura del cristal y otra teoría acerca del mecanismo de interacción partículapantalla que produce las franjas observables.) Teoría 1 (sustantiva)

Oatol (vg.. valor de carga)

Teoría 2 Dato 2 (instrumental) (vg., curvatura de la huella)

F ig. 3. — Teorías (sustantivas e instrumentales), datos y evidencia. Para resumir: 1) las teorías físicas fundamentales ca­ recen de contenido observacional, esto es, no contienen

211

en puridad enunciados observacionales, y consiguiente­ mente no pueden ser reducidas a conjuntos de datos ni siquiera a dispositivos que procesen datos; 2) no existe en la física evidencia libre de teoría. Si esto realmente se acepta, no hay por qué confundir la referencia con la evidencia.

7. R eglas de interpretación 11 Si se acepta el análisis que precede, entonces debe reconocerse que en la física encontramos más de un tipo de reglas de interpretación (regla semántica). Las fórmulas matemáticas de la física pueden leerse con la ayuda de reglas de interpretación de dos clases: referenciales y evidencíales. Una interpretación referencial (RIR) establece una correspondencia entre alguno de los símbolos formales, y su referente. Consiguientemente, una regla de esta clase contribuye al significado (central) de la teoría; en el caso ideal de una teoría muy simple, el conjunto de sus reglas referenciales de interpretación constituye el significado físico entero de la teoría. D e otro lado, una regla de interpretación evidencial (RIE) enlaza un término de bajo nivel teorético con alguna entidad observable o rasgo, tal como un reloj visible. Puesto que toda teoría física tiene a la vez un refe­ rente inmediato y uno mediato o propuesto (véase secc. 3) debemos distinguir dos tipos de reglas de interpretación referencial: 1) tipo I RIRs, que establece corresponden­ cias entre conceptos no formales y rasgos del modelo ideal (que son conceptos nuevos más bien que cosas reales o propiedades), y 2) tipo II RIRs, que establece correspondencias entre rasgos del modelo teorético y aspectos del referente real hipotetizado del último. Ejem­ plo de RIRs: el concepto geométrico de estructura se interpreta como un rígido triedro (tipo I RIR), cuyo 11. Cf. I C, sec. 8.4.

212

objeto ideal se interpreta a su vez como un modelo aproximado de un cuerpo real semirrígido (tipo II RIR). Ejemplo de una RIE: un pico en un gráfico del osciloscopio se interpreta en ocasiones como un efecto de una descarga eléctrica (fig. 4). Símbolo teorético

Las reglas de interpretación referencia! son necesa­ rias, aunque insuficientes, para delinear el significado de una teoría: indican lo que puede llamarse el significado central del sistema simbólico. {Una determinación plena de su significado exigiría desenterrar todas las presupo­ siciones de la teoría al tiempo que deducir actualmente las infinitas consecuencias de sus suposiciones iniciales — ninguna de tales operaciones es efectivamente posi­ ble— ).12 Con objeto de determinar la contrastabüidad de la teoría y a fortiori con objeto de efectuar contrastaciones empíricas actuales de la misma, debemos agregar un conjunto de reglas de interpretación evidencial. Pero usualmente tales RIEs no se encuentran entre las fór­ mulas, pues cualquier evidencia depende no sólo de la teoría dada sino también de otras teorías (véase secc. 6) y de la quincallería disponible. A sí medidas de precisión 12. Cf. del autor Intuición y ciencia (Juenos Aires, Eudeba),

213

de longitud pueden requerir interferómetros y circuitos electrónicos a la vez que diversos fragmentos de la teoría construida en ellos, permitiéndonos operar y leerlos. (La teoría cuántica fundamental incluye RIRs pero no contiene ni debería contener RIEs: no es suscepti­ ble de ser interpretada operativamente dado que se aplica principalmente a objetos físicos inobservables: re­ cuérdese la secc. 5. D e otro lado alguna de sus aplica­ ciones, v. g., la a punto de nacer teoría cuántica de la medida, y la teoría del estado sólido, contienen algunas RIEs, ya que tales teorías constituyen cadenas entre un micronivel hipotetizado y un macronivel parcialmente observable.) Si se ignoran las distinciones precedentes, podemos pasar por alto el complejo carácter de la relación de la física con la realidad, o de otra manera su relación de rodeo con la experiencia. La referencia objetiva pro­ puesta es insuficiente para asegurar la contrastabilidad, no tocando la verdad. Así el número de teorías de «par­ tículas elementales» que se han propuesto, y continua­ rán proponiéndose, están o demasiado lejos de posibles contrastaciones actuales o contradicen de entrada los da­ tos disponibles. Desgraciadamente no existe ninguna prueba receta a priori que garantice la objetividad tal como la invarianza bajo ciertas transformaciones; incluso la invarianza de las ecuaciones básicas con respecto a cambios del observador es necesaria pero insuficiente para alcanzar la objetividad.13 La adecuación de la refe­ rencia objetiva de una teoría debe estimarse con la ayuda de la experiencia y teorías adicionales: las presupuestas lógicamente por la teoría en cuestión y las empleadas en su contrastación empírica.14 N o por centrarnos en la contrastación de una teoría eliminamos la cuestión de su referencia objetiva (pero 13. Cf. del autor Metastieniific Queries, ob. cit.} cap. 8. 14. Cf. I C, secs. 8.4, 12.4, 15.6 y 15.7.

214

hipotética). D e hecho, la contrastación presupone la rea­ lidad objetiva de por lo menos los instrumentos maneja­ dos por el operador — una suposición que la propia teo­ ría puede dejar de hacer, desinteresada como pueda es­ tarlo por cualquier operación empírica— . A sí, una teoría acerca del campo generado por una antena unidimensio­ nal se ocupa de un referente inmediato que es una an­ tena real tipo cono. N o suponemos la existencia física del modelo descrito por la teoría, sino que la contrasta­ ción de la teoría exigirá la manufacturación y operación de un número de instrumentos supuestamente reales, no menos que el de una antena real tipo cono — el referen­ te propuesto de la teoría. Una contrastación que no implique ni el referente propuesto real ni piezas actua­ les del aparato no es una contrastación empírica actual sino un experimento mental (v. g., una simulación en un computador). En resumen, la experiencia científica presupone la realidad de los objetos que manipula, aun cuando no nos comprometa con la hipótesis de que el referente propuesto de una determinada teoría es actual: después de todo, la contrastación tiene por objeto con­ trastar una hipótesis así. Ya que estamos en ellos pode­ mos dar un paso y alegar que la experiencia es un sub­ conjunto particular, reducido, del conjunto total de hechos, y que la física maneja algunos de ellos— al mis­ mo tiempo que otros completamente imaginarios (véa­ se fig. 5). Esto es lo que cabe considerar como la médula del realismo crítico.

8.

O

b s e r v a c io n e s

f in a l e s

Toda teoría gira en torno a objetos de alguna clase — que identifica como miembros de un universo de dis­ curso U— al que asigna ciertas propiedades definidas y básicas P que constituyen la base de predicados de la teoría. Estos conceptos básicos — U y los P— son en

215

Experiencia

FtSlC / i

Hechos actuales F ig . 5. — L a física cubre algunos hechos, e n tre ellos hechos ob­ servables, y se prolonga e n hechos no existentes (hechos falsa­ m ente supuestos).

gran parte o enteramente no observacionales, esto es, carecen de contrapartidas experimentales— tal como se ejemplifica por «punto de masa», «masa», «carga eléc­ trica», y «spín isotópico». 17 y los P son los bloques de construcción de las suposiciones (postulados) iniciales que refieren al mismo U, el referente inmediato de la teoría. A partir de tales suposiciones inicíales, en con­ junción con premisas auxiliares (tales como datos), se obtienen consecuencias lógicas con la ayuda de teorías subyacentes lógicas y /o matemáticas. Hasta este punto, una teoría física bien organizada (semiaxiomalizada) no difiere de una teoría matemática. Las diferencias clave entre una teoría matemática y una física, son dos: una es semántica, la otra metodo­ lógica. La primera consiste en que, aunque ni los 17 ni los P de una teoría física sean instantáneas de objetos físicos, se proponen simbolizarlos: se espera que los miembros de U imiten objetos reales, y que la teoría como un todo represente la conducta y /o la estructura 15 de estos últimos objetos del teorizar físico. En resumen 15. Para los estilos fenomenológicos y representadonaíes de teori­ zar, cf. I C, secs. 5.4 y 8.5, y «Teorías fenotnenológícas».

216

las teorías físicas a diferencia de las meramente formales, se espera que tengan un referente real (si bien mediato) en adición a un referente conceptual (inmediato). La diferencia metodológica consiste en que alguna de las consecuencias lógicas de las suposiciones iniciales de una teoría física deberían ser susceptibles de contrastación empírica. Toda contrastadón semejante implica no sólo el control directo de ciertos aspectos observables sino también: 1) el control frecuentemente indirecto del referente propuesto (mediato) de la teoría, y 2) las hipó­ tesis de existencia relativas a uno o más vínculos en la cadena lleva hasta los referentes hipotéticos reales de la teoría. Una evidencia empírica relevante para una teo­ ría puede diferir tanto del referente propuesto de la últi­ ma cuanto un síndrome clínico puede diferir de la enfermedad correspondiente. Los resultados de las con­ testaciones empíricas, junto con las consideraciones teo­ réticas (v. g., compatibilidad con teorías contiguas acep­ tadas) y las metacientíficas (v. g., consistencia con los credos filosóficos prevalecientes) proporcionan cierta evi­ dencia que nos capacita para argumentar en torno al grado de verdad de una teoría, esto es, la extensión hasta donde su referencia mediata es adecuada.16 La referencia objetiva propuesta y la contrastadón empírica de una teoría física son distintas pero van jun­ tas: sin referente real (por hipotético que fuere), ningún objeto ni en la teorización ni en la contrastadón; sin contrastadón, no hay posibilidad de estimar el grado de verdad de la hipótesis del referente real. N o hay que esperar que la adecuación sea completa, aunque sólo fue­ se porque una teoría se construye inventando un modelo simplificado y minuciosamente hipotético del referente propuesto. (Incluso una caja negra es un modelo tal.) La constatación de esta imperfección inevitable motiva la invención de teorías más ricas, usualmente más com­ ió. Cf. referencia 3, cap. 7, y í C, secs. 15.6 y 15,7.

217

plejas, alguna de las cuales triunfa en llegar más cerca del referente objetivo, mientras otras se extravían al no dar en el blanco.17 En resumen, toda teoría física: 1) se construye con unidades simbólicas (no icónicas) y parcialmente conven­ cionales, 2) se supone (a menudo erróneamente) que se refieren en ultimidad a objetos reales (sistemas físicos); 3) su referencia a tales objetos reales es incompleta, extremadamente indirecta, y a lo mejor parcialmente verdadera, y 4) su contrastación presupone la existencia física de ciertos objetos. Y el sistema hipotético-deductivo que tenga la primera de las propiedades preceden­ tes, pero carezca de las cuatro restantes, no es una teoría física. Estos rasgos de toda teoría física — y, por tanto, de toda teoría factual— convierten al realismo acrítico en obsoleto, pero también bacen del subjetivismo (idea­ lismo, convencionalismo, ficcionalismo, fenomenalismo, operacionalismo, etc.) algo insostenible. Estos puntos de vista no físicos de la física llegaron a ser posibles por el fracaso de los realistas ingenuos en reconocer el ca­ rácter simbólico de la teoría física, el carácter hipotético, indirecto, incompleto, global (antes que isomdrfico) de su referencia a los sistemas físicos, la adecuación parcial de una referencia tal, y la base física de las operaciones empíricas por medio de las cuales tales alegatos de ade­ cuación se ponen a prueba. Una vez estos rasgos de la física son reconocidos, las exposiciones de la misma avanzadas por el realismo acrítico y por los diferentes matices del subjetivismo se van dejando atrás como otras tantas visiones pardales — simplistas— de nuestra cien­ cia. Notemos que tales perspectivas no se descartan por la fuerza de credos filosóficos y argumentos de tipo tra­ dicional, sino con la ayuda de la lógica matemática, la semántica y la metodología, los mismos instrumentos 17. Cf. 1 C, secs. 8.1, 8.4 y 8.5.

218

que en otro tiempo se pensó apoyaban las filosofías subjetivlstas de la física. El vacío dejado por el desvanecimiento (lógico) de las filosofías de la física anteriormente mencionadas de­ bería llenarse mediante la construcción de una teoría del conocimiento que subsumiera y desarrollara las semillas de verdad contenidas en esas doctrinas, al tiempo que la hipótesis realista presupuesta y sugerida por la cien­ cia.18, 19 Un realismo crítico o científico ayudaría (y a su vez se contrastaría mediante) la construcción de una interpretación minuciosamente física (más que psicoló­ gica) de los formalismos matemáticos de la teoría cuánti­ ca. El nuevo epistemólogo realista debería estar dispues­ to a la vez a introducir su pescuezo y a estar preparado a que lo cortaran: debería adelantar suposiciones atre­ vidas (si bien fundadas), ninguna de las cuales debería considerar libre de controversia. Así, mientras el realis­ ta ingenuo puede tomar la realidad de los electrones por supuesto, el realista crítico dirá que en el momento actual la física supone que los electrones son cosas rea­ les — esto es, hipotetíza que el concepto de electrón tiene una contrapartida concreta pero, al mismo tiempo, no le sorprendería el que esta suposición resultara falsa y los electrones tuvieran que ser reemplazados por algo distinto. Es innecesario decir que cualquiera que sea ía forma que pueda tomar la nueva epistemología realista crítica, dejaría de responder a los standards de la investigación 18. Cf. I C, see. 5.9. 19. Véase las siguientes recientes defensas del realismo crítico: la contribución de P. Bernays a la discusión sobre la mecánica cuántica en la R em e de Métaphysique et Morale, abril-junio 1962; H. F eigl, «Matter Still Largely Material», Philosophy of Science, 29, 39 (1962); K. R. P opper, Conjectures and Refiitalions (hay trad. cast., Paidós) (¡Londres, Routledge and Kegan Paul; Nueva York, Basic Books, 1963), y J. J. C. Smart, Philosopby and Scientific Restism (Londres, Rout­ ledge and Kegan Paul, 1963).

219

científica y consiguientemente no serviría de ayuda en esta empresa si se la concibiera como un ismo más, esto es, como un conjunto de credos más allá de la crí­ tica y previos a la ciencia. D e querer un nombre para esta epistemología naciente, debería ser uno que no ter­ minara en ismo, pues todo lo que termina en ismo posee la cualidad de poner un fin a la búsqueda de la verdad.

220

ANALOSÍA, SIMULACIÓN Y REPRESENTACIÓN

Artículo de la Revue Internationale de Pbilosophie, año 23, mero 87, parte I (1969). (Trad. cast. de José Luis García Molina.)

1.

I n t r o d u c c ió n

La importancia de la analogía en la investigación científica no debería negarse. Pero está claro que ha sido a la vez negada y exagerada: negada por quienes ven la analogía como poseyendo sólo valor heurístico y encare­ cida por quienes consideran que le corresponde nada menos que una fundón rectora en la investigadón. D es­ graciadamente, ni los amigos ni los enemigos de la ana­ logía parecen haberla tomado con la suficiente seriedad como para ofrecernos su adecuada caracterización. En este estudio preliminar trataremos de explicar la analo­ gía de manera elemental y de mostrar su parentesco con otros dos conceptos de importancia filosófica, a saber, los de simulación y representación. Nuestro universo de discurso será el conjunto en­ tero de objetos O, tanto si son concretos como concep­ tuales. Procederemos a la partición de O en tres con­ juntos: el conjunto N de objetos naturales o sociales (v. g., electrones y sodedades filosóficas), el conjunto A de artefactos concretos (v. g., dentaduras y autómatas), y el conjunto C de objetos conceptuales (v. g., concep­ tos y teorías). Así N , C, y A quedarán mutuamente disyuntos y cubrirán exhaustivamente el universo global de discurso, lo que no nos impedirá pensar en sistemas compuestos de partes pertenecientes a diferentes dases.

223

2.

A n a l o g ía

Podemos decir que el miembro x del conjunto uni­ versal O es análogo a su miembro asociado y, justo en cualquiera de los casos en que a) x e y participan de propiedades objetivas varías (son iguales en algunos respectos), o b) existe una correspondencia entre las partes de x o las propiedades de x y las de y. Si x e y son análogos, escribimos: x = y y decimos de cualquiera de los partícipes de la relación que es un análogo del otro. Si x e y satisfacen la condición ante­ rior a), puede decirse que son sustancialmente análogos. Dos átomos cualesquiera son sustancialmente análogos. Si rige la condición b) los análogos pueden ser llamados, independientemente de su constitución, formalmente análogos. La migración de iones es formalmente análoga a la migración humana. Y si tanto a) como b) valen, la analogía puede denominarse homología. El hombre y el robot son homólogos. La homología implica a la vez la analogía sustancial y la formal, y la analogía sustancial implica la analogía formal pero no a la inversa. La analogía formal se analiza mejor cuando los ob­ jetos en cuestión son conjuntos, debido a que la teoría de conjuntos no especifica la naturaleza de los elemen­ tos de un conjunto. Esto no significa que la analogía formal sólo sea clara cuando concierne a objetos mate­ máticos: dado que cualquier objeto concreto puede ser modelizado (o representado como) un conjunto dotado de una cierta estructura, la búsqueda de analogías for­ males puede ser referida a los representantes de su con­ junto. Si dos representantes tales resultan análogos, sus respectivos referentes se dictaminarán como formalmen­ te análogos. Si acaece que x e y son conjuntos, la corresponden­ cia involucrada en la anterior condición b ) puede espe224

rificarse al objeto de producir diversos grados de ana­ logía formal. El más débil de todos ellos, que puede llamarse analogía formal laxa (plain) (o algún-algún) se obtiene cuando algunos elementos de x son aparejados con algunos elementos de y. Si este aparejamiento es ar­ bitrario, la analogía se considerará superficial; si el em­ parejamiento descansa en alguna consideración relativa sea a la estructura del conjunto sea a su composición, se dirá de la analogía que es más o menos profunda. Una símilaridad más fuerte se obtiene cuando cada uno de los elementos de x tiene un correspondiente en y: en este caso, podemos hablar de una analogía inyectiva (o todo-algún). Una analogía formal aún más fuerte se ob­ tiene cuando la relación precedente vale en ambos sen­ tidos; puede entonces ser llamada analogía biyectiva (o todo-todo). La analogía inyectiva (o todo-algún) existe en dos intensidades: débil y bomomórfica. Hay un homomorfis­ mo del conjunto x en el conjunto y justo en el caso en que existe una correspondencia que aplica todo elemento de x en algún elemento de y y preserva, además, las re­ laciones y operaciones en x. E l homomorfismo puede entonces ser descrito como una analogía todo-algún in­ yectiva que preserva la estructura. Si hay una forma de homomorfismo de x en y y también una de y en x (esto es, si no quedan bachilleres ni en x ni y) y además los dos morfismos se compensan el uno al otro, la analogía se denomina isomorfismo. El isomorfismo desde luego es una analogía formal perfecta: todo lo que está en x y acaece en x tiene su imagen homomórfica en y e inver­ samente. El isomorfismo supone a la vez el homomorfis­ mo y la analogía biyectiva (todo-todo); la última su­ pone la analogía inyectiva (todo-algún), que a su vez supone la analogía formal laxa (algún-algún). La relación ^ de analogía es una relación binaria en O. Pero dado que no hay dos objetos cualesquiera análogos en O, — no está conectada en O. La relación

225 1 5 . ---- BUKCE

de analogía es simétrica: si x =* y entonces y ^ x; és también reflexiva: x x, esto es, toda cosa es análoga a sí misma. Pero = no es ni transitiva ni tampoco intran­ sitiva: x ~ y e y — z no suponen conjuntamente que x — Z, pero entonces tampoco suponen que x y z sean entrambos disímiles. (Piénsese de la semejanza de ros­ tro.) En otras palabras, en ocasiones la similaridad es propagada: la mayoría de las veces es de corto alcance, ocasionalmente de largo alcance. Cuando suceda que la similaridad es transitiva, la denominamos analogía de contagio ( = ) . La similaridad laxa es una relación muy blanda, en el sentido de que apenas induce estructura alguna en un conjunto. Por otra parte, la similaridad de contagio es una relación de equivalencia. N o siendo transitiva, — no es una relación de equi­ valencia, esto es, no conduce a la partición de O en clases mutuamente disyuntas: no genera conjuntos o es­ pecies homogéneas. N o obstante, si todos los objetos en un subconjunto determinado de O son similares según pares, entonces sus miembros son equivalentes y cons­ tituyen una clase de equivalencia (especie). Este teore­ ma es metodológicamente importante porque, si una re­ lación de analogía vale en una muestra observada de una población, podemos tentativamente asumir que la pobla­ ción total es una clase o especie de equivalencia. Sí sólo unos pocos individuos se examinan y se encuentra que son similares — como a menudo es el caso cuando se cree haber descubierto una nueva especie biológica— el riesgo de esta inferencia es grande: investigadores di­ ferentes, trabajando sobre muestras diferentes, pueden terminar en agrupamientos taxonómicos diferentes. Y al­ gunos de ellos, no advírtiendo que toda operación de clasificación es hipotética,1 concluirán que el mismo con­ cepto de especie es inútil. 1. O . A. R eig, L o s conceptos d e especie en Biología (Caracas, Edidíciones de la Biblioteca de la Universidad Central de Venezuela, 1968).

226

La blandura de la relación de analogía se constata mejor contrastándola con otras relaciones que son simi­ lares a ella en virtud de participar con ella de las pro­ piedades de simetría y reflexividad. Éstas son, en lo prin­ cipal, las relaciones de identidad (como en «1 = 1»), igualdad (como en «2 + 3 = 5»), y equivalencia (como en la simultaneidad de tiempo). La identidad implica igualdad; la igualdad implica equivalencia; y la equiva­ lencia implica similaridad. (Las implicaciones inversas no valen.) En símbolos, = C = C ^ donde ‘C ’ sim­ boliza el concepto de subrelación. Notem os que cuanto más débil, menos discriminante es la relación. Una clase de individuos idénticos es un conjunto unitario o singleton. Una clase de iguales, por otra parte, puede ser numerosa, porque los iguales son distintos al menos en un respecto: piénsese en una co­ lección de protones. Entonces, una vez más, dado que los equivalentes (v. g., individuos de la misma especie) son los mismos al menos en un respecto, las clases de equivalencia se limitan a estar bien pobladas, aunque menos que las clases de similaridad, la más comprehen­ siva de todas. Finalmente, dada la tripartición de O en N, A y C introducida en la sección 1, podemos distinguir los tipos de analogía exhibidos en la tabla 1. En suma, debido a la simetría de la relación de la analogía tenemos seis tipos de analogía si se presta atención a la naturaleza de los relata. Ninguna atención semejante se presta cuando se trata de la analogía for­ mal, que en el caso de conjuntos resultó dar otros seis tipos (laxa, contagiosa, inyectiva, biyectiva, homomórfica e isomórfica). Si ambos respectos (sustancia y for­ ma) cuentan, resultan 62 = 36 tipos de analogía.

227

T abla 1

Tipos de analogía

Símbolo ^.CNxN -C N X A ~sC N x C C A XN C Ax A czo C A X C

Descripción similaridad similaridad similaridad idéntico a similaridad similaridad

cosa-cosa cosa-artefacto cosa-constructo

Ejemplo organismo-sociedad organismo-autómata organismo-teoría

artefacto-artefacto coche-camión artefacto-constructo computador-teoría de autómatas a;r C C X N idéntico a ~s C C x A idéntico a C C X C similaridad constructo-constructo dos teorías cualesquiera

3. Sim ulación Un simulador de un determinado sistema es un obje­ to que copia al último en algún respecto, tal como la forma o función. Cuando artificiales o conceptuales, los simuladores se denominan a menudo análogos o modelos del sistema original.*2 El diseño de un simulador con­ creto o modelo material de un sistema determinado se basa en algún modelo conceptual, a veces en una teoría entera, de ese sistema.3 Por ejemplo, un análogo eléc­ trico o modelo de un circuito neural se diseñará sobre 2. L. D. H armon y E. R. Lewis, «Neural modeling», Rhisiologtcal Review, 46, 513 (1966): «Utilizamos el término modelo sinóni­ mamente de análogo para significar que es similar en función pero di­ fiere en estructura y origen de aquello que es modelizado». 3. Los conceptos de modelo conceptual y material se discuten en M. Bunge, Investigación científica. Los conceptos de objeto modelo y modelo teorético (ambos subsumidos bajo el concepto de modelo con­ ceptual) se elucidan en M. Bunge «Los conceptos de modelo» y «Mo­ delos en la ciencia teórica».

228

la base de algún modelo conceptual de ese circuito neural a la vez que sobre la base de la teoría de circuitos. A su vez, el estudio de la conducta del simulador puede ayudar a comprender al original. Pero las rentas de esa inversión no deberían exagerarse: nada puede reempla­ zar el estudio de la cosa real. Tanto más cuanto que, dado cualquier objeto natural o social, hay en principio un número indeterminado de modelos conceptuales su­ yos — por tanto muchos simuladores posibles del sis­ tema determinado. Más precisamente, diremos que un objeto x perte­ neciente a A o C simula (imita, remeda, copia) un objeto y en O si a) x es contagiosamente análogo a y (x = y) y b) esta analogía es válida para el mismo x o para un tercer cómplice z en N que domina o controla x. Si x simula y escribimos: x J\ y. Estipulamos que A. es una relación binaria en O, con dominio A U C y codominío O. Además, la relación de simulación es simé­ trica, reflexiva, y transitiva. Esto es, el original imita a su vez a su(s) simulador(es); cualquier objeto es un si­ mulador de sí mismo (de hecho la mejor imitación que existe); y la imitación es contagiosa en todos los senti­ dos: así la impresión de un plano simula un plano, que a su vez imita un pájaro, vicariamente imitado por la impresión. Siendo reflexiva, simétrica, transitiva, A es una relación de equivalencia, por tanto, más fuerte que la analogía. El conjunto [x] = \z\z A x j de todos los simulados de x es una clase de equivalencia con respecto a la relación de simulación. Hemos asumido que los simuladores son o bien ar­ tefactos o bien objetos conceptuales: nuestra idea de la simulación no se aplica al mimetismo animal y la con­ ducta imitativa, sea espontánea o inducida por adiestra­ miento. Estos casos son cubiertos ampliando el dominio de A al conjunto entero O. Esto produce tres tipos adicionales de simulación: A t ^ WX N , A s C N X A

229

T abla 2 Tipos de simulación

Símbolo

Descripción

Ejemplo

A x N el artefacto simula un objeto modelo de molécu­ natural la bola y varilla a C A x A el artefacto sim. un artefacto modelo de barco a pequeña escala A C A x C el artefacto sim. un constructo grafo de una función A c c x N el constructo sim. un ob. nat. teoría científica a C C x A el constructo sim. un artefacto teoría tecnológica el constructo sim. un constructo círculo que simula a C C x C — $ una esfera a c

y A o C N X C. El primero, o simulación N N , es ejem­ plificado por la actuación teatral; hacer gestos y ruidos que sugieran el vuelo de un avión ejemplifica la simula­ ción N A; el tercero, o simulación N C, viene ejemplifi­ cado por el exístencialismo.4

4. R epresentación Algunos artefactos, tales como palabras significativas y dibujos figurativos, facturas y maquetas, representan a ciertos objetos o los sustituyen: pueden llamarse obje­ tos representantes o delegados. Por otra parte, la char­ latanería, los instrumentos y la mayoría de las máquinas son objetos no-representantes. Procederemos a la parti­ ción del conjunto A de artefactos en el subconjunto R de objetos representantes y su complemento, el conjun­ to R de artefactos no-representantes. Asimismo, algunos constructos — como los conceptos y las teorías de la cien­ cia— sustituyen a otros ciertos objetos, a saber miem­ bros de N, antes que a sí mismos. D e otro lado los conceptos de la lógica pura y la matemática pura son objetos no-representantes. (Así la unidad, representable 230

por el artefacto ‘T , nada representa salvo a sí misma; por su parte el numeral ‘V representa o designa también 2 /2 , 3 /3 , logio 10, etc.). El conjunto C puede ser dividido en el subconjunto S de constructos simbolizan­ tes (o delegados conceptuales) y el conjunto S de cons­ tructos no simbolizantes. Consideremos ahora el conjunto de todos los objetos que son sea representantes sea simbolizantes, esto es, que sustituyen algo distinto a sí mismos: o sea, el conjun­ to R U S de delegados concretos y conceptuales. Pode­ mos decir que un objeto x en R U S (esto es, un dele­ gado) representa (refleja, modela, esquematiza, simboli­ za, sustituye) al objeto y en O si x es un simulador de y. Siempre que esta relación valga escribimos: x /\ y. La representación es una subrelación de la simula­ ción: esto es, para cualquier x y cualquier y en O, si x representa y entonces x simula y. En otras palabras, A C A . . Más precisamente, la relación de representa­ ción es la restricción de la relación de simulación al sub­ conjunto de R U S de A U C: por tanto, A es idéntica a A C¡ [ C K U 5 ) X O ] . Las relaciones semánticas de designación y referencia son por otra parte super-relaciones de la relación de representación: todo lo que repre­ senta, a fortiori o bien designa o bien refiere. Como la simulación, la representación es no-simétrica, reflexiva y transitiva: el objeto representado o simbolizado puede (como acaece con más frecuencia) no representar a su contrapartida; el objeto representante puede ser consi­ derado como la mejor representación de sí mismo; y si x representa a y, que a su vez representa a z, enton­ ces x representa a z. La representación es, entonces, una relación de preordenación. Siempre que la representación entre conjuntos valga podemos aplicar las distinciones hechas en la sección 2 con respecto a la analogía. En este caso, podemos dis­ tinguir representaciones de la misma intensidad a las mencionadas previamente: laxa (pero contagiosa), inyec-

231

tiva, biyectiva, homomórfica e isomórfica. Mientras que la biyección y el isomorfismo se ejemplifican a menudo en las matemáticas, las relaciones más blandas de la representación laxa (algún-algún), la representación inyectiva (todo-algún) y la inyección que preserva la es­ tructura (representación bomórfica) parecen ser la regla en el arte y la ciencia, sea pura o aplicada. Fuera de las matemáticas, la representación isomórfica parece ser un ideal inalcanzable: una meta por la que uno lucha con la esperanza de llegar a conocer cada vez más íntima­ mente aquello que no puede ser alcanzado. La meta de la teorización científica es, por tanto, dar la mejor representación conceptual posible del sistema determinado (el objeto representado)4 y lo mejor posi­ ble es lo más cercano al isomorfismo. Pero uno y el mismo sistema puede ser representado en un número de vías equivalentes, según la información disponible y los instrumentos analíticos a nuestra disposición, y según nuestra meta inmediata. Así un cuerpo, sea físico o so­ cial, puede ser modelízado como un conjunto de puntos, o quizá como un grafo (componentes conectados por relaciones); puede también ser modelizado como un con­ junto de puntos junto con un número de funciones sobre el mismo, o incluso como un conjunto de aplicaciones (los inputs y los outputs de los varios componentes), y así sucesivamente. Por tanto nos enfrentamos, ahora y entonces, siempre, con la elección de la representación más conveniente — que no siempre es ni la más verda­ dera ni la más simple o fácil de aplicar.5 En cualquier caso, la búsqueda y evaluación de re­ presentaciones de objetos concretos en la ciencia suscita un número de problemas, en particular los siguientes: 4. Para una defensa de la tesis realista véase M. Bunge, La inves­ tigación científica, passitn. 5. Para algunos de los dilemas que se manifiestan en la evaluación de las teorías científicas, véase M. Bunge, La investigación científica y The Myth of Simplicity, caps. 6 y 7.

232

a) encontrar el mejor tipo de representación para un de­ terminado propósito (crudo o detallado, caja negra o me­ canismo, determinista o estocástico, etc.); b) dada una masa de datos y de generalizaciones empíricas relativas al sistema, decidir cuáles descartar, esto es, no incorpo­ rar en la representación; c) dado el tipo de represen­ tación y la masa de datos y generalizaciones empíricas a ser explicados, construir el modelo mas verdadero; d) dadas las dos representaciones del mismo sistema, compararlas en cuanto a la estructura, esto es, estable­ cer la aplicación que lleve de la una a la otra; e ) en particular, dadas dos representaciones del mismo siste­ ma, indagar si son equivalentes; f) dadas dos represen­ taciones del mismo o diferente tipo, equivalentes o no, buscar si representan el mismo sistema. Esto no es sino una muestra de las cuestiones que pueden formularse en relación con cualquier conjunto de simuladores concep­ tuales de un sistema concreto. La tabla 3 da cuenta de las diferencias de natura­ leza entre los objetos representados y los representantes. T abla 3

Tipos de representación Descripción Ejemplo Símbolo A C R X N el artefacto repr. un ob. nat. dibujo de un árbol A1 C R X A el artefacto repr. un artefacto diagrama de proceso de una fábrica A, C R X C el artefacto repr. un constructo diagrama-árbol de un argumento A ^ C S x N el constructo repr. un ob. nat. teor. de la evolución As C s X a el constructo repr. un artefacto teor. de autómatas A6 C S X C el constructo repr. un constructo coordenada de un punto D e todas estas subrelaciones de A, la primera es típica de (aunque no peculiar a) la etapa observacional

233

de la ciencia factual; la segunda y la quinta son, desde luego, características de la tecnología (y de la lingüísti­ ca, sí los signos se consideran como instrumentos); la tercera y la sexta son peculiares a la matemática; la cuar­ ta a la ciencia pura teorética y la quinta a la ciencia aplicada teorética.

5.

C o m b in a n d o

las

tres

r e l a c io n e s

Los conceptos de análogo, simulador y representa­ ción se presentan juntos en diversas ocasiones. Exami­ nemos unas cuantas combinaciones típicas de interés para los filósofos de la ciencia y la tecnología.

Primer caso: D os análogos naturales u objetos arti­ ficiales son representados por un modelo conceptual sin­ gular. Ejemplo: las epidemias y la difusión cultural son comprehendidas, en sus rasgos salientes, por el mismo modelo matemático.

Segundo caso: Un sistema conceptual cubre a la vez un objeto natural y uno de sus simuladores concretos. Ejemplo: las teorías de autómatas se aplican (parcialmen­ te) a la vez a cerebros y computadores digitales.

Tercer caso: D os objetos naturales análogos son si­ mulados por una máquina singular. Ejemplo: simulación por el computador de la evolución molecular y biológica a la vez.6 6. Comunicación personal de L. C hiaraviglio (Georgia Institute of Technology). La replicación y recombinación de moléculas —que con­ ducen de una generación a la siguiente— pueden ser simuladas por un computador. Programas de indagación inspeccionan cada generación e investigan cuándo aparecen ciertas secuencias predeterminadas y miden su longitud y otras propiedades. La mutación y la presión selectiva pueden en principio superponerse una a una, de modo que determinen su contribución a la selección. Para una excelente introducción a la simulación véase H . G uetzkOW, ed., Simulation tn Social Science (Englewood Cliffs, N. J., Prentice-Hall, 1962). Para una discusión del

234

Yuxtaponiendo las pautas básicas anteriores pode­ mos encontrarnos ante un número de situaciones más complejas en el que las tres relaciones queden implica­ das. Por ejemplo.

Cuarto caso: D os objetos análogos concretos son si­ mulados por un artefacto y representados por un mode­ lo conceptual. La figura 1 exhibe el grafo de esta malla de relaciones. Ejemplo: tanto la Luna como cualquiera de los satélites de Júpiter son simulados por un satélite arti­ ficial y representados por una teoría lunar. o c

o a F ig. 1. — Cuarto caso: los objetos naturales n y n’ son represen­ tados por el modelo conceptual c y simulados por el artefacto a.

Volvamos ahora a un diagrama típicamente abier­ to. El siguiente enunciado jugará un papel en su discu­ sión. Teorema: Si c f\ n y c /\ nr son análogos enton­ ces n y rí son análogos también, e inversamente.

F ig. 2. — Constructos similares.

valor dudoso de la prueba de la simulación por un computador, véase M. Bunge, La investigación científica.

235

Quinto caso: D os modelos conceptuales de muchas cosas análogas concretas (fig. 2). Problema 1: ¿Son los modelos conceptuales en sí mismos análogos? Respuesta: Sí, según el teorema previo. Precaución: dada la extrema debilidad de la relación de analogía, el precedente resul­ tado no dice mucho. Problema 2: ¿Bajo qué condiciones los modelos representan la misma cosa? Respuesta: Bajo condiciones más bien restrictivas.7 Observación: mien­ tras que la naturaleza precisa de estas condiciones posee interés para el matemático aplicado, el semántico se in­ teresaría por conocer el problema de determinar si dos constructos que tienen el mismo referente pueden plan­ tearse y resolverse de una manera exacta si bien algo abs trusa. D e nuevo, yuxtaponiendo las pautas básicas previas, cabe cubrir cualquier número de situaciones. Pero un es­ tudio sistemático y exacto de problemas implicando la analogía, la simulación y la representación, tiene por el momento que intentarse.

6.

El

p a p e l d e l a a n a l o g ía e n l a

c ie n c ia

Sin analogía no podría haber conocimiento de ningún tipo: la percepción de analogías es una primera etapa ha­ cia una clasificación y generalización. Una primera etapa sólo, porque una clase natural (en cuanto opuesta a un conjunto arbitrario) es una clase de equivalencia, esto es, 7. B. Rosen, «The representation of biological systems from the standpoint of the theory of categories», Bulleiin of Mathematical Biopbysics, 20, 317 (1958), teorema 6, p. 335. Sea M un diagrama abs­ tracto de bloque que representa un sistema concreto, v. g., un organis­ mo. Los objetos y aplicaciones de M pertenecerán a una cierta cate­ goría A. Consideremos ahora otra categoría B y un functor T de A en B. Llamemos T (Ai) la imagen del diagrama original del bloque bajo el functor T. Cuestión: ¿Bajo qué condiciones es esta imagen T (Ai) de nuevo un diagrama de bloque del sistema concreto determinado? Respuesta: Cuando T es un fiel functor regular y multiplicativo.

236

una que posee una estructura mucho más fuerte que una clase de similaridad. (Recuérdese la sección 2). U n primer cometido de la analogía es sugerir la equivalencia, sin por ello establecerla. La incapacidad para distinguir la analogía de la equi­ valencia ha dado lugar a la clásica pero errónea creencia de que la analogía es la fuente de la inducción, a su vez, erróneamente considerada como el método de la ciencia. Una creencia aliada y aún más errónea es que el esta­ blecimiento de analogías entre los miembros de un deter­ minado conjunto sustancia la inducción. Más cosas hay, actualmente, involucradas: a) la similaridad puede sugerir la equivalencia; b) la equivalencia justifica la clasificación; c) la clasificación es necesaria (no suficiente) para aven­ turar generalizaciones inductivas; d) las generalizaciones inductivas son sólo un reducido subconjunto de las hipó­ tesis científicas y nunca son establecidas de manera con­ clusiva.8 Todos somos conscientes de las limitaciones de la analogía y de los argumentos a partir de la analogía, pero cuando llega la ocasión — esto es, cuando topamos con lo que parece una analogía prometedora y profunda— quedamos ciegos en la misma medida en que ilumina la situación. Recordemos unos cuantos casos en los que la analogía, o más bien un uso temerario de la misma, ha sido perturbadora. Ejemplo 1: la similaridad entre el enfriamiento y la caída de un cuerpo, hasta el punto de alegar que esos dos procesos han de satisfacer las mismas leyes. Correspondió a Planck 9 mostrar que esos procesos 8. K. R. P opper, La lógica de la investigación científica (Tecnos, trad. Sánchez de Zavala) proporcionó la refutación más conclusiva del inductivismo con referencia a la construcción de la teoría. Pero la in­ ducción juega un papel decisivo en la evaluación de las teorías cientí­ ficas a la luz de los datos empíricos. Véase M. Bunge, The Mytb of Simplicity (Englewood Cliffs, N. J., Prentice-Hall, 1963), cap. 9. 9. M. P lanck, Vottrdge und Brinnerung (Stuttgart, S. Hirzel, 1949), pp. 11-12.

237

diferían tanto como la segunda ley de la termodinámica difiere de la primera. Ejemplo 2: la mecánica cuántica contiene algunas fórmulas reminiscentes, por su forma, de la mecánica clásica de partículas, y otras formalmente análogas a enunciados de las teorías clásicas de campo. D e estas analogías formales se infiere usualmente que la mecánica cuántica describe tanto un aspecto corpuscular como uno ondulatorio de microsistemas o dispositivos experimentales. Basta con axiomatizar la teoría para mos­ trar que éstas son analogías superficiales que conducen a inconsistencias.101Ejemplo 3: la entropía y la cantidad de información son determinadas mediante fórmulas for­ malmente análogas, de donde se infiere a menudo que la mecánica estadística y la teoría de la información son lo mismo o casi lo mismo. Basta sólo que recordemos cuáles son los referentes de las dos magnitudes, y cuáles son sus relaciones con otras magnitudes, para constatar que una analogía puramente formal y hasta extremadamente res­ tringida se aventura. Ejemplo 4: las innegables analogías entre organismos y sociedades dieron lugar al darwinismo social, una filosofía social conservadora y estéril. Sólo recientemente esas analogías han sugerido el camino co­ rrecto, a saber intentar construir teorías comprehensivas que cubran a la vez organismos y comunidades.11 Ejem­ plo 5: las analogías entre individuos y grupos sociales han sugerido el psicoanálisis social, otra doctrina conser­ vadora y estéril que «explicará», por ejemplo, la revuelta estudiantil como un resultado de la tendencia parricida 10. M. Bunge, Foundations c f Pbysics (Berlín-Heidelberg-Nueva York, Sprtnger-Verlag, 1967) y «Analogy ín quantum theoryt from insigth to nonsense», Briiish Journal for tbe Philosopby of Science, 18, 265 (1967). 11. Una teoría tal es una extensión de la teoría matemática de la genética de la población propuesta por R, W. Gerard, C. K luckhohn , y A, Rapoport, «Biological and cultural evolution», Bebaviord Scien­ ce, 1, 6 (1956). Otra es la teoría de los conjuntos otganísmicos pro­ puestos por N. Rashevsky, Bulletin of Matbematical Biophysics, 29, 139 (1967).

238

generada por el complejo de Edipo. Y así sucesivamente una y otra vez. Una historia negativa de la ciencia, que registrara los fracasos antes que los éxitos, mostraría que las analogías son a menudo tan extraviantes como fructíferas. Otra trampa contra la que debemos guardamos es la perspectiva corrientemente aceptable de la teorización y la explicación científica como siendo básicamente analó­ gicas o metafóricas.12 Según esta perspectiva, el «modelo» hípotético-deductivo de las teorías científicas estaría equi­ vocado: la médula explicativa de toda teoría sería una metáfora, un modelo más o menos pictórico de su refe­ rente, que llevaría a cabo no sólo una función heurística sino también lógica. La explicación científica consistiría entonces en una reducción de lo nuevo y no familiar a lo viejo y familiar — que es, desde luego, la tesis familiar de Meyerson. El «modelo» metafórico de la teorización y la explicación científica se ha hecho popular en estos años, junto con otras reacciones contra el inductivismo y el deductivismo a la vez, si bien nunca ha sido apoyado por un análisis detallado de la forma y contenido de una teoría científica singular — lo que muestra que los filó­ sofos de la ciencia pueden ser tan especulativos como los metafísicos tradicionales. La perspectiva metafórica de la naturaleza de las teorías científicas es impotente para dar cuenta de los siguientes hechos: a) la mayoría de las teorías científicas, particularmente en la física contemporánea, son no-pic­ tóricas y usualmente explican los hechos familiares en tér-

12. Para el punto de vista de que las analogías, en particular los modelos visualizables, son constitutivos más bien que componentes meramente heurísticos de las teorías científicas, véase H . H utten, The Language of Modern Phystcs (Londres, Alien & Unwin, 1956), M. Black, Models and Metaphors (Ithaca, N. Y,, Comell University Press, 1962), (hay trad. cast. [Madrid, Tecnos]), y M. H esse, Models and Andogies tn Science (Notre-Dame University Press, 1966). /

239

minos que son incomprensibles al hombre educado;13

b) mientras que algunas teorías contienen, o pueden ab­ sorber, modelos más o menos visualizabas de sus refe­ rentes, todas son sistemas hipotético-deductivos en lo que a su forma concierne.14 Sería milagroso que las teorías científicas apenas fueran otra cosa que parábolas, porque entonces la ciencia sería incapaz de explicar cualquier cosa nueva: por tanto, lo nuevo deja de parecerse a lo viejo en algún respecto decisivo — de lo contrario no contaría como verdad. Lo que pasa es que uno no «sien­ te» haber comprendido lo nuevo hasta haberlo incorpo­ rado en algún cuerpo aceptado de ideas. Pero este cuer­ po puede haber sido construido nuevamente al objeto de alojar un hecho que previamente se había extraviado. También, tras una cierta práctica se habituará uno al nuevo modo de pensar y se sentirá de nuevo en un ambiente familiar: la explicación y la comprensión ten­ derán a ser coextensivas. Pero están lejos de ser cointensivas: el concepto psi­ cológico de comprensión es de hecho diferente del con­ cepto metadentífico de explicación. Puede darse mucha explicación sin ir acompañada de comprensión intuitiva: e, inversamente, la mayoría de las «explicaciones» inteli­ gibles al hombre culto son no científicas, precisamente por descansar en analogías más bien que en teorías pro­ piamente. En resumen, la analogía es indudablemente prolífica, pero pare tantos monstruos como bebés sanos. Y en cualquiera de los casos, sus productos, tal como los de la 13. Para una discusión de Jas varias nociones de intuibilidad, véase M. Bunge, lntuttion and Science (Englewood Cliffs, N. J., Prentice-Hall, 1962). (Hay trad. cast. [Buenos Aires, Eudeba].) 14. Esto es así por definición: en la ciencia y las matemáticas contemporáneas una idea que deja de ser un sistema hipotético-deductivo no sucede que reciba el nombre de teoría. Véase M. Bunge, La investigación científica, cap. 7, para un análisis elemental de la es­ tructura de una teoría científica.

240

intuición, son justamente eso: recién nacidos que deben ser criados si en absoluto, antes que adorados. En otras palabras, encontrar una analogía o proponer un argumen­ to basado en una analogía (esto es, construir un argu­ mento conteniendo enunciados de analogía) es sólo un comienzo. Como Gerard, Kluckhon y Rapaport18 dicen en su estimulante trabajo sobre las analogías entre la evo­ lución cultural y biológica: «El pensamiento analógico es ( . . . ) en nuestra opinión no tanto una fuente de res­ puestas sobre la naturaleza de los fenómenos como una fuente de cuestiones desafiantes».

7. L os PAPELES DE LA SIMULACIÓN Y LA REPRESENTACIÓN EN LA CIENCIA

El concepto de simulación, tal como se reconstruyó en la sección 3, depende del concepto de valor: por tanto, la simulación es analogía valiosa — por consiguiente, a menudo deliberada. (Asimismo, el encubrimiento (disgui­ se), el complemento de la simulación, es disimilaridad valiosa.) El concepto de simulación es, por lo tanto, tan pragmático como el concepto de valor— según una axiología no platónica, esto es, una según la cual no hay valo­ res sino más bien objetos valiosos, y según la cual la va­ loración es realizada (performed) por los organismos. Asimismo el concepto de representación, según se definió en la sección 4 — donde fue construido como una subrelación de la relación de simulación— es un con­ cepto pragmático. Pero, a diferencia del concepto de si­ mulación, el de representación puede ser construido de una manera desvinculada del tema. Podemos por tanto pretender que la representación sea una relación pura­ mente semántica entre la imagen y su referente, parti­ cularmente si la pintura es fi,el o verdadera. (Las palabras15 15.

Véase p. 27, nota 11.

241 1 6 , — BUNGfi

‘imagen’ y ‘pintura’ no son elecciones felices aquí, ya que las representaciones pueden ser simbólicas antes que icónicas).18 Más aún, cabría la posibilidad de introducir el concepto de representación independiente del de simula­ ción, quizás en términos de los conceptos semánticos de referencia y verdad. (Una elucidación simple en términos semánticos podría ser ésta: Si x es un enunciado, e y es un objeto concreto, entonces: x representa y justo en el caso en que x refiere a y y x es verdadero.) A pesar de ello, nuestra definición pragmática puede ser útil para re­ cordarnos, de nuevo entretanto, que la representación cumple un propósito. (Actualmente es una caracterización, no una definición, ya que es circular.) Los convencionalistas y los idealistas subjetivistas, de estar aún vivos, no tendrían empleo para los conceptos de simulación y representación. Por consiguiente el mero uso de tales conceptos presupone a) la hipótesis metafísica de que hay un mundo externo y b) la hipótesis episte­ mológica de que vale la pena simular este mundo, tanto en el pensamiento como en artefactos, para comprensión y control. (En este caso cabe empero argüir que la cien­ cia, aunque llena de convenciones, no deja sitio ni al con­ vencionalismo ni al idealismo subjetivo — ambos defen­ dibles con referencia a las matemáticas.) Así alguien po­ dría decir que una teoría científica, para que cuente como tal, debe simular entidades de un cierto tipo (su clase de referencia), porque de otra manera no podría ser consi­ derada como aplicable a ellas, quedando sólo como si fuera verdadera de ellas. Uno puede argüir también que 16 16. Para una clasificación de los modelos científicos en icónicos, análogos, y- simbólicos, véase R. L. A ckoff, Scientiftc Method: Optim'txing Applied Research Decisiotts (Nueva York, John Wiley & Sons Inc., 1962). Un modelo icónico es desde luego una representación visualizable de algunos aspectos de un sistema. Un modelo análogo em­ plea un conjunto de propiedades para representar algún otro conjunto de propiedades. Y un modelo simbólico es una teoría matemática del objeto bajo estudio.

242

cualquier contras tación empírica de una teoría científica pone a prueba, entre otras cosas, las suposiciones existenciales de la teoría, que — aun si falsas— son un in­ grediente indispensable de la misma.17 N i que decir tiene, el artefacto representante o la idea simbolizante no necesitan, y a menudo no pueden, ser de la misma naturaleza que el objeto al que sustitu­ yen: la analogía de contagio, sea sustancial o formal, es necesaria y suficiente para calificar como una represen­ tación. Así, puede acaecer que el objeto y su modelo, aunque no similares puntualmente, sean globalmente aná­ logos en el sentido de que, en cuanto todos, participen de ciertas propiedades. Como B olzano18 observó hace un siglo, «El todo tiene, y debe tener, propiedades que faltan en sus partes separadas. Un autómata tiene la propiedad de imitar hasta el engaño casi los movimientos de una persona viviente, mientras que sus partes separadas, sus muelles, sus ruededllas y demás, no poseen ninguna de tales propiedades». La similaridad tipo punto, en particular el isomorfismo, es la excepción más que la regla. Sólo en casos especiales, como en ciertos análogos mecánicos o hidráu­ licos de circuitos eléctricos, puede llegar a producirse una ilusión de analogía formal perfecta (Ísomorfismo). Digo una ilusión porque el campo electromagnético que rodea al circuito, y que es lo que impulsa la corriente, se deja fuera de la analogía. (Una llamada oportuna de que el grado de similaridad es dependiente de la teoría: lo que parece similar en una cierta teoría resulta disímil en otra.) La analogía electro-mecánica a la que acabamos de hacer referencia ha tenido una importancia histórica y 17. Esta aserción puede justificarse mejor exhibiendo los postula­ dos existenciales en una reconstrucción axiomática de la teoría. Para las axiomatizaciones de diversas teorías físicas, véase M. Bunge, Foundations o/ Physics (Nueva York, Springer-Verlag, 1967). 18. B. Bolzano, Paradoxes of the Infinite, trad. D. A. Steele (Londres, Routledge & Kegan Paul, 1960), p. 128.

243

práctica tan grande, y es tan inspiradora, que merece sét examinada más íntimamente. Consideremos el circuito eléctrico más simple, a saber un circuito de corriente directa A, y su análogo hidráu­ lico B. Cada sistema consiste de dos partes distintas: un generador (batería o bomba, según pueda ser el caso) y un elemento conductor (alambre o tubo). El circuito eléctrico tiene un tercer componente; el campo que lo rodea, que deliberadamente descartaremos. En cada caso, el sistema puede ser dibujado como un cierto conjunto de puntos sobre el que se definen ciertas funciones. Estas funciones representan las propiedades características del sistema: la diferencia de potencial (presión) e a lo largo de las terminales (finales del tubo), la intensidad de co­ rriente (velocidad de flujo) i en el alambre (tubo), y la resistencia (fricción) de R. Estas tres funciones se rela­ cionan por el enunciado legal: e = Ri. Introduzcamos ahora un tercer sistema, esta vez uno puramente conceptual, que capture la estructura común a los dos sistemas concretos A y B. El sistema formal F es un sistema o estructura relacional, a saber el cuádruple ordenado: F = < G, e} i, R > , donde G es un conjunto de grafos dirigidos con dos vértices, y e, i, R son funcio­ nes reales valoradas sobre G. Podemos a continuación fin­ gir que olvidamos cómo F fue construido y considerarlo como una idea platónica: partimos de la estructura for­ mal F y «descendemos» a las cosas concretas. Esto nos permite considerar A y B como justo dos realizaciones (entre infinitamente muchas) de los modelos físicos del sistema formal (pero no abstracto) F. Más aún, podemos decir que todos los modelos concretos tales de F son análogos formalmente el uno con el otro, en un sentido fuerte y con respecto a F; por tanto, son todos isomórficos. Finalmente podemos generalizar este procedimiento a cualquier sistema. Lo que precede sugiere la definición siguiente de isomorfismo de sistema en términos modelo-teoréticos: Dos

244

sistemas (concretos o conceptuales) A y B son tsotnórjicos con respecto a un tercer sistema, el sistema relacional F, sólo en el caso en que A y B son modelos de F. Según esta definición, para reconocer si dos sistemas son análogos en un sentido fuerte, debemos primero producir sus teo­ rías, aunque sólo sea de manera esquemática. Consiguien­ temente, el isomorfismo en cuestión es relativo a las teorías empleadas al construir el sistema relacional F. Así en el anterior ejemplo, si se adopta la teoría de Maxwell antes que la tería fenomenológica de las redes eléctricas, el isomorfismo se fragmenta completamente y una ana­ logía considerablemente más débil queda. En resumen, nuestros juicios de analogía son dependientes de la teoría.

8.

O

b s e r v a c io n e s

concluyentes

Hemos desarrollado un marco elemental y comprehen­ sivo para elucidar las relaciones de analogía, simulación y representación. Estas relaciones han sido analizadas, ejem­ plificadas e interrelacionadas con la ayuda de unos cuantos apuntes de la teoría de conjuntos y la teoría de modelos. No obstante, ninguna teoría propia se ha presentado. Es más, cabe dudar de si es posible una teoría no trivial de la analogía (en cuanto distinta de la simulación y de la representación), dada la debilidad de esta relación. Asi­ mismo los argumentos de analogía, aunque individual­ mente analizables, no parecen susceptibles de sistematiza­ ción teorética, y ello por dos razones. Primero, porque todos son inválidos, de suerte que no caben standards de validez formal; segundo, porque su fecundidad depen­ de de la naturaleza del caso. En resumen, ninguna ló­ gica de la analogía parece posible. D e alguna manera, no obstante, el marco de referencia que precede puede ser de alguna utilidad, tanto como punto de lanzamiento para análisis más profundos o detallados como para evitar algún sin-sentido.

245

Entre los errores notorios que pueden fácilmente evitarse adoptando nuestro marco de referencia, pueden mencionarse los siguientes: a) el de entender mal o con­ fundir la analogía con la relación mucho más fuerte (transitiva) de equivalencia; b) hablar de isomorfismo (o una analogía formal perfecta) cuando una relación mucho más débil de símilarídad (usualmente analogía simple) está implicada; c ) creer que un modelo o análogo concep­ tual (en particular un modelo teorético) para ser verdad, debe ser una imagen espejo (correspondencia biyectiva) de su referente; d) creer que los modelos pictóricos o visualizables son esenciales a la ciencia teorética incluso cuando los referentes son imperceptibles, como sucede con electrones y naciones. El presente estudio no es sino una exploración preli­ minar de tres conceptos de interés para científicos, ló­ gicos aplicados, filósofos de la ciencia y de la tecnología, metafísicos y semánticos. Resta por hacer la mayoría del trabajo sobre este problema. Es un placer agradecer a mi estudiante Charles Castonguay sus estimulantes críticas a un manuscrito de este trabajo.

246

TEORfA Y EXPERIENCIA

Publicado en Démonstration, vérification, justification: Entretiens de l'Im titu t International de Philosopbie (Lovaina, Neuwelaerts, 1968). (Trad. cast. de José Luis García Molina.)

1.

I n t r o d u c c ió n

Toda teoría científica de alto nivel se halla sometida a cuatro baterías de pruebas: empíricas, interteóricas, metateóricas y filosóficas. Es cierto que sólo la necesidad de las primeras se admite corrientemente y que ni siquiera la naturaleza de esas pruebas ha sido bien esclarecida: en efecto, se las presenta de ordinario como una simple con­ frontación de las previsiones teóricas con los datos empí­ ricos, sin comprender que éstos, a su vez, dependen de otras teorías. En cuanto a las pruebas interteóricas, con­ sisten en el examen de la compatibilidad de la teoría en juego con el resto del saber científico a fin de asegurar su coherencia global. Que esta coherencia externa sea tan importante como la coherencia interna y el apoyo de la experiencia nueva, es cosa bien sabida por los físicos, quienes utilizan diversos «principios de correspondencia». Sin embargo, apenas figura en los tratamientos de la ve­ rificación, habitualmcrtte considerada como cuestión pu­ ramente empírica. El tercer examen, el de naturaleza metateóríca, hace referencia a diversos caracteres forma­ les, tales como la ausencia de contradicción, y semánticos, tales como la posibilidad de una interpretación en térmi­ nos empíricos (habitualmente con la ayuda de otras teorías). Finalmente el prurito de respetabilidad filosófica no es menor: en particular habrá que sospechar de toda teoría que no esté de acuerdo con la metafísica domi­ nante en los círculos científicos: por ejemplo, habrá que rechazar una psicología que no deje lugar a los procesos

249

orgánicos. Consideremos todo esto más de cerca dejando de lado detalles y explicaciones, tratados en otra parte.1

2. Los ANÁLISIS NO-EM PÍRICOS Mucho antes de elaborar el plan de una contrastacíón empírica, hay que preguntarse si la teoría es «razonable» y «verosímil»: si está bien construida, si no contradice todo lo que se cree saber (coherencia externa) y si no postula entidades metafísicas indeseables tales como el élan vital. Así, una teoría de los neutrones que postule de éstos que son a la vez puntuales y extensos, deberá ser rechazada por su incoherencia; si postula que los neu­ trones poseen la facultad de la libre decisión, habrá que rechazarla como incompatible con la psicología; y si su­ pone que los neutrones no tienen existencia autónoma sino que son abreviaturas prácticas de ciertos datos ex­ perimentales, la teoría deberá descartarse por incompa­ tibilidad con la filosofía realista subyacente a la investiga­ ción científica (aunque los mismos investigadores escapen en ocasiones a ella).12 ¿Para qué esos exámenes no-empíricos antes incluso de la investigación empírica? En primer lugar, por el prurito de claridad y sistema: queremos tener un edífido bien ordenado (un sistema hipotético-deductivo), más bien que un montón caótico de fórmulas pues queremos comprender y explotar la lógica y la matemática. En se­ gundo lugar, por el prurito de coherencia global, la cual multiplica el número y la variedad de apoyos de toda dase. Así el psicólogo que estudia la memoria como un proceso orgánico otorga una confianza a la biología mo­ lecular, la cual se apoya, a su vez, en la química, descan­ 1. M, Bunge, La investigación científica (Barcelona, Ariel, 1969). 2. M. Bunge, ed.» Quantum Tkeory and Reality (Nueva York, Springer, 1967),

250

sando ésta en la física, que hace uso de la matemática y englobando ésta la lógica. Introdúzcase la contradicción en cualquier punto de esta cadena y tendremos la frag­ mentación así como la falta de mutuo apoyo y profun­ didad. Ese mismo deseo de coherencia global nos empuja a buscar la compatibilidad con nuestra filosofía, así co­ mo a reformar la filosofía a fin de ponerla de acuerdo con la ciencia. Ciertamente, no siempre se hacen tales análisis de manera explícita, detallada y consistente. Con todo, nin­ guna teoría se pasa sin ellos y ninguna debería pasarse por cuanto indican si vale la pena llevar a cabo las contrastaciones empíricas y porque (particularmente los aná­ lisis interteóricos) pueden incluso sugerir contrastaciones empíricas. Si no siempre se los menciona es por pudor filosófico: porque la filosofía declarada de los sabios es el empirismo, aunque la traicionan desde que empiezan a construir y aplicar las teorías a la planificación de las experiencias, pues toda teoría es un conjunto infinito (y ordenado) de proposiciones que rebasa la experiencia.3

3. La

p r e p a r a c ió n

de

la

c o n t r a s t a c ió n

e m p ír ic a

Creemos saber cómo someter una teoría científica a la experiencia: desgajamos algunas consecuencias de las hipótesis básicas y planificamos y llevamos a cabo obser­ vaciones pertinentes a esos teoremas. Pero esto es de­ masiado simple para ser verdadero. La deducción de las consecuencias verificables comporta siempre la adición de hipótesis suplementarias que van más allá de la teoría en cuestión, y por consiguiente la ponen en peligro al tiem­ po que la salvan del aislamiento en relación con la expe­ riencia. Esas suposiciones se relacionan en parte con las particularidades del objeto concreto al que se refiere la teoría: diseñan un modelo teorético del mismo compa­ tible con la teoría, pero que no forma parte de los pos-

251

tulados generales de la teoría.3 Así, en la teoría electro­ magnética, para calcular la forma y potencia de las ondas emitidas por un poste emisor, habrá que comenzar ima­ ginando un modelo teorético de las antenas. A esta sim­ plificación podrán agregarse simplificaciones en las solu­ ciones e incluso en las ecuaciones básicas. En resumen, aquello que se elige para someter a la contrastación empírica, no es la teoría toda, entera y pura, sino un reducido conjunto de teoremas obtenidos con la ayuda de la teoría, enriquecida por algunas hipótesis su­ plementarias y empobrecida por algunas simplificaciones. El conjunto de fórmulas que así se obtiene no sólo es finito sino, en parte también, ajeno a la teoría ya que com­ porta hipótesis suplementarias. Denominando Ti a la teo­ ría en cuestión y Si al conjunto de hipótesis y simplifica­ ciones introducidas durante el trabajo de deducción se tiene: T i, Si t— T V D el resultado de T \ se sacarán con­ clusiones sobre el valor de T i. ó i puede arruinar a T i, pero sin Si, no hay T'i y por consiguiente tampoco contrastaciones empíricas. Henos aquí ante T \, lo que incorrectamente se de­ nominan consecuencias observables de T. ¿Están en con­ diciones de afrontar la experiencia? Aún no: T \ conten­ drá conceptos sin contrapartida empírica, o bien concep­ tos que al tiempo de ser empíricos, como «sed», no son directamente controlables. Será menester, pues, «tradu­ cir» T'i a un lenguaje mitad empírico, mitad teórico. Por ejemplo, habrá que «traducir» las temperaturas a longi­ tudes y la sed a cantidad de agua bebida. Esta traducción o interpretación de los conceptos y de las hipótesis teo­ réticas es asunto científico y no sólo lingüístico. Se trata en efecto de introducir nuevas hipótesis que liguen al­ gunos de los inobservables de T'i con observables obje­ tivos. Ejemplos: las ecuaciones que ligan la diferencia de 3. M. Bunge, Vouniations of Pbysics (Nueva York, Sprínger, 1967) y La investigación científica.

252

potencial con la temperatura de un termopar, y la me­ moria con el resultado de ciertas tareas aprendidas. Esas hipótesis objetificantes o índices no se ponen en cuestión cuando la contrastación de T i. Podrán ser introducidos con la ayuda de T i, pero van más allá de Ti. D e ordinario, esos índices í i se conciben con la ayuda de T i y del cuerpo A del conocimiento antecedente. N i aun con la adición de las hipótesis suplementa­ rias Si y de los puentes h entre la teoría y la experien­ cia, está T i en condiciones de afrontar la experiencia. Será menester agregar aún informaciones empíricas («da­ tos») concernientes al objeto de la teoría. N o serán datos brutos enteramente ajenos a Ti: resultarán de manipu­ laciones teóricas de un conjunto de datos empíricos; por ejemplo, la expresión de las observaciones astrométricas en coordenadas copernicanas. Llamemos Ei, a los datos propiamente dichos y E* i a su «traducción» al lenguaje de la teoría Ti.. Esos datos refinados, en conjunción con T'i e h , nos permiten deducir un conjunto T* de pro­ posiciones particulares, pertenecientes a un lenguaje mi­ tad teórico, mitad empírico, que podrán ser sometidas al control de la experiencia. En resumen, el procedimiento ha sido el siguiente:

Deducción de teoremas Traducción de los datos Construcción de los índices Consecuencias verificables

Ti, Si H T i A , Ti, Ei !-E* i Ay Ti h~ II TE, E*i> /it-T *

Sólo ahora está nuestra teoría en condiciones de su­ frir las contrastaciones con la experiencia.

4. La

p r o d u c c ió n

de

nuevos datos

Queremos planificar, realizar e interpretar experien­ cias (observaciones, medidas, experimentos) que traten de poner a prueba T*. N o se trata de observar cualquier

253

cosa, sino de producir un conjunto E* de informaciones comparable a T*, es decir, expresado en el lenguaje de T. Esto impone un trabajo teórico previo de la misma mag­ nitud que el que resultó en T*. Comenzaremos por elaborar el plan de las contrastadones, por ejemplo, experiencias de difusión de «par­ tículas» cargadas por un blanco de composición y es­ tructura conocidas. Una cualquiera de esas experiencias se fundará en T i así como en el saber antecedente A, en particular conocimientos relativos a los modos de ace­ leración y detección de proyectiles (por ejemplo, teorías de dclotrón y del contador de destello). Se tendrá, casi como en el caso precedente, un cuerpo T2 de conoci­ mientos teoréticos (un montón de fragmentos de teorías diversas), comprendida una parte de T i. Se tendrá tam­ bién un conjunto S% de hipótesis específicas relativas al plan experimental, lo que nos permitirá desgajar conse­ cuencias T '2 sobre el funcionamiento del equipo. Se ten­ drá, a continuación, un conjunto I 2 de hipótesis-puente que podrá incluir a i i . Sólo ahora podremos iniciar las manipulaciones en el laboratorio. Una vez ejecutadas e interpretadas las experiencias, se dispondrá de un conjunto E2 de datos que habrá que leer en términos de las teorías T i y T 2 . Llamemos E* al resultado final (aunque no definitivo). En resumen, tenemos el siguiente proceso: T2, Sa t - T'2 Ay T 2 I- Í2 E2, h , T i, T'2 t - E * Es este conjunto E* de datos refinados el que habrá que confrontar con T*.

254

5.

E l e n c u e n t r o d e l a t e o r ía y l a e x p e r ie n c ia

Nuestra tarea ahora es poner E* frente a frente con T* a fin de evaluar T i. Se recordará que T* es una mues­ tra finita, deformada e interpretada de T i y que, de la misma manera, E* es una muestra, elaborada con la ayu­ da de conocimientos teóricos, de todo el conjunto de ex­ periencias posibles. N o deberemos sorprendernos si la determinación del valor de verdad de T i no es asunto fácil. Evidentemente, sólo hay dos casos posibles: o bien E* es pertinente para T* o no lo es. Supongamos que lo sea, porque en caso distinto será necesario replanificar la prueba. Si E* es pertinente para T* o entonces los dos concuerdan razonablemente b ie n 4 o no armonizan. En el primer caso, habrá que concluir que E* confirma T i en el dominio explorado, sin en todo caso verificarla definitivamente. Habrá que esperar a que un nuevo con­ junto de datos,' sea en el mismo dominio, sea en otro distinto, pueda refutar T i. Pero si E* está en desacuerdo con T*, es decir si E* contiene un subconjunto de casos negativos, habrá dos posibilidades, o rechazar T i, o rechazar £ '* . La de­ cisión dependerá del apoyo que Ti y E'* puedan encon­ trar en otra parte, es decir, más allá de los nuevos datos. Si las contrastaciones empíricas negativas E/ no son fir­ mes — sea por debilidad de la teoría auxiliar T 2, sea por la probable presencia de errores sistemáticos en la expe­ riencia— entonces se deberá replanificar o por lo menos repetir las operaciones empíricas. En todo caso, se de­ berá suspender el juicio sobre Ti. Sólo si las pruebas negativas E'* son firmemente sos­ tenidas por el contexto teorético de T 2 , deberá recha­ zarse T*. Pero la negación de T* no entraña la negación 4. C£. La investigación científica.

255

de Ti, ya que T* se ha obtenido con la ayuda de Ti y de otras varias premisas, en particular Si, I t y B i. Se tra­ ta, pues, de encontrar a los culpables. Esta investigación es difícil pero posible, a pesar de Duhem. Dos casos puedén presentarse: o bien T i es presti­ giosa, 0 bien no ha prestado aún buenos servicios. En el primer caso, se sospechará ya de las suposiciones Si que constituyen el modelo de la cosa que se estudia, ya de las leyes-puente Ji, ya de los datos E i. Se los exa­ minará críticamente sometiéndolos en ocasiones a contrastaciones empíricas independientes. Se modificarán lue­ go o reemplazarán los componentes que no marchen, has­ ta obtener un acuerdo razonable, si bien temporal, entre una nueva T* compatible con Ti y E*. Si el caso fra­ casa se declarará falsa T i en el dominio que acaba de ser explorado, aunque pueda ser aproximadamente verdadera en otros dominios.56 Si por el contrario, T i es nueva, entonces todas las premisas que implican T* deberán ser criticadas paso a paso. Las premisas menos seguras son habitualmente los axiomas de T i y las hipótesis suplementarias Si, lo que no excluye las presuposiciones genéricas de T i, tal como la teoría del tiempo que presupone T i. Para mejor reco­ nocer las partes responsables en el fracaso será conve­ niente axiomatizar la teoría.5 Esta axiomatización, al mos­ trar las presuposiciones genéricas y las hipótesis específi­ cas de Ti, facilitará el registro e impedirá la huida de los culpables. El primer paso en esta persecución será tratar de ais­ lar las premisas más sospechosas, que serán las más espe­ cíficas, al separar los miembros de T* que dependen de ella, de aquellos que son independientes, y al poner en relación con los «datos» empíricos las consecuencias de 5. Para una teoría axiomática de la verdad parcial, cf. M. Bunge, The M ytb of Simplicity (Engíewood Cliffs, N. J., Prentice Hall, 1963). 6. Cf. M. Bunge, «Physical Axiomática», Review of Modertt Pbysíes, abril 1967.

256

las hipótesis de que se sospecha. Si se triunfa en la cap­ tura de los culpables, el segundo paso consistirá en reemplazarlos o en dejarlos caer, produciendo una nueva teoría que no difiera de la anterior. Se procederá de esta manera hasta obtener un acuerdo razonable con E*. D e fracasar el caso, se abandonará completamente T i, salvando quizás algunos fragmentos; pero se podrá espe­ rar incluso a un cambio de perspectiva. El procedimiento de verificación — más bien de con­ testación — es pues, gradual. La confirmación o la refu­ tación de una teoría no son tan directas como en el caso de una hipótesis aislada. Se acumularán pruebas favora­ bles o /y desfavorables a la teoría, sin que lleguen a ser definitivas, tanto para la aceptación como para el rechazo de la teoría en su conjunto: ninguna teoría que haya triunfado en los exámenes no empíricos es enteramente falsa, y ninguna que haya triunfado en todos los exá­ menes puede considerarse verdadera. Eso debería bastar, pues la ciencia no tiene necesidad de certidumbre defi­ nitiva, sino solamente de corregíbilidad.7

6.

C o n s e c u e n c ia s

f il o s ó f ic a s

En la medida en que la metodología recién esbozada esté conforme con la práctica de la investigación cientí­ fica, las diversas filosofías de la ciencia son inadecua­ das. El empirismo, por desconocer el papel de las teorías en la producción de «datos» empíricos al tiempo que por exagerar el peso de la confirmación o apoyo induc­ tivo a expensas de los apoyos no-empíricos. Tampoco el refutacionismo es adecuado, por suponer también que la única contrastadón de las teorías es de naturaleza em­ pírica, por desconocer el papel de la confirmación, y por suponer la posibilidad de la refutación concluyente, lo 7. Cf. M. Bunge, Intuición y ciencia (Buenos Aíres, Eudeba).

257 17,

— BU NG E

que vale para hipótesis aisladas, pero no para sistemas hipotético-deductivos que hayan triunfado en los exá­ menes no-empíricos. En fin, el convencionalismo también fracasa, porque admite arreglos ad libitum, no satisfa­ ciendo ni la condición de control empírico ni las condi­ ciones de coherencia. Nos hace falta pues una nueva filosofía de las cien­ cias, aliada con una metodología realista de la investi­ gación y reconociendo la solidaridad del saber en su totalidad.®

8. fica.

258

Para un tratamiento sistemático, véase La investigación cientí­

PREDICCIÓN Y PLANEAMIENTO

Discurso inaugural del curso sobre «Planeamiento político», Cornell University, verano de 1970. (Trad. cast. de José Luis García Mo­ lina.) Para detalles sobre la predicción científica, la previsión tecnoló­ gica, la hipótesis científica, el modelo teorético y los datos científicos, véase del autor La investigación científica.

A todos nos incumbe cada vez más el planeamiento del futuro, pero pocos nos detenemos a analizar algunos de los conceptos clave implicados, tales como los de pla­ neamiento y previsión. Resultado de ello han sido cier­ tas confusiones y fraudes perjudiciales. Una confusión tal es la que interpreta la ‘previsión tecnológica* (previsio­ nes hechas con los recursos de alguna rama de la tecno­ logía) como profetizando el desarrollo tecnológico. Y uno de tales fraudes es la concepción de la futurología como una disciplina independiente con técnicas propias de pre­ dicción. Es propósito del presente trabajo proyectar al­ guna luz sobre estas cuestiones conceptuales informan­ do brevemente acerca de lo que la filosofía de la ciencia y la tecnología tienen que decir en torno a ellas.

1.

D

ia g r a m a d e p r o c e s o d e u n c u r s o p l a n e a d o de

a c c ió n

La acción racional e informada descansa en planes o programas. Éstos a su vez se inspiran en políticas gene­ rales y se basan en previsiones bien fundadas. Y cada uno de los cuatro aspectos — previsión, política, plan y acción— ■ no son sino componentes de un proceso com­ plejo. La naturaleza de un proceso tal dependerá, desde luego, de la meta que ha sido propuesta y de los recur­ sos utilizados para lograrla. Así es como la recogida de datos relativos a Venus por medio de una expedición movilizará recursos y habilidades un tanto diferentes a

261

las que requeriría el robo o saqueo afortunado de un banco. N o obstante, parece existir una pauta general que encaja en todo proceso de acción planeada, desde cam­ pañas de alfabetización hasta campañas electorales, pa­ sando por reformas agrarias y saneamientos de ciudades. Una forma común tal muy bien puede patentizarse me­ diante el estudio" de un determinado número de diagragramas de ejemplos típicos de acción planeada que difieran a la vez en su meta y en los medios. Echemos una ojeada a uno de tales ejemplos, a saber, una operación de erradicación del hambre (fig. 1). Se invita al lector a que sustituya el caso por otros de su elección, tales como reordenación urbana, una campaña anti-polucíón, una huelga, o alguna otra operación a gran escala que exija un cuerpo de conocimiento experto. Aceptaremos la atrevida — quizás errónea— suposi­ ción de que la pauta general es la misma que se muestra en la figura 2. Aún sí no fuera exactamente la pauta ac­ tual de un curso planeado de acción, nos servirá de mar­ co de referencia para discutir los conceptos que nos in­ teresan.

2.

A n á l is is

del

proceso al

:

del

c o n o c im ie n t o

b á s ic o

problem a

Notem os, en primer lugar, que la acción racional e informada presupone algún conocimiento básico: si ig­ norásemos todo lo relativo al sistema que tenemos que cambiar ni siquiera lograríamos su identificación. Y si conociéramos muy poco de él, es probable que no triun­ fáramos en la solución de nuestro problema. El cuerpo de conocimiento relativo al sistema que nos interesa es a la vez empírico y conceptual, en ocasiones, incluso teo­ rético. Consiste esencialmente de tres partes: una descrip­ ción de algunos de los aspectos del sistema, un modelo

262

Meta general: pre-' servación de la vida. Tipo de medio: alimentación.

general

2. P olítica

Descripción de! sis­ tema: ciudad ham­ brienta. Modelo: población uniformemente ham­ brienta. Previsión: pobla­ ción que muere ex­ ponencialmente según una tasa constante.

básico

1. Conocím ikñto

3. P roblema PRÁCTICO

P por ciento de población salvada al coste C.

10. E valuación

Salvar la pobla­ ción hambrienta.



Erradicación del hambre. Propaganda, etc.

9. Resultado FINAL

Movilizar recursos para alimentar la po!bl ación.

global

4. D ecisión

Transporte, actual y distribución del alimento.

8. Acción

Localización y esti­ mación de material y recursos humanos.

5. I nvestigación

Cambios de per­ sonal. Casos más urgen­ tes. Interferencias polí­ ticas.

7. D ecisiones PIARIAS

Elección de bases y rutas. Listas de transpor­ te. Cambios, etc.

6. P laneamiento

F ig u r a 1. — O peración d e erradicación d el ham bre.

2. P olítica

M e ta g e n e ra l: c a m ­ b ió o p e rm a n e n c ia deseada. T ip o d e m e d io s o r e c u rs o s . E s tim a c ió n d e la s d iv e rg e n c ia s d e l r e s u l­ ta d o fin a l r e s p e c to d e la m e ta u ob je-, tiv o .

E s ta d o d e lo s a s u n ­ to s m á s o m e n o s c e r­ c a n o s a la m e ta p r e ­ s e n te .

TIÑALES

9. R esultados

E le c c ió n d e la p r e ­ v isió n a se r re lo rz a cía o c o n tra ria d a y d e lo s m e d io s a u tiliz a r.

E f e c tu a r o p r e v e ­ n i r u n c ie r to a c o n te ­ c im ie n to .

10. E valuación

GLOBAL

GENERAL

4. D ecisión

práctico

E je c u c ió n 'd e d e c isio n e s m ás f r e n ta m ie n to a c o n te c im ie n to s p re v is to s .

8. A cción las en­ con im ­

A d q u is ic ió n de n u e v o s c o n o c im ie n ­ to s acerca d e l sis­ te m a o m e d io s.

5. Investigación

D is e ñ a r e ta p a s u n i­ ta ria s d e a c c ió n s e ­ g ú n el p la n .

diarias

7 D ecisiones

D is e ñ o d e c o m p le ­ jo s h o m b res-c o sas q u e m e jo r p u e d e n re s o l­ v e r el p ro b le m a p rá c ­ tico.

6, P laneamiento

Diagrama de bloque de la acción racional e informada.

3. P roblema

F igura 2 , —

D e s c rip c ió n d e l sis­ te m a. M o d e lo del sis­ te m a. P re v is io n e s .

básico

.1. C onocimiento

conceptual (preferiblemente teorético) del mismo, y. un haz de previsiones formuladas sobre la base conjunta del modelo y la descripción. Encontramos, pues, la previsión casi en el punto de partida de un curso planeado de acción. La previsión puede hacerse sobre la base de alguna correlación empírica, o puede consistir en una extrapo­ lación de una línea tendencial o, idealmente, en la solu­ ción de un sistema de ecuaciones de evolución. Sin predicción, ninguna oportunidad o posibilidad, entonces, de plantear siquiera el problema práctico que disparará la acción. El recuadro que figura debajo del primero en la figu­ ra 2 simboliza la política general o «filosofía» adoptada. Una política puede ser considerada como un objetivo (o conjunto de objetivos) junto con una clase de medios que parezcan justificados y prometedores para el logro del objetivo. La línea quebrada que va del conocimiento básico a la política general quiere sugerir que toda polí­ tica racional y realista debe algo a un conocimiento del sistema en cuestión (v. g., una comunidad) y sus circuns­ tancias. En resumen, las políticas razonables se proyectan con la ayuda de ítems de conocimiento, Pero no todo consiste en conocimiento: éste nos ayuda a elegir los objetivos y a localizar los medios pero no le es dado educir ni los desiderata ni los recursos. En otras palabras, el conocimiento no determina plenamente las políticas. Por consiguiente, tan equivocado es alabar el conocimiento por sus consecuencias prácticas deseables, cuanto despreciarlo por sus efectos perjudiciales. A di­ ferencia de las políticas, el conocimiento es neutral: puede usarse para bien o para mal. Quienes dan por buenas las consecuencias prácticas del uso del conoci­ miento científico (v. g., la guerra moderna, la polución o la desaparición de la individualidad y la intimidad) deberían dirigir su atención a las políticas implicadas más que retornar a la sinrazón y al salvajismo. Una ima­ gen más clara del cometido de las políticas y de cómo se 265

diseñan y adoptan podría haber evitado la actual descon­ fianza que hacia la ciencia y la tecnología sienten tantos jóvenes. Pero fijémonos en nuestro diagrama de acción. El conocimiento básico, junto con una política gene­ ral, da lugar a algunos problemas prácticos, esto es, una tarea cuyo objeto es evitar o producir algunos aconteci­ mientos en la naturaleza o la sociedad. Sin un cierto conocimiento de la situación no captaríamos ningún pro­ blema, ni cognoscitivo ni práctico. Y sin una cierta po­ lítica general no se presentaría ningún problema práctico: nos quedaríamos satisfechos contemplando cómo nuestros desperdicios diezman especies enteras, y así sucesiva­ mente. Cierto que a menudo no es menester ni un gran cuerpo de conocimiento ni una política claramente for­ mulada para plantear un problema práctico e, incluso, para resolverlo satisfactoriamente, pero la cuestión es que ambos ingredientes deben combinarse, aun cuando en pequeñas dosis, si un genuino y soluble problema práctico ha de generarse. 3.

A n á l is is u l t e r i o r : d e l a A LA EVALUACIÓN

d e c is ió n

E l bloque siguiente de la figura 2 simboliza la deci­ sión global concerniente al curso de la acción como un todo. Una decisión puede ser considerada como una elec­ ción de una previsión — sea para fortalecerla o para de­ bilitarla— ■ junto con una elección del tipo de medios que se espera sean efectivos para ese propósito. Una de­ cisión racional ex informada puede entonces construirse como un par: proyección-medios. Elimínese uno cual­ quiera de esos componentes y no quedará ninguna de­ cisión racional e informada. Maximícese la exactitud de las predicciones y la definición de los medios y tendremos una toma de decisiones máximamente racional. Una vez hemos tomado una decisión tratamos de ins­

266

trumentarla. Pero con mayor frecuencia de lo deseable la información disponible acerca de los sistemas o recur­ sos es insuficiente y es posible que tengamos entonces que complementarla: es aquí donde se instaura la fase de (nueva) investigación. Así en materia de urbanismo un planificador puede tener que encargar que se investi­ gue algo sobre las propiedades de nuevos materiales o los efectos psicológicos de ciertos tipos de viviendas. Una pieza tal de investigación, sí detallada, puede concluir en un nuevo conjunto de previsiones relevantes para el planificador. N i que decir tiene que algunas de las nue­ vas proyecciones pueden no ser compatibles con las pre­ visiones originales contenidas en el bloque 1. En ese caso un examen crítico de los dos conjuntos de previsio­ nes y de los medios empleados para obtenerlas tendrá que llevarse a cabo. Supongamos que sea posible hacer una elección concreta, aun cuando provisional, entre los conjuntos de proposiciones: en caso distinto, el proceso entero quedará detenido justo en ese punto. A continuación, sigue el propio planeamiento, Un plan o programa es un modelo operadonal del compuesto hombres-cosas que mejor pueden llevar a efecto la pre­ visión de los acontecimientos desde el comienzo. ( ‘Ope­ ración al’ pues se refiere a operaciones.) Cuanto más ínti­ mamente un plan adhiera a una previsión fundada y a una política razonable, tanto más racional será: cuanto más se aleje de ellos tanto menos realista tenderá a ser. Aun en el supuesto de que el plan fracasara aprenderíamos algo de un resultado así, a saber, que algo estaba equi­ vocado, sea en las previsiones, sea en la política, o en la instrumentación del plan. Y si conocemos qué es lo que había equivocado podemos tener la esperanza de corregirlo en el futuro. Tener un plan es necesario si bien insuficiente para asegurar la acción racional e informada. Un plan es ne­ cesariamente esquemático: ni puede cubrir todos los de­ talles ni debe tratar de hacerlo. N o puede hacer tal cosa

267

pues siempre hay imprevisibles, tantos que cualquier presupuesto debe incluir contingencias. Y un plan no debe ser excesivamente detallado porque de lo contrario carecería de la flexibilidad necesaria para arrostrar los imprevisibles. En cualquier caso, un plan no puede ser instrumentado (y corregido, eventualmente, sobre la mar­ cha) salvo que se tomen unas cuantas decisiones más durante el proceso de la acción. Las decisiones día a día que simboliza el bloque 7, de la figura 2, controlan, hasta el resultado final, las actividades cotidianas según acaecen. Si las previsiones son exactas, el plan es realista, y cada una de las decisiones apropiada, entonces la fase de acción (bloque 8) deberá ser uniforme en comparación con una pobremente programada, en cuyo caso es dable esperar un resultado final bastante cercano al objetivo presente. No obstante, el resultado final (bloque 9) rara vez es idéntico al objetivo inicial: nunca se dispone del suficiente conocimiento para prever todas las cosas, nunca se posee la suficiente sabiduría para tomar decisiones perfectas, nunca la suficiente habilidad o los recursos para instru­ mentarlas al punto de lograr la plena realización del ob­ jetivo. Tanto si se acercan como sí se alejan del plan, los resultados deben estar sujetos a evaluación (bloque últi­ mo). Sí las divergencias o los errores son superiores a la tolerancia previamente acordada, habrá que recurrir a un feedback negativo. Así lo que tenía que ser una victoria de guerra puede tener que replanearse como una retirada ordenada, una campaña presidencial como vice-presidencial, y así sucesivamente. En resumen, debe haber feed­ back a lo largo de toda la línea, incluso hasta en los mismos problemas (bloque 3) que provocaron el proceso total. Esto es lo que las líneas quebradas hacia atrás representan en nuestro diagrama. Y por esto es por lo que los planes han de ser elásticos. Volvamos ahora a examinar la previsión,

268

4.

L as v a r ie d a d e s d e la p r e v is ió n

En el caso de la operación de erradicación del ham­ bre, la clase de conocimiento implicado tanto en el punto de partida (conocimiento básico) cuanto en la investiga­ ción adicional (fase 5) consistía en una mezcla de cono­ cimiento ordinario o común y de conocimiento experto relativo a la comunidad, sus condiciones de desnutrición, recursos alimenticios, posibilidades de transporte, etc. Las previsiones eran consiguientemente mitad ordi­ narias, mitad expertas, en cualquier caso por debajo de los standards de la predicción científica. D e otra parte, el alunizaje triunfal de los primeros hombres en la luna exigió un tipo diferente de conocimiento, a saber un tejido de piezas de diversos campos de la ciencia pura y la tecnología. En particular, implicó predicciones cientí­ ficas (v. g., previsiones astronómicas) y previsiones tec­ nológicas (v. g., las relativas al orden y sincronización de las operaciones de los astronautas), por no hablar de las prognosis de los expertos referentes a la salud física de la tripulación o a la sincronización política de la ope­ ración. El asunto radica en que diferentes tipos de proble­ mas y decisión requieren diferentes tipos de proyección, tanto en la etapa inicial de la investigación cuanto en la etapa de investigación. Si lo que deseamos es sólo des­ hacernos del arpón, entonces la mera adivinanza futura, con o sin bola de cristal, puede cumplir el papel. Si lo que deseamos es impresionar o embaucar, entonces lo in­ dicado es un vislumbre de gran profetízación, con o sin técnica de previsión alegadamente independiente de las ciencias especiales. Si lo que necesitamos es una predic­ ción honesta pero sólo poseemos un capital de conoci­ miento especial pero no científico, entonces debemos in­ tentar prognosis expertas. Si tenemos a nuestra disposi­ ción hipótesis y datos, y nuestra meta es hacer una con269

tribudón al conocimiento, entonces deberíamos emitir predicciones dentíficas incluso al riesgo de verlas refu­ tadas. Y si teniendo un conocimiento básico similar a mano, al tiempo que facilidades para aumentarlo, y nues­ tro objetivo es actuar eficientemente, entonces debemos intentar previsiones tecnológicas y establecerlas en un curso de acción programada. Una variedad tal de vías de previsión sugiere echar una ojeada más íntima a fin de explicarlas mejor, una a una.

5,

La

p r e v is ió n

n o -c i e n t í f i c a

Podemos distinguir cuatro tipos de previsión no cien­ tífica: la conjetura descabellada o adivinanza, la profecía, la previsión de sentido común, y el pronóstico del experto. La adivinanza o el jugar al acierto o el error es un intento consciente pero no racional de conocer lo que está fuera del campo de visión, en particular aquello que el futuro, según la metáfora fatalista, nos tiene reservado. La adivinanza es aventurera, intuitiva, vaga, y carece de fundamento explícito, de modo que no cabe criticarla sino por sus resultados. Las decisiones y planes basados en la adivinanza se ven obligados a ser tan ne­ bulosos como la propia adivinación. Toda acción que se siga, si alguna, será la mayor parte de las veces ineficaz. La profecía o previsión oracular es la proyección a gran escala de conjeturas relativas al futuro, esto es, pro­ yecciones sin fundamento. Difiere de la mera adivinanza sólo en grado, no en tipo. Mientras que el juego de profetizar es mera adivinanza, profetizar acontecimientos sociales graves, tales como guerras o revoluciones, sin otra base que anhelos o temores ilusorios es profetizar, esto es, son conjeturas hechas al acaso sin sentido de la me­ dida. La forma lógica de una conjetura concerniente al

270

futuro — independientemente del alcance de la conje­ tura— es la de un enunciado incondicional de la forma

F ocurrirá sin indicación de las condiciones necesarias y suficientes para que F ocurra. El fracaso o el éxito de una conjetura — adivinanza tal nos enseña poco, si algo, ya que no hay prueba de contrastación alguna para la verdad de cual­ quier vínculo hipotetizado entre el acontecimiento F y sus condiciones o causas C. En resumen, no cabe aprender del resultado de las adivinanzas— salvo que no merecen nuestro esfuerzo en elaborarlas. Una conjetura educada u opinión informada acerca de algún acontecimiento futuro es cosa por entero diferente: descansa en algún acopio de conocimiento y tiene una forma condicional: Si C ocurre entonces F ocurrirá (o puede ocurrir). Éste no es sino un caso de una generalización empírica del tipo «Siempre que C ba ocurrido F le ha seguido». Consiguientemente, es posible aprender tanto del éxito como del fracaso de una conjetura educada: en el primer caso apoyará la generalización subyacente, en el último la socavará. Podemos distinguir dos tipos de conjetura educada: la ordinaria o previsión de sentido común y la prognosis del experto. Una previsión de sentido común es la que se emite sobre la base de algunas generalizaciones empí­ ricas incluidas en el conocimiento común: es decir, la que requiere conocimiento experto. Es intuitiva y vaga ciertamente pero menos que un impulso salvaje. Y es un enunciado condicional arraigado de suerte que se obten­ gan generalizaciones empíricas reconocibles claramente, y por tanto, controlables. Pocos de nosotros somos tan perceptivos y buenos aprendices como para ser expertos en aquellas predicciones de sentido común sobre la con­ ducta humana que resultan ser verdaderas la mayoría de las veces.

271

Una prognosis de un experto puede no ser más exacta que una predicción de sentido común pero se basa en un conocimiento especial encapsulado en generalizaciones empíricas y enunciados de tendencia. La predicción me­ teorológica del granjero experimentado por viejo, las proyecciones de ventas del gerente competente, y las prognosis médicas- de patología general caen todas en esta clase. Según los grados de pericia se darán en el experto prognosis de grado variable en cuanto a exac­ titud o verdad.

6.

P

r e d ic c ió n

c ie n t íf ic a

Una predicción científica es la que se realiza con me­ dios científicos: más precisamente, con ideas pertenecien­ tes a una o más ciencias. Es máximamente racional (mí­ nimamente intuitiva), puesto que es una conclusión de premisas explícitamente enunciadas. Estas premisas no son generalizaciones meramente empíricas como aquellas que constituyen el fundamento de las conjeturas educa­ das: las premisas de una predicción científica son gene­ ralizaciones fundamentadas y contrastables y fragmentos de información científica. Las primeras han sido ya co­ rroboradas hasta un cierto grado o están a punto de ser corroboradas a través del rendimiento de las mismas predicciones que ayudan a formular. Y los datos han sido recogidos — o mejor, educidos— con la ayuda de medios más o menos fiables, a la vez empíricos y conceptuales, que están abiertos al examen crítico. En otras palabras, una predicción científica es un enun­ ciado de forma condicional, como una conjetura educa­ das lo es, pero a diferencia de ésta es una consecuencia lógica clara de un haz de Ítems científicos, todos los cuales cabe validar, controlar o corregir. Más precisa­ mente, la lógica y la matemática aportan un mecanismo 272

para batir las predicciones científicas a partir de hipótesis y datos según se muestra en este esquema: Conjunto de hipótesis científicas (preferiblemente una teoría)

Conjunto de datos científicos

Conjunto de predicciones científicas Si las hipótesis que toman parte en el argumento per­ tenecen a un cuerpo de teoría (o sistema hipotético-deductivo) y han pasado en cierta medida por un contraste de la experiencia científica (observación, medida y expe­ rimento), entonces pueden ser llamadas leyes. En este caso una predicación científica se llama a menudo nomológica. En caso distinto, tentativa. (Claro es, las predic­ ciones nomológicas también son tentativas o falibles, pero menos que las formuladas sobre la base de hipótesis que no han sido puestas a prueba previamente: hay gra­ dos de tentatividad o falibilidad.) Una predicción científica tentativa sirve principal­ mente para someter las premisas (hipótesis y datos) a la contrastación empírica. Por tanto una predicción con éxito cuenta como evidencia confirmante, en tanto que una sin éxito cuenta como evidencia negativa. Si la ma­ yor parte de la evidencia recogida a través de la predic­ ción es favorable, hablamos de buen apoyo inductivo. Si la evidencia es, en cualquier sentido, negativa, conclui­ mos que al menos una de las premisas es falsa e inten­ tamos individualizarla, con objeto de mejorarla. SÍ las predicciones resultan ser verdaderas o falsas, la opera­ ción de extraer enunciados predictivos a partir de hipó­ tesis y datos es puramente deductiva, por tanto cabe minuciosamente computarla. En resumen, la predicción

273 18. ---- BTJNGE

es deductiva pero nos permite asignar pesos inductivos (positivos o negativos). Las hipótesis (o los enunciados legales) presentes entre las premisas de una predicción científica son espe­ cíficos más bien que axiomas de nivel superior, porque han de producir predicciones específicas ya que los hechos son específicos. Esto no acarrea el que las teorías gene­ rales sean inútiles en la elaboración de predicciones. Presupone que antes de poder usar una teoría general con propósitos predictivos debemos prepararla. Más pre­ cisamente, debemos construir un sistema modelo, un mo­ delo conceptual del sistema en cuestión, no justo un modelo cualquiera sino uno construido con conceptos en­ contrados en la teoría. Por ejemplo, si deseamos predecir las poblaciones futuras de dos especies biológicas, una de las cuales de­ vora a la otra, podemos usar las ecuaciones de Volterra, o más bien sus soluciones. O podemos escribir este mo­ delo directamente como un conjunto de instrucciones a un computador. Cualquiera que sea el método que eli­ jamos establecemos con ello un boceto idealizado, o modelo teorético de nuestro sistema. Este modelo da cuenta de algunos aspectos del sistema, tales como que consiste exactamente de dos poblaciones que interactúan de una manera precisa, pero descarta los restantes as­ pectos. Lo mismo vale para cualquier otra predicción: comporta uno u otro modelo teorético, que capta algo, nunca la totalidad de aspectos de la cosa, si bien cabe siempre mejorarlo. N i la cuantía de datos ni la cuantía de proceso de puros datos por el computador trabajará en ausencia de un modelo teorético. E l modelo puede ser determinista o estocástico, fenomenológico o mecanicista, crudo o sofisticado: no será nunca ni más ni menos que una representación aproximada, idealizada, en términos teoréticos, de los aspectos salientes del sis­ tema en cuestión. N o deberíamos sentirnos moralmente justificados al

274

utilizar una predicción científica tentativa con propósitos prácticos a menos que nos enfrentáramos con tener que elegir entre ella y la ciega adivinanza. D e otra parte, una predicción nomológica, esto es, la que se apoya en hi­ pótesis bien corroboradas dentro de alguna u otra teoría, puede cumplir una función distinta a la puramente cog­ noscitiva: puede, guiando la acción, trocarse en prescriptiva o normativa, Pero esto merece otra sección.

7.

La

p r e v is ió n

t e c n o l ó g ic a

El sexto y último tipo de proyección a ser conside­ rado aquí es la previsión tecnológica tal como se la en­ cuentra en la ingeniería, la química industrial, la farma­ cología o el management científico. N o hay diferencia lógica entre la previsión tecnológica y la predicción científica: en cualquiera de los casos el enunciado predictivo es una proposición condicional y una consecuen­ cia lógica de hipótesis y datos. Las diferencias son con­ ceptuales, metodológicas y prácticas. Diferencia conceptual: los modelos teoréticos em ­ pleados en la previsión tecnológica son, usualmente, más sencillos y superficiales que los presentes en la predicción científica. Hay, al menos, dos buenas razones para ello. Primero, en la tecnología se está más interesado en re­ sultados netos o globales que en mecanismos intervinientes, de modo que predominan las teorías de la caja negra sobre las teorías de mecanismos. (Esta regla tiene desde luego sus limitaciones: así en la educación y en la psi­ quiatría son necesarias teorías del aprendizaje que com­ porten conceptos no conductistas, tales como los de hábi­ to y motivación. En ocasiones las teorías de mecanismos deben utilizarse en la tecnología, pero la cuestión es que el tecnólogo tratará de avanzar sin utilizarlas y esta estrategia usualmente triunfará. Es posible que en el futuro no sea así, pero tal es la regla en la etapa presente

275

de la tecnología.) Segundo, los instrumentos conceptuales a ser utilizados en la tecnología deberían ser máximamente sencillos para operar, tanto por no tener objeto utilizar instrumentos' refinados cuando la meta no es la verdad sino la eficacia, cuanto por consideraciones de coste y tiempo. Diferencia metodológica: las previsiones tecnológicas se supone que son nomológicas más que tentativas, mien­ tras que las predicciones científicas pueden ser ambas cosas. Esto es, confiamos que la previsión tecnológica emplee sólo hipótesis bien corroboradas alojadas en cuer­ pos conceptuales bien articulados, porque su objeto no es investigar la verdad sino aplicarla. D e lo contrario, esto es, si tentativa, la predicción trataría de contrastar el modelo y no de hacerlo funcionar. Y la actitud del hombre de acción que emplea una previsión tecnológica es tener conocimiento que trabaje para él y suponer que alguien distinto — el científico o el tecnólogo investiga­ dor—■ se cuide de la validación de los instrumentos de predicción. Esto nos lleva a la tercera y más intrigante peculiaridad de la predicción tecnológica. Diferencia práctica: mientras que las predicciones científicas son axiológicamente neutrales, las previsiones tecnológicas están impregnadas de valor y es más, pueden tener un efecto sobre quienes los reconocen. Que las previsiones tecnológicas sean valiosas en respectos dis­ tintos al puramente cognoscitivo es algo que resulta obvio con sólo mirar sus formas típicas. Mientras que una pre­ dicción científica tiene típicamente la forma

Sí C sucede en el momento t entonces F sucederá en él momento é con la probabilidad P una previsión típica tecnológica tiene la forma

Si la meta o él objetivo F ha de lograrse en el mo­ mento t' con la probabilidad P, entonces hay que hacer C en el momento t.

276

Lo que era un estado final se ha trocado, en adición, en una meta que ha sido preferida y elegida entre otras metas. Y el alcance de esa meta o el fracaso en conse­ guirla, puede afectar las vidas de todos los interesados. Si no sucede así, el curso entero de la acción ha sido malgastado. Es más, la mera emisión de una proyección de este tipo puede alterar la probabilidad misma del aconteci­ miento que predice. Por tanto, si un acontecimiento ha sido previsto en cuya producción nosotros tenemos op­ ción, y si estamos interesados en su ocurrencia, haremos algo por él. Igual si queremos prevenir o posponer o an­ ticipar el acontecimiento. Esto es, trataremos de hacer las cosas de manera que hagamos que la previsión llegue a ser verdadera, o falsa, según el caso pueda ser. Si triunfamos en este intento obtenemos una confirmación poderosa o una poderosa refutación de la misma. Éstas son las lla­ madas también previsiones que se auto-cumplen (self fulfittmg) y que se auto-destruyen, muy bien conocidas de los economistas bajo el nombre de «efecto Morgenstem ». Ejemplo clásico es el rumor sobre la quiebra ae un negocio que provoca una quiebra real.

8.

¿ F u t u r o l o g ía ?

Tanto si intentamos mejorar nuestro conocimiento como guiar la acción con la ayuda de la tecnología, la proyección responsable descansa en algún u otro modelo teorético del sistema en cuestión. Si tecnológica, la pre­ visión descansa también en alguna política general, cuyo diseño real debe algo al conocimiento básico. Las teorías empleadas al inferir enunciados proyectivos pertenecen a una o más ramas de la ciencia pura o la tecnología: de lo contrario la previsión ni es científica ni tecnológica. Hay teorías especiales interesadas sólo por el futuro: cualquier teoría puede ser usada para proyectar hacia

277

adelante o hacia atrás. N o hay ciencia especial de la previsión: la totalidad de la ciencia y la tecnología están interesadas en la proyección hacia adelante y hacia atrás. En otras palabras, no hay cosa tal como la futurología concebida como una disciplina independiente, esto es, como una ciencia aparte de la ciencia ordinaria y de la tecnología y que posea instrumentos sui generis de pro­ yección. La razón de ello es muy sencilla: la previsión tecnológica es nomológica, y no hay leyes de la naturaleza o la sociedad independientes de la estofa de las cosas y rigiendo por consiguiente en cualquier campo. Hay sólo leyes regionales físicas, químicas, biológicas, psicológicas, sociológicas, y así sucesivamente. Tenemos que usar al­ guna de estas leyes si deseamos emitir previsiones tecno­ lógicas. Podemos tener que utilizar leyes de campos di­ versos, v. g., de la física y de la psicología, con objeto de prever la conducta de un complejo hombre-máquina. Al actuar así, reunimos juntos campos diversos sin obliterar sus diferencias. Esto es, nuestra previsión será entonces un resultado de un esfuerzo de investigación interdisci­ plinario: más que revolotear entre ellas nos moveremos por diversas disciplinas. La futurología seria, en cuanto distinta del profetismo y el utopismo sin fundamento, no es sino un es­ fuerzo interdisciplinario para hacer a) extrapolaciones de tendencias recientes a gran escala y largo plazo, en la suposición de que éstas no serán obstaculizadas por un esfuerzo planeado, y b) previsiones tecnológicas a gran escala y largo plazo sobre la base de modelos teoréticos y datos científicos definidos, y como instrumentos para obtener planes a gran escala y largo plazo tratando de instrumentar una decisión global que se propone a su vez solucionar problemas prácticos, tales como la cura de agudos y extendidos males sociales o intentando nuevas pautas sociales libres de los defectos de las antiguas. N o existe una futurología autónoma ni pizca más que una pasadología (passology) autónoma. N o hay técnica espe278

cíal de previsión que pueda salvarnos de la investigación. Consiguientemente, no son expertos del futuro quienes tratan de ignorar cualquier vislumbre que la ciencia pura y aplicada pueda ofrecernos de los posibles futuros: el futurólogo responsable es un punto de confluencia de todos los tráficos científicos, no un profeta ineducado. La futurología es algo para mentes científicas aventura­ das, no para aventureros. 9.

O

b s e r v a c io n e s

c o n c l u s iv a s

En resumen, la acción racional descansa hacia el final de una línea que parte de un cuerpo de conocimiento básico y una política general («filosofía»). Ese punto de partida debe contener proyecciones definidas para el resto del proceso a recorrer en su totalidad: de lo contrario ni siquiera el problema práctico a resolver emergería con claridad. Lo mismo pasa con la investigación adicional necesaria para obtener un plan realista de acción: aca­ bará en un conjunto definido de previsiones definidas. La exactitud, la fiabilidad por tanto de las proyeccio­ nes implicadas en cualquier curso de acción racional de­ penderá del estado de la disciplina implicada tanto como de la naturaleza de la meta. Mientras que en algunos casos la prognosis del experto es o lo mejor que cabe obtener o todo lo que necesitamos, en otros se requerirá que las previsiones tecnológicas se computen con la ayuda de teorías relativamente sofisticadas. D e otro lado, la adivinanza descabellada, sea en lo pequeño o en lo gran­ de, es irresponsable. Incluso las conjeturas educadas son hoy por hoy bases insuficientes para un buen planea­ miento a corto y largo término: deberíamos usar las me­ jores previsiones disponibles, y éstas se hacen en la cien­ cia y la tecnología. En una palabra: dime qué tipo de previsión usas y te diré cuál es la calidad de tus planes. Pero lo mejor rara vez es perfecto. Incluso la mejor previsión puede dar muy lejos del blanco. Sólo las pre­

279

visiones triviales pueden ser totalmente seguras. Si pre­ decimos acontecimientos otros que los inevitables o los altamente probables correremos riesgos. Una proyección responsable (prognosis de un experto, predicción cientí­ fica, o previsión tecnológica) puede estar equivocada por una u otra de las siguientes razones. Primero, algunas de las hipótesis (generalizaciones empíricas, correlaciones, líneas de tendencia, o enunciados legales) presentes en el modelo teorético pueden ser falsas o no suficientemente cercanas a la verdad. Segundo, algunos de los datos (frag­ mentos de información empírica concerniente, digamos, al estado presente del sistema en cuestión) pueden ser inexactos. Tercero, aun cuando tanto las hipótesis como los datos sean verdaderos, pueden ser insuficientes: puede haber factores adicionales de peso (variables) o incluso componentes enteros implicados en la situación real, que el modelo teorético ha menospreciado. Cuarto, aun cuan­ do los componentes de conocimiento sean suficientes y exactos, pueden cometerse errores en su manipulación. En conclusión, ninguna previsión interesante es in­ falible: a lo más, una proyección puede ser más fiable que otras. Lo que es peculiar acerca de la proyección responsable es no su exactitud sino su capacidad de co­ rrección: el hecho de que podamos aprender de sus fra­ casos y así mejorar a partir de ellos. Sólo el impulso salvaje es una pérdida total — tanto más cuanto más grande es su alcance. La prognosis del experto tecnólogo fracasa dentro de esta categoría cuando no va acompañada por planes definidos sostenidos por decisiones firmes y adecuados recursos para reforzarlos. A sí la previsión de que el transporte privado habrá desaparecido hacia el final de nuestro milenio es puro anhelo (o temor) ilusorio en tanto no se haga nada para conseguir tal meta. Pro­ yectar desarrollos tecnológicos sin planeamiento es tan despilfarro como planear sin precisiones tecnológicas. Lo primero es especular en torno al futuro, lo segundo, jugar con él. 280

FILOSOFÍA DE LA INVESTIGACIÓN CIENTÍFICA EN LOS PAÍSES EN DESARROLLO

Ponencia presentada en la 18.* Convención Anual de la Asociación Venezolana para el Avance de la Ciencia. Caracas, mayo de 1968. (Ar­ tículo original castellano del autor.)

1.

D

esa rro llo

: pa rte INTEGRAL

c ie n t íf ic o

del

d esa rro llo

El desarrollo integral de una nación moderna invo­ lucra el desarrollo de su ciencia. Primero, porque lo necesita la economía del país si aspira a ser múltiple, dinámica e independiente. Segundo, porque no hay cul­ tura moderna sin una vigorosa ciencia al día: la ciencia ocupa hoy el centro de la cultura y tanto su método como sus resultados se irradian a otros campos de la cultura, así como a la acción. Tercero, porque la ciencia puede contribuir a conformar una ideología adecuada al desarollo: una ideología dinámica antes que estática, crí­ tica antes que dogmática, iluminada antes que oscuran­ tista, y realista antes que utópica. Úna economía sin base tecnológica y científica es ru­ tinaria y dependiente. Una cultura sin ciencia es eru­ dición fósil incapaz de comprender el mundo moderno y de ayudarlo a salir adelante: es más bien incultura. Y una ideología sin meollo científico es anacrónica e irracional: será capaz de encender el entusiasmo pero no de ayudar a entender; podrá ayudar a conservar o a destruir pero no a renovar, porque para construir hay que saber. Ciertamente, se puede importar conocimiento. Lo hacen todos los países al suscribirse a publicaciones ex­ tranjeras. Pero esto es consumo, no producción, en tanto que la investigación científica es productora. Además, el consumo de conocimiento requiere conocimiento pre­ vio. Para poder entender un artículo científico hace falta

283

recibir un entrenamiento adecuado. N o basta, pues, im­ portar publicaciones, ni siquiera expertos: bay que poseer conocimiento y discriminación para poder aprovechar a unas y a otros. Más aún, la fe ciega en el modelo extran­ jero y en el experto importado puede ser desastrosa, porque lo que sirve en una nación puede no servir en otra. Cada nación debe formar sus propios expertos, tanto en las ciencias básicas como en las aplicadas. Sólo así podrá saber qué debe desear y qué necesita para alcanzar sus fines. N o hay duda, entonces, de que el desarrollo de una nación moderna es necesariamente integral, no unilateral, y de que el núcleo mismo de un plan racional y factible de desarrollo integral debe ser un plan de desarrollo de la investigación científica. Se trata, pues, de elaborar una política realista de la investigación científica: una política viable con los recursos disponibles y, a la vez, una po­ lítica que dé frutos científicos y sociales. En lo que sigue examinaré algunos aspectos de esta cuestión y terminaré proponiendo se adopte un plan liberal (no dirigista) de desarollo integral de la investigación científica.

2.

F il o s o f ía y p o l ít ic a d e INVESTIGACIÓN CIEN TÍFICA

la

En el contexto que nos ocupa, la palabra ‘filosofía’ es ambigua: unas veces significa filosofía propiamente dicha (lógica, gnoseología y metafísica) y otras significa criterio y plan de acción (policy). Es obvio que los dos conceptos denotados por la misma palabra son bien dis­ tintos: la filosofía de la biología difiere del conjunto de normas y planes que puede elaborar una institución para promover el desarrollo de la ciencia biológica. Con todo, ambos conceptos están relacionados. En mi opinión, la relación es ésta: toda política presupone una filosofía. En 284

particular, toda política de desarrollo científico presupone

una filosofía de la ciencia. Piénsese, por ejemplo, en una filosofía oscurantista tal como el exístencialísmo, enemigo de la lógica y de la ciencia. Obviamente, al no ser favorable a la ciencia no podrá fundamentar una política del desarrollo científico: a lo sumo tolerará la tecnología, sin advertir que no hay tecnología innovadora sin ciencia pura. O tómense la fenomenología y la filosofía lingüística de Oxford, oscura la primera y trivial la segunda pero igualmente desinte­ resadas de la ciencia y carentes del equipo lógico y me­ todológico necesario para analizarla: está claro que estas filosofías, al ser ignorantes de la ciencia, no podrán ayu­ dar a su desarrollo. En cambio, una filosofía empirista, tal como el positivismo, promoverá la recolección de datos y el entusiasmo por la exactitud, facilitando así el naci­ miento de la ciencia. Pero, puesto que el empirismo des­ confía de la teoría, frenará el desarrollo teórico y por lo tanto, a la larga, frenará el desarrollo científico en pro­ fundidad. Una filosofía pragmatista, por su lado, estimu­ lará la ciencia aplicada y llevará a descuidar la ciencia pura, con lo cual terminará por frenar el propio desa­ rrollo tecnológico. Finalmente, una filosofía idealista, al despreciar el trabajo de verificación experimental, se opondrá al desarrollo de las ciencias experimentales y, en particular, al desarrollo autónomo de las disciplinas que considera de su propiedad: la psicología y la sociología. Acabamos de pasar rápida revista a las principales filosofías de actualidad en relación con la ciencia. La conclusión obtenida es negativa: las filosofías de moda

son incapaces de estimular el desarrollo científico inte­ gral, entendiendo por tal el desarrollo de la ciencia pura y aplicada, teórica y experimental, natural y social. Unas filosofías se oponen a todá ciencia o la ignoran; otras exageran la importancia de las operaciones empíricas o bien de la especulación; otras ven sólo la ciencia aplicada o bien sólo la pura; otras, en fin, excluyen de la investi­

285

gación científica precisamente los temas más urgentes y promisorios: todo lo concerniente a la psique y a la co­ munidad. Parecería, pues, que la filosofía, lejos de ser supuesto de una política del desarrollo científico, debiera dejarse de lado si ha de emprenderse el fomento de la investigación científica. Lo que contradice nuestra tesis inicial, de que toda política presupone una filosofía. N o hay tal contradicción: no he dicho que toda bue­ na política presuponga una filosofía cualquiera sino que toda política presupone alguna filosofía. Si la filosofía es mala, también lo será la política. Si la filosofía es sana, la política podrá ser utópica pero al menos estará bien ins­ pirada. En todo caso, no hay evasión de la filosofía puesto que la llevamos adentro. Lo que hemos dicho hasta ahora sugiere que las filosofías de escuela, los ismos, no pueden inspirar el desarrollo científico integral. Y esto no debe sorprender, porque una filosofía de es­ cuela es, por definición, fija y parcial, por lo tanto incompatible con algo dinámico y multifacético como es la investigación científica. El desarrollo científico integral requiere una filosofía dinámica e integral de la investiga­ ción científica, que haga justicia tanto a la observación como a la teoría, tanto a la construcción como a la crítica, tanto al aspecto cosmológico como al social, tanto al aspecto básico como al aplicado, tanto a la estructura lógica como a la dinámica metodológica de la investiga­ ción. Desgraciadamente, esta filosofía no existe o al me­ nos no es popular. La filosofía de la ciencia más difundida en los círculos científicos de todo el mundo — el primero, el segundo y el tercero— es un positivismo ya muerto entre los filó­ sofos, incluso los positivistas. Ese positivismo anticuado es el que informa las ideas corrientes acerca de lo que debiera ser la ciencia en los países en desarrollo. Puesto que es un obstáculo al desarrollo, empecemos por cri­ ticarlo.

286

3.

La

f il o s o f ía

po pular

DEL DESARROLLO CIEN TÍFIC O

La idea más difundida acerca de lo que debiera ser la ciencia en los países en desarrollo parece ser ésta: debiera ser empírica antes que teórica, regional antes que universal, aplicada antes que pura, natural antes que social, y en todo caso filosóficamente neutral. Trataré de mostrar que ésta es una política nefasta basada sobre una falsa filosofía de la ciencia. Primeramente, en la época contemporánea no hay tal cosa como ciencia empírica privada de teoría, y esto por dos razones. La primera razón es que la finalidad de la investigación científica desde Galilei y Descartes no es acumular datos sino descubrir leyes, y una ley es un enunciado referente a una pauta supuesta real; más aún, una ley científica no es una proposición aislada sino una fórmula perteneciente a una teoría, por subdesarrollada que ésta sea. Una generalización empírica es superficial y carece de los múltiples apoyos y controles de que goza un enunciado encastrado en un reticulado teórico. La segunda razón por la cual no hay ciencia moderna sin teoría es que todo dato de interés científico se obtiene con ayuda de alguna hipótesis, a menudo con ayuda de teorías, y en todo caso se lo busca en relación con alguna teoría. Esto vale, en particular, para los datos de labora­ torio obtenidos con ayuda de instrumentos cuyo diseño se funda en teorías físicas y químicas. E l dato aislado carece de valor científico: un dato adquiere interés cuan­ do puede encajar en una teoría, sea para ponerla a prueba, sea para deducir explicaciones y predicciones. En suma, una de las características de la ciencia moderna es la síntesis de experiencia y teoría. Quítese la experiencia y quedará la especulación pura. Quítese la teoría y quedará el conocimiento vulgar, a lo sumo protocientífico. Sin teoría se obtendrá información superficial e inconexa:

287

sólo dentro de la teoría se alcanzan la profundidad y la totalidad. La segunda tesis popular es que la ciencia de un país en desarrollo debiera ser regional: que debiera limitarse a estudiar los hechos típicos, las curiosidades regionales que no se encuentran en otras partes. Esto es obvio desde el punto de vista empirista: hacer ciencia es observar, sólo puede observarse lo que está a mano, y estudiar lo que hay en cualquier parte es duplicar innecesariamente las observaciones. Así, por ejemplo, según esto la astro­ nomía argentina debiera limitarse a catalogar las estrellas del cielo austral, la botánica venezolana a hacer herba­ rios de plantas tropicales, y la sociología mexicana a observar la comunidad indígena del altiplano centroame­ ricano. Aunque parezca paradoja, esta tesis es sostenida tanto por nacionalistas extremos como por quienes con­ sideran a nuestros países como proveedores de materia prima; sea petróleo o datos científicos. Evidentemente, es una tesis falsa, ya que la ciencia es universal o no es ciencia sino folklore. El error proviene del falso supuesto filosófico de que conocer es observar. Este supuesto es también el que subyace al temor a las duplicaciones. Este temor es infundado, precisamente porque el conocimiento científico no se limita a observar: la observación se hace en un contexto conceptual, se describe con ayuda de ideas teóricas, y pone a prueba o enriquece a éstas últimas. Tratándose de mi proceso tan rico, la probabilidad de que dos investigadores obtengan exactamente los mismos resultados es muy pequeña. Y aun cuando la duplicación fuera frecuente, no sería redundante, ya que la verificación independiente es indispensable. En todo caso, la exigen­ cia de limitar la investigación a lo autóctono tiene por efecto rebajar trágicamente el nivel de la investigación, ya que la finalidad de la ciencia es encontrar pautas ge­ nerales, no describir idiosincrasias. La tercera tesis popular es que en nuestros países la ciencia pura es un lujo y que, por consiguiente, habría

288

que comenzar por la tecnología, postergando todo es­ fuerzo en ciencias básicas. Esta tesis pragmatista ignora que la tecnología moderna es ciencia aplicada. Ignora que la producción de granos se mejora seleccionando semillas con ayuda de la genética y de la ecología. Ignora que no hay siderurgia competitiva sín metalografía, y que ésta es un capítulo de la cristalografía; que la cristalogra­ fía teórica es mecánica cuántica aplicada y que la ex­ perimental requiere la técnica de los rayos X , que a su vez supone la óptica y el análisis de Fourier. La tesis pragmatista ignora igualmente que la criminalidad y otros problemas sociales no se resuelven aumentando la fuerza policial sino efectuando reformas económicas, sociales y educacionales, y que todas estas reformas, para ser efica­ ces, deben planearse y ejecutarse a la luz de estudios eco­ nómicos, sociológicos y psicológicos. En suma, la tesis pragmatista es poco práctica: al preconizar el predominio de la praxis sobre la teoría asegura el fracaso de la acción y el triunfo de la improvisación que apunta a fines sin examinar medios y que, encandilada por las cosas, olvida a los hombres. Ciertamente, sería igualmente absurdo proponer lo inverso, es decir, que se postergue el desa­ rrollo de la ciencia aplicada hasta alcanzar un buen nivel en ciencia básica. La sociedad exige medidas rápidas y hay más gente atraída por la acción que por el estudio. Pero quien preconice la subordinación de la ciencia pura a la aplicada desconoce la naturaleza de la tecnología moderna. La solución no está en desarrollar la una a expensas de la otra, no está en postergar una de ellas, sino en desarollar ambas a la vez. La cuarta tesis popular es que las ciencias naturales deben tener preeminencia sobre las ciencias del hombre. Esta creencia parece fundarse en dos opiniones falsas. La primera es que lo urgente es la tecnología, y que ésta se limita a la producción, es decir, a las ingenierías físicas y biológicas. Esto no es verdad: los desarreglos psíquicos y los sociales son materia de las ciencias psicosociales

289 1 9 . ----BUNGE

aplicadas, y no está probado que estos problemas son menos importantes que los problemas de la producción. Lo único cierto es que las naciones desarrolladas enfren­ tan pavorosos problemas psicosociales precisamente por haberlos descuidado en beneficio de la producción. La segunda opinión falsa que subyace a la cuarta tesis po­ pular es de naturaleza histórica: las ciencias del hombre se han desarrollado tardíamente y en imitación de las ciencias de la naturaleza, y así debe seguir siendo. Lo primero es cierto, lo segundo no: el desarrollo científico de un país no tiene por qué recorrer todas las etapas del desarrollo de la ciencia universal. Podemos ahorrar­ nos la astrología, la alquimia, la acupuntura y el psico­ análisis, abordando directamente las fronteras de la in­ vestigación contemporánea, al menos en la medida en que no requieran recursos fabulosos. Todo es cuestión de disponer de recursos humanos y de adoptar una actitud científica, no precientífica o seudocientífica, al abordar los problemas de las ciencias del hombre. Un país capaz de hacer matemática y física también lo es de hacer psicología experimental y psicología ma­ temática con tal que no tenga prejuicios contra éstas. H oy día las diferencias metodológicas entre las ciencias de hechos no existen: las diferencias son de objeto y de técnicas, no de método ni de finalidad. La finalidad de todas las ciencias es la misma: encontrar leyes. El método es uniforme: presuponer la lógica y la matemática, plan­ tear problemas, ensayar hipótesis para resolverlos, poner a prueba las hipótesis, y finalmente evaluarlas. Esto vale tanto para la química como para la sociología. En ambos casos se formulan modelos teóricos, en lo posible en len­ guaje matemático. En ambos casos se comparan las nuevas ideas con las viejas así como con datos, tanto los ya dis­ ponibles como los datos buscados a incitación de la teo­ ría misma. Ciertamente, el químico y el psicólogo se ocupan de asuntos diversos y los tratan con técnicas (métodos particulares) distintas, pero el método general

290

y la finalidad de sus investigaciones son idénticos. Esta unidad de método y de finalidad explica la movilidad de un número creciente de científicos, que pasan con soltura de un campo de la ciencia al otro, con tanta mayor sol­ tura cuanto más desarrolladas estén las teorías. U n desarrollo unilateral de las ciencias de la natu­ raleza a expensas de las ciencias del hombre sería artifi­ cial porque rompería la unidad de la ciencia. Sería antie­ conómico porque desaprovecharía recursos humanos: en efecto, dejaría de aprovechar numerosos talentos fasci­ nados por problemas psicológicos y sociales. Sería impo­ lítico, porque hay urgentes problemas socioeconómicos cuya solución exige investigación científica original. Sería anticultural, porque abandonaría el campo de las cien­ cias del hombre a los charlatanes y a los tradicionalistas que ignoran o temen la revolución operada en la psicolo­ gía y en la sociología en los últimos veinte años. Todas las ciencias son importantes: no hay ciencias de primera y ciencias de segunda, sino ciencias avanzadas y ciencias subdesarrolladas. La quinta y última tesis de la filosofía popular que estamos considerando es que la ciencia en los países en desarrollo tiene tantos problemas urgentes que no tiene tiempo para perder en análisis filosóficos. Esto presupone, o bien que ya se está en posesión de la filosofía verda­ dera y definitiva, o que se puede prescindir de la filo­ sofía. Lo primero es un dogma indigno de un científico, para quien ningún principio debiera ser incorregible, en particular ningún principio filosófico. En cuanto a la opinión de que la filosofía es un lujo, no es cierta: toda investigación científica presupone una lógica, una gnoseología y una metafísica. Sin lógica no hay control de las inferencias; sin ciertos supuestos sobre el conocimiento no hay búsqueda libre de la verdad ni criterio de verdad; sin supuestos metafísicos acerca de la existencia de carac­ teres esenciales y pautas objetivas no hay búsqueda de unos y otras. N o hay manera de librarse de la filosofía,

291

que es tan ubicua como Dios. Lo que cabe hacer es ad­ vertir tales supuestos, examinarlos críticamente, refor­ marlos de tiempo en tiempo, y desarrollar sistemas filo­ sóficos acordes con la lógica y con la ciencia, y favora­ bles a la investigación ulterior. La filosofía librada a sí misma, sin control lógico ni empírico, puede convertirse en una fiera que ataque a la ciencia y la destruya, como lo hizo la filosofía oscurantista alemana hace apenas 30 años. O que torpedee el desarrollo de las ciencias del hombre, como lo viene haciendo la filosofía oscurantista latinoamericana. En suma, las cinco tesis de la filosofía popular del desarrollo científico en los países en desarrollo son ne­ fastas: de aplicarse, distorsionarían y retardarían el avan­ ce de la ciencia. Esas cinco normas nefastas se fundan en una falsa filosofía de la ciencia; debemos reemplazar esta filosofía fragmentaria por una filosofía integral de la investigación.

4. La

f il o s o f ía

in t e g r a l

de

la

in v e s t ig a c ió n

CIEN TÍFICA Y LA PO LÍT IC A CONSIGUIENTE

Una adecuada filosofía de la investigación científica deberá reconocer que ésta es una empresa multifacética: que tiene un lado teórico y otro empírico; que es uni­ versal en cuanto a su método y su finalidad, aun cuan­ do en cada región posea objetos o temas típicos; que tie­ ne un lado puro y otro aplicado; que se ocupa tanto de la naturaleza como del hombre; y que tiene supuestos filosóficos tanto como resultados de importancia filosó­ fica. Estas cinco tesis parecen obvias y sin embargo son impopulares, particularmente entre los responsables de la planificación del desarrollo científico. Si se aceptan estas tesis sobre el carácter integral y unitario de la ciencia, entonces se adoptará una política

292

integral del desarrollo científico. Esta política se resume en las cinco normas siguientes. 1. Fomentar la investigación teórica y sus contactos con la investigación empírica. — La investigación de cam­ po o de laboratorio rara vez requiere estímulo: los in­ vestigadores con inclinaciones teóricas son siempre una minoría. En cambio, la investigación teórica es a menudo desalentada, a veces por excesivo amor a lo práctico y otras veces por ignorancia. Por ejemplo, pocos saben de la existencia de la biología teórica, de la sociología matemática y de la lingüística matemática: la mayoría esboza una sonrisa ante la mera mención de estos nom­ bres. Es preciso estimular al joven con inclinaciones teó­ ricas recordándole al mismo tiempo que, por imaginativa que sea, una teoría científica debe aprobar los exáme­ nes empíricos y debiera estimular nuevas investigaciones empíricas. Debe estimulársele además a que ayude a los experimentadores a resolver sus problemas, fomentán­ dose así la integración de la teoría con la experien­ cia, al modo en que se lleva a cabo en el Instituto de Física de la Universidad Nacional Autónoma de Méxi­ co. Este fomento de las relaciones de la teoría con la experiencia científica no debe llevar al extremo de hosti­ lizar la investigación teórica desconectada de trabajos ex­ perimentales regionales pero de posible relevancia a tra­ bajos experimentales en otros países. N i siquiera debe llevar a desalentar investigaciones que por el momento parecen carecer de relevancia empírica: las relaciones con la experiencia no se conocen de entrada y, si bien no se las ve en un momento dado, acaso pueda vérselas más adelante. En este punto, como en los demás, no se trata de cerrar caminos sino de allanar los caminos más convenientes. Sobre todo, no se trata de forzar sino de alentar. 2. Estimular la elección de problemas de interés na­ cional pero insistir en que se los trate a nivel interna­

293

cional. — Sería absurdo desaprovechar la oportunidad de medir rayos cósmicos en Chacaltaya, de hacer biolo­ gía del trópico en Amazonia, o de estudiar a los indios motilones en Venezuela. Las peculiaridades nacionales deben recibir especial atención, tanto para enriquecimien­ to del saber universal como para su eventual utilización. Pero todo objeto o problema típico deberá tratarse con el método y el fin universales de la ciencia. Biología del trópico, bien; biología tropical, no. Además, los temas autóctonos no deben desplazar a los demás. Una cosa es preconizar el relevamiento geológico de la zona an­ dina y otra exigir que la geología íntegra de un país andino se dedique a esta tarea, con descuido de la geo­ logía teórica y de laboratorio. Una cosa es fomentar el estudio de la fauna regional y otra limitarse a coleccio­ nar, describir y clasificar especímenes autóctonos. N o hay geología moderna sin física y química, ni hay taxono­ mía biológica sin genética, filogenia y ecología. Quien preconice limitar la actividad científica de una zona al estudio de lo típico con olvido de lo universal, preconi­ za en realidad el retorno a siglos anteriores, cuando ha­ bía disciplinas autónomas y capítulos autónomos dentro de cada ciencia. Este provincialismo es cosa del pasado: la investigación, sin dejar de diferenciarse, se ha inte­ grado gracias a las teorías y técnicas comprensivas. En suma: ciencia con rasgos nacionales, sí; ciencia nacio­ nalista, no. 3. Fomentar la ciencia básica tanto como la apli­ cada. — Hay que tener en cuenta que la ciencia básica es valiosa en sí misma, porque nos permite comprender el mundo, y no sólo porque nos permite transformarlo. La ciencia aplicada, en cambio, no existe sin la pura. La agronomía es biología aplicada, la farmacología es bio­ química aplicada, la psiquiatría científica es psicología y farmacología aplicadas, y así sucesivamente. Ciertamente, se puede ejercer una profesión técnica sin realizar inves-

294

tígacíón. Pero este ejercicio, para ser eficaz, deberá fun­ darse sobre investigaciones puras y aplicadas realizadas por otros. El buen médico está informado sobre las re­ cientes adquisiciones de la investigación biológica apli­ cada, la que a su vez se funda sobre la investigación bá­ sica en biología y bioquímica. Algo similar vale para el ingeniero, el agrónomo y el trabajador social. Antes de obrar hay que informarse y pensar; antes de aplicar hay que tener qué aplicar; y si se quiere innovar responsa­ blemente en la acción, hay que hacerlo sobre la base de conocimientos científicos: lo otro es rutina o impro­ visación. 4. Estimular las ciencias del hombre. — E l primer paso en esta dirección es advertir que las modernas cien­ cias del hombre, por ser a la vez empíricas y teóricas, tanto de laboratorio y campo como de lenguaje matemá­ tico, y por proponerse el hallazgo de pautas generales con un método común a toda la ciencia, son hermanas de las ciencias de la naturaleza y por lo tanto independien­ tes de las humanidades entendidas en sentido tradicio­ nal. Mantener a las ciencias del hombre bajo el con­ trol de las humanidades, allí donde éstas siguen domina­ das por un espíritu tradicionalísta y anticientífico, es con­ denarlas al atraso: es impedir o al menos retardar su constitución en ciencias propiamente dichas. Por esto, a menos que se renueve totalmente el espíritu de las fa­ cultades de humanidades por la vía de la filosofía cien­ tífica, las ciencias del hombre debieran cultivarse en las facultades de ciencias o en facultades independientes. 5. Estimular la filosofía científica. — Una falsa fi­ losofía de la ciencia puede descarriar la política cientí­ fica y llevar a despilfarrar fortunas. Los propios científi­ cos debieran, por lo tanto, interesarse por el desarrollo de una filosofía científica de la ciencia. N ótese bien: no se trata de adoptar una filosofía ya hecha sino de cons-

295

fruiría. A diferencia de la matemática o de la genética, en el campo filosófico no hay autores, textos ni teorías canónicos: todo o casi todo está por hacerse, todo es materia de debate y de investigación. Pero esto no de­ biera abrir las puertas a la improvisación y a lo que los argentinos denominamos macaneo. En este campo, la in­ vestigación responsable está limitada por la lógica y por la ciencia. Quien ignore las dos nada podrá aportar. Quien conozca una de ellas podrá plantear problemas y criti­ car soluciones. Solamente quien esté familiarizado con ambas podrá hacer contribuciones originales a la filoso­ fía de la ciencia. Si los científicos desean que se constituya una filo­ sofía realista e integral de la ciencia, que dé cuenta de la investigación tal como se la practica al nivel más avan­ zado en todos los campos, y que la ayude a avanzar y madurar en lugar de oscurecerla o de frenarla, deberán poner manos a la obra ellos mismos, Pero no sin ayu­ da: deberán recurrir a la lógica y a la historia de las ideas filosóficas y científicas, so pena de incurrir en inexactitu­ des y oscuridades y de inventar el paraguas. En suma, podrán ignorar a los filósofos anticientíficos pero debe­ rán aliarse con los filósofos amigos de la ciencia. P o­ drán ignorar a H egel, Husserl y Heidegger, pero no podrán ignorar a Russell, Carnap y Popper. Pero no basta informarse, ni comentar y criticar a tal o cual autor: hay que abordar los problemas epistemológicos del mismo modo que se aborda los problemas científicos, es decir, no sólo con conocimiento adecuado de los antecedentes, sino también con espíritu crítico y con el propósito de hacer más luz. Al igual que el científico, el filósofo de la ciencia se propone obtener conocimiento original. La diferencia está en que el científico averigua algo acer­ ca del mundo, en tanto que el filósofo de la ciencia ave­ rigua algo acerca de la ciencia. La constitución de un grupo nacional de lógica y epis­ temología, dentro o fuera de la sociedad científica na­

296

cional pero en todo caso con fuerte participación de cien­ tíficos con inquietudes filosóficas y de filósofos amigos de la ciencia, debiera contribuir a modernizar la cultura humanística del país así como a debatir acerca de los fines del desarrollo científico.

5. H acia una planificación liberal DE LA INVESTIGACIÓN CIENTÍFICA

E l estimular o fomentar ciertas actividades no debe confundirse con dirigísmo. La investigación científica bá­ sica no tolera el dirigísmo, puesto que aquélla consiste en plantear y resolver problemas con libertad, eligiendo libremente los medios y haciendo públicos los resulta­ dos. Solamente las tareas de rutina y, en mucho menor medida, la investigación aplicada pueden funcionar en respuesta a solicitaciones externas. El dirigísmo deforma la investigación al exagerar el peso de lo empírico: se puede encargar juntar y elaborar datos sobre cualquier cosa, pero las teorías no se hacen por encargo. E l dirigismo deforma la ciencia al exagerar el peso de las apli­ caciones: se puede encargar aplicar un cuerpo de cono­ cimientos a la solución de un problema práctico, pero no se puede encargar la formación de una ciencia nue­ va. Finalmente, el dirigísmo deforma a la comunidad científica al dar demasiada autoridad a la administra­ ción científica, que puede abusar de su poder y frustrar las aspiraciones legítimas de los investigadores. E l diri» gismo, en suma, es incompatible con un desarrollo inte­ gral y autónomo de la investigación. Esto no implica que la actividad científica deba de­ jarse librada a la mano de Dios. Es verdad que el li­ beralismo es preferible al dirigísmo pues, si bien no alien­ ta a la potencia creadora, al menos no la encarcela y esclaviza. Pero el liberalismo, acaso adecuado a las na­ ciones desarrolladas, es inadecuado a las nuestras, ya que

297

se opone a toda planificación, en tanto que, si queremos salir adelante, necesitamos un mínimo de planificación. En efecto, quien proponga se fomente esta o aquella ac­ tividad para llenar este o aquel claro en el campo de la ciencia, está sugiriendo un plan de acción: está propo­ niendo que se inviertan recursos humanos y materiales en cierto sector, acaso a expensas de otros sectores. N o hay nada malo en planificar con tal que los objetivos sean nobles y los medios escrupulosos. Todo científico que se respeta planifica su propio trabajo y, en alguna me­ dida, el de sus colaboradores. La planificación en sí no es mala. Lo que es nocivo para la ciencia y, por ende, nocivo para la nación, es un plan dirigista, un plan que someta la investigación científica a intereses extraños al desarrollo de la propia ciencia, exija resultados prác­ ticos a corto plazo y tuerza las vocaciones. Debemos pensar en un plan liberal: un plan que se proponga fines intracientíficos, que persiga en primer lu­ gar el crecimiento y la maduración de la ciencia misma. Un plan liberal será compatible con la libertad de la investigación así como con la libertad y el enriquecimien­ to de la cultura. Una planificación liberal de la investi­ gación científica se propondrá lograr un desarrollo ar­ monioso de los distintos aspectos de la ciencia: el expe­ rimental y el teórico, el puro y el aplicado, el natural y el humano. N o obligará a trabajar en tal o cual tema ni de tal o cual modo: sólo se propondrá facilitar todo proyecto de investigación razonable, es decir, que pro­ meta enriquecer el conocimiento y parezca realizable. Para ser eficaz, una planificación liberal no debe ser humilde ni paranoica: debe ser ambiciosa pero realista: esto es, debe proponerse las finalidades más elevadas alcanzables con los medios disponibles. Así, por ejemplo, sería tonto dedicar un laboratorio a medir el índice de refracción de todas las sustancias transparentes por mero gusto de apilar datos, sin fines ulteriores: ésta sería ex­ cesiva modestia. Por otra parte sería una locura instalar 298

un acelerador de partículas en un desierto, sín un plan concreto de investigación ni personal competente para llevarlo a cabo. En cambio, sería factible y útil estudiar, por ejemplo, las propiedades reológicas del petróleo y sus derivados, puesto que la reología está aún en sus comien­ zos y ofrece tantos enigmas experimentales y matemáti­ cos como se desee. Los proyectos de investigación deben ser modestos pero no pedestres, originales pero no utó­ picos. Dejemos a los gigantes industriales la física experi­ mental de las altas energías. Dejemos la ingeniería nu­ clear a los países con grave déficit energético y capaces de construir reactores industriales sin hipotecar su eco­ nomía. Dejemos la física espacial a los países ricos cuyos gobiernos necesitan crear sensaciones mundiales. Pongá­ monos en cambio a estudiar, por ejemplo, la enigmática estructura de los líquidos y de los cristales líquidos (p. ej. las soluciones jabonosas) y de los cristales gaseosos (p. ej. la parafina). Éstos son problemas abiertos que re­ quieren instrumental accesible y materia gris. N o pode­ mos competir en instalaciones costosas pero sí en cere­ bros, a condición de atraer al campo de la ciencia a los talentos que hasta ahora son absorbidos por la jurispru­ dencia y otras profesiones liberales. N o podemos estar al día en todo ni debemos copiar: debemos estar al día en algunos temas, debemos apren­ der, y debemos proponernos hacer aportaciones origi­ nales, ya que la investigación, para serlo, debe ser original. N o importa si no estamos a la moda: mejor, porque se­ guir la moda es costoso, es servilismo e involucra des­ cuidar líneas de investigación acaso más importantes o interesantes. Esto no implica quedarse atrás, sino tan sólo no participar en ciertas carreras. El investigador maduro tiene un programa de trabajo de largo alcance. N o se deja distraer por la moda pero tampoco deja de aprovechar para su trabajo cuanta novedad pueda ser­ virle.

299

El investigador original tampoco es un apéndice de una instalación costosa, sino un individuo con ideas ori­ ginales y con ingenio capaz de compensar algunas de­ ficiencias de material. Ciertamente, a veces el ingenio con­ siste en diseñar un equipo costoso que puede abrir nue­ vas perspectivas. En este caso, si el costo es excesivo, se impone el exilio a un país más rico, jamás el sacri­ ficio de las demás ramas de la ciencia o de reformas sociales urgentes. H oy día no es tragedia ni vergüenza exilarse con el fin de bacer contribuciones al avance de la ciencia. Lo que es trágico, o mejor tragicómico, es exigir a una nación pobre que lance un programa espa­ cial, o un programa en física de altas energías, cuando aún no ha dado sus primeros pasos en investigaciones modestas pero fértiles. El mérito de un proyecto de in­ vestigación no se mide por el dinero invertido ni por la publicidad lograda sino por su aporte original al avance del conocimiento. H oy día casi cualquier país que se lo proponga pue­ de alcanzar, en el término de una generación, un puesto decoroso en la ciencia internacional. Para que nuestros países latinoamericanos lo alcancen debemos hacer lo si­ guiente. 1. Empecemos por reconocer nuestro atraso en lugar de drogamos con autoalabanzas, pero al mismo tiempo propongámonos seriamente superarlo. 2. Propongámonos nuestros propios fines, sin por ello desaprovechar la experiencia ajena. 3. Hagamos un cálculo de recursos humanos y na­ turales. 4. Formulemos planes liberales y realistas para el desarrollo integral de la investigación científica. 5. Tendamos la mano fraterna en lugar de la pordio­ sera; tratemos de trabajar en escala latinoamericana, di­ vidiéndonos el trabajo y cooperando entre todas las na­ ciones latinomericanas: tratemos de constituir una Coor­ dinadora Científica Latinoamericana.

300

6. Pongamos manos a la obra recordando que la cien­ cia no es un conjunto de instalaciones para halago de gobernantes vanidosos, sino un grupo de personas en bus­ ca de la verdad. Termino y resumo. Una buena política de desarrollo incluye una política del desarrollo científico. Y una po­ lítica del desarrollo científico supone una filosofía de la ciencia. Ahora bien, hay filosofías de la ciencia de varias marcas pero ninguna de ellas es capaz de estimular la investigación científica, ya por ser fragmentarias, ya por ser rígidas. Esto explica, en parte, por qué es tan di­ fícil formular una buena política del desarrollo cientí­ fico. La filosofía de la ciencia y la política de la ciencia son dos pordioseros que pasan hambre si van separados pero prosperan si se juntan: el paralítico va montado sobre los hombros del ciego y le señala el camino. Cada cual resuelve así el problema del otro y de este modo el propio. Si carecemos de una filosofía adecuada no logra­ remos una política adecuada. Si carecemos de una y otra deberemos desarrollar ambas a la vez. En el transcurso de este proceso cometeremos errores pero podremos aprender de ellos y corregir el rumbo futuro. En cambio, si copiamos lo ajeno o pedimos a otros que nos digan qué debiéramos desear, seguiremos atados y a oscuras, A repensar, pues, tanto nuestra filosofía de la ciencia co­ mo nuestra política de la ciencia. D e ello depende nuestro desarrollo.

301

ÍNDICE P refa cio ..........................................................................

5

Conceptos de m o d e l o .........................................

9

M odelos en ciencia t e ó r i c a .................................

39

Teorías fen om en ológicas..........................................

55

La maduración de la c i e n c i a .................................

89

La simplicidad en la evaluación de teorías

129

Teoría y r e a l i d a d ..................................................

187

Analogía, simulación y representación .

223

Teoría y exp erien cia..................................................

249

Predicción y p la n e a m ie n to ..................................

261

Filosofía de la investigación científica en los paí­ ses en d esa rro llo ..................................................

283

VOLUMEN EXTRA

El progreso científico se mide hoy por el progreso teórico mejor que por la acumulación de datos. La cien­ cia contemporánea no es experiencia, sino teoría más experiencia planeada, conducida y entendida a la luz de teorías. Estas teorías se presentan, con frecuencia creciente, en lenguaje matemático: las teorías específi­ cas son. en efecto, modelos matemáticos de trozos de realidad. Este mero hecho plantea multitud de proble­ mas filosóficos que el físico argentino Mario Bunge, autor de LA INVESTIGACIÓN CIENTÍFICA y profesor en la McGill University. de Montreal. trata de resolver o abordar en el presente volumen. Por ejemplo: ¿qué es un modelo teórico? ¿Qué relación hay entre modelo teórico y teoría general? ¿Cómo se ponen a prueba las teorías? ¿Qué función desempeña la teoría en la acción planeada? ¿Qué papel puede cumplir el trabajo teórico en el desarrollo económico, social y cultural?

ariel quincenal

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF