SciELO - Scientific Electronic Library Online

 
vol.21 número2El eterno retorno del mito: prolegómenos de una filosofía transespeculativa del mitoMito y reconciliación: sobre el concepto de mito en la Dialéctica de la Ilustración índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Areté

versión impresa ISSN 1016-913X

arete v.21 n.2 Lima  2009

 

ARTÍCULOS

 

Sobre el mito de que el realismo científico ha muerto*

On The Myth that Scientific Realisms is Dead

 

Alberto Cordero-Lecca

The City University of New York

 


Resumen

Se cree en algunos círculos que el proyecto del realismo científico lleva tiempo muerto, a manos –reza la historia– de las críticas propuestas en el último siglo por Thomas Kuhn, Bas van Fraassen, Larry Laudan y otros importantes pensadores. Entre las jugadas libradas en su contra se destacan algunos argumentos globales sobre la infradeterminación empírica de las teorías, así como argumentos inductivos en contra del modelo de refinamiento acumulativo del avance del conocimiento científico. La fuerza de tales argumentos, tal como se los ha presentado, parece, sin embargo, grandemente exagerada. Y aunque el proyecto del realismo científico dista de estar completo, tampoco hay un caso contundente que permita declararlo en agonía (y mucho menos muerto), o tal es mi argumento en este trabajo.

Palabras clave: realismo científico, filosofía de la ciencia, historia de la ciencia, epistemología sincrónica y diacrónica, infradeterminación empírica.

 


Abstract

It is believed in some circles that the project of Scientific Realism is long dead, killed (so the story goes) by critiques advanced in the last century by Thomas Kuhn, Bas van Fraassen, Larry Laudan, and other major thinkers. Prominent among the moves deployed against realism are some global arguments about the empirical underdetermination of theories, as well as inductive arguments against the cumulative-refinement model of the advance of scientific knowledge. The power of such arguments as have been put forward seems grossly exaggerated at best, however. While the project of Scientific Realism is far from completion, no serious case exists for declaring it terminally ill (let alone dead), or so I argue in this paper.

Key words: scientific realism, philosophy of science, history of science, synchronic and diachronic epistemology, empirical underdetermination.

 


1. Introducción

De aquí en adelante, el término "realismo científico" se usará para referirse al punto de vista no fundacionalista según el cual (a) porciones significativas de los asertos teóricos derivados de teorías empíricamente exitosas son verdaderas o aproximadamente verdaderas; (b) es en principio posible tener razones de peso para suponer que algunas teorías son aproximadamente más ciertas que otras; y (c) el conocimiento científico, aunque tentativo al fin y al cabo, puede ser tan "cierto" y "verdadero" como el mejor "conocimiento ordinario" del que dispongamos. Hoy en día, mucha gente educada parece aceptar como una "opinión experta" que el proyecto del realismo científico lleva largo tiempo muerto, a manos –reza la historia– de las críticas propuestas en el último siglo por Thomas Kuhn, Bas van Fraassen, Larry Laudan y otros importantes pensadores. Y aunque el proyecto del realismo científico dista de estar completo, tampoco hay un caso contundente que permita declararlo en agonía (y mucho menos muerto), o tal es mi argumento en este trabajo.

Dos líneas argumentales resultan recurrentes en las críticas que se le han hecho al realismo en los últimos cien años. Ambas siguen influyendo sobre muchos pensadores, especialmente aquellos que se inclinan al escepticismo global y a las formas más radicales del constructivismo, el anti-naturalismo y el misticismo1). Una de estas vertientes, representada en tiempos recientes por Bas van Fraassen y pensadores simpatizantes de The Scientific Image2 (1980), gira en torno al temario general del empirismo, sobre todo en lo que respecta a la tesis según la cual las teorías son severamente infradeterminadas por la evidencia. El segundo cauce argumental se apoya en la historia. Puede que la versión más corriente de esta línea sea la lectura escéptica de la historia de la ciencia propuesta por Larry Laudan en 19813 y continuada hasta la fecha por muchos pensadores.

Entre las mayores manifestaciones a favor del realismo científico, se cuenta un proyecto4 que presenta a los argumentos de infradeterminación global como argumentos escépticos generales que no penalizan, de forma explícita, a la teorización científica. Otra expresión de peso5 le concede a Laudan la razón respecto al fracaso de las teorías "en su conjunto", pero luego lleva al vínculo realista entre el éxito empírico y la verdad de las teorías in toto a los componentes teóricos selectos. Estas dos respuestas juegan un papel central en las defensas contemporáneas del realismo. Es igualmente útil la comprensión mejorada que se tiene del carácter, alcance y límites de la representación científica lograda en décadas recientes, gracias a algunas aproximaciones de amplio criterio en la filosofía de la ciencia, tales como el valioso trabajo que hiciera Giere con miras a integrar perspectivas actuales que en un principio estuvieron contrapuestas6.

Dicho esto, no obstante, versiones más sofisticadas de los argumentos que parten desde la infradeterminación y la historia de las teorías pasadas siguen apareciendo. Argumentos que van desde la infradeterminación efectiva (en contraposición a su variante global) en la ciencia actual parecen expresamente hundirle los dientes al proyecto realista (contrariamente a los argumentos acaparadores del infradeterminismo lógico). Con relación a la movida que procura alternar el compromiso realista para con los componentes teóricos, los abordajes relacionados de Kitcher, Leplin y Psillos7 para especificar a la verdad en teorías exitosas pasadas no parece funcionar tan bien como se presume. KL&P se basan en que el registro sincrónico sea lo suficientemente fino como para segregar a aquellos constituyentes teóricos que aciertan en algún aspecto profundo del dominio a mano, pero los argumentos y estudios de caso provistos para esta tesis se ven mellados por serias dificultades8. En la medida en que puedan sostenerse, argumentos como este parecieran inclinarse a posiciones moderadas, como la del perspectivismo de Giere9, hacia el constructivismo. Al momento de tratar sobre el discurso científico exitoso, el anti-realismo sigue siendo influyente.

Por ahora las mejores lecturas anti-realistas de la historia de la ciencia se concentran en teorías que, aunque aportadas por disciplinas maduras y altamente exitosas, se probaron equivocadas de las formas más dramáticas. Un caso señero es el provisto por las teorías decimonónicas de la luz como onda, tan corroboradas en lo experimental, aunque todas incluyeran supuestos gravemente fallidos, entre ellos –y notablemente– el de "éter". A partir de este y otros casos, algunos pensadores concluyen, junto a Laudan, que el éxito empírico de una teoría no avala su veracidad o su semblanza de verdad, y que estas tampoco pueden explicar su éxito empírico.

Un grupo importante de realistas, destacándose entre ellos John Worrall y KL&P, rechazan esta lectura escéptica de la historia. Concuerdan en que, tomándoselas en conjunto, las teorías pasadas son falsas, pero agregan que las teorías descartadas que tuvieron éxito en función de predicciones riesgosas efectivamente acertaron en algunas de sus narrativas distintivas. Worrall10, como parte de su articulación del realismo estructural, y KL&P, desde una perspectiva más general, han analizado en detalle algunos de estos casos significativos, sobre todo los tocantes a las teorías del éter alrededor de 186011:

(i) La primera teoría exitosa de Fresnel (circa 1820) afirma que la luz es una onda, que las ondas de luz son elásticas, que se sostienen y se propagan en y a través de un éter fluido que impregna al universo y a los cuerpos materiales; y que estas ondas se rigen por leyes precisas de reflexión y refracción (las leyes de Fresnel). Este parecer gozó de un notable éxito empírico, pero resultó ser falso. Aun así, parte de su narrativa profunda permanece incólume desde aquel entonces: y es que en un sentido fuerte, lo que llamamos "luz" está compuesto de ondas que, en un altísimo grado de aproximación, se ciñen a las leyes fresnelianas de la reflexión y la refracción.

(ii) La segunda –y aun más exitosa– teoría de Fresnel (circa 1830) incorpora a los fenómenos de la polarización y, como su primera propuesta, presenta a la luz como una onda que obedece a leyes precisas de reflexión y refracción. Según esta teoría, las ondas de luz son elásticas y transversales, y se sostienen y se propagan mediante un éter mecánico rígido que embarga al universo y a los cuerpos materiales. Esta segunda versión tuvo un éxito asombroso y nuevamente, resultó ser falsa. Pero de igual manera, y otra vez, segmentos importantes de su narrativa profunda permanecen incontestados hasta la fecha, sobre todo la idea de que la luz está compuesta de ondas transversales que, en un altísimo grado de aproximación, se rigen por las leyes fresnelianas de la reflexión y de la refracción.

(iii) Un recuento análogo, pero más intrincado, puede hacerse sobre la transición hacia la teoría de Maxwell y aún más allá de esta.

Con relevancia para el debate sobre el realismo, ninguna de estas teorías cuestionó la existencia de algún tipo de éter para la luz.

Los realistas concuerdan en que, al margen de que no haya un éter como los postulados durante el siglo XIX, la sucesión integrada por las teorías de la luz sí despliega discontinuidades conceptuales. No obstante, los realistas se cuidan de agregar que las discontinuidades involucradas no son ni tan generales ni tan radicales como las que Laudan y sus seguidores sugieren. KL&P, en especial, notan que las teorías exitosas no son algo que deba tomarse o dejarse in toto. Insisten en que una falsa teoría puede ser aun aproximadamente verdadera de formas significativas, recalcando, más aun, que como parte de la resultante acumulación de conocimiento, ha emergido una red mayormente estable y bien fundamentada de asertos y supuestos teóricos que son nuestra mejor versión de cómo es el mundo. Leplin también respalda esta afirmación: "[A]llí donde las teorías pasadas satisficieron los requerimientos que justificaran la creencia teórica, su eventual fracaso no es un fracaso total; aquellos mecanismos teóricos implicados en lograr aquella justificación pueden recuperarse en la teoría actual"12.

En sus análisis de las teorías fresnelianas de la difracción, KL&P concluyen respectivamente que estas no invocan esencialmente al éter en los aspectos relevantes a la derivación fresneliana de los patrones de difracción. Lo que quieren decir con esto es que Fresnel no precisaba del éter para derivar las pruebas experimentales que hicieran de cada una de sus teorías éxitos rotundos13.

Este tipo de respuesta, subsiguientemente refinada por Leplin y Psillos, no ha logrado persuadir a muchos críticos14. De modo que falta, todavía, abordar la historia del supuesto del éter y de su interés para el proyecto del realismo científico.

¿Qué exáctamente hizo del concepto de éter algo "inesencial" u "ocioso" en la derivación fresneliana de los patrones de difracción? Aquí Psillos15 nos ofrece una primera articulación promisoria. El criterio general de Psillos nos dice: supóngase que H, junto a otro conjunto de hipótesis H’ (y algunas auxiliares A) conllevan una predicción P. H indispensablemente contribuye a la generación de P si H’ y A por sí mismas no pueden rendir P y si ninguna otra hipótesis H* disponible que sea consistente con H’ y A puede reemplazar a H sin que pierda la derivación relevante de P.

La pregunta es, entonces, esta: ¿fue el recurso fresneliano al éter ocioso, prescindible o periférico, tal como lo sugieren respectivamente KL&P? La subsección 2.1. a continuación nos muestra cómo puede avanzarse la crítica de las maneras en las que los autores se esfuerzan por diferenciar a esos aspectos "centrales", "indispensables", "esenciales", "correctos" o "acertados" de la teoría, de los demás. Los hallazgos preliminares nos sugieren que hay pocas esperanzas de conducir un seguimiento sincrónico del éxito de la teoría de Fresnel sin el éter. De otra parte, y tal como lo sugeriré en la subsección 2.2., esta apreciación negativa del seguimiento sincrónico tampoco arguye en contra del tipo de realismo que los autores buscan defender, sino apenas en contra de su abordaje al momento de ordenar sus partes teóricas.

2. Aspectos históricos y filosóficos

2.1. Un poco de historia filosófica

Propongo que rechacemos la noción de que el empleo que hace Fresnel del concepto de éter fuera meramente "incidental" o "periférica" a su pensamiento. La derivación fresneliana de la velocidad de la luz en el vidrio (específicamente dentro de prismas de refracción) implicó un detallado análisis de cómo los prismas de vidrio arrastraban algo de éter de tal manera que se llegara a un término de "ajuste de arrastre", el mismo que Fizeau eventualmente confirmaría. Otras derivaciones son igualmente elocuentes. Así, cuando Fresnel se vio obligado a afirmar que la luz era una onda transversal, muchos de sus leales seguidores –incluyendo a Arago– rechazaron la idea. Para la sorpresa de sus críticos, no obstante, Fresnel pudo derivar la doble refracción a partir de la hipótesis de las ondas transversales, y en esto el éter tuvo una parte nada "incidental". Y es que más o menos al mismo tiempo en que tanto él como Ampere pensaban en incluir un componente transversal a la teoría, los pensamientos de Fresnel se vieron inextricablemente liados a sus opiniones sobre el éter. Lo que es más, su comprensión de que las ondas de luz eran transversales parece haber estado estrechamente vinculada a un cambio mayúsculo en su apreciación de la forma en la que el éter transmitía al movimiento. Todo esto está bastante bien documentado en la literatura.

Tampoco nos servirá apoyarnos en la naturaleza extraña del éter postulado. Los grandes teóricos de la luz no repararon en el éter como un supuesto seriamente endeble, sino hasta bien entrado el siglo XIX. Antes de eso, no se lo consideró demasiado "especulativo" y/o "inconcluyente". Sus estrambóticas características y peculiaridades físicas se apreciaban en tanto tales, pero los teóricos respondieron a ellas apelando a analogías que, en su momento, parecieron relevantes (como, por ejemplo, con algunos líquidos viscosos, así como con modelos precursores de transmisión resonante de altas frecuencias).

Pero, ¿qué queda de la importante sugerencia a los efectos de que el acopio de conocimiento para la década de 1830 pudo haberle permitido a Fresnel formular sus conclusiones sin echarle mano al concepto de éter? Este bien pudo haber sido el caso. Aún así, yo negaría que esta posibilidad ayude al argumento epistemológico a favor del realismo. Y es que de una parte, si el éxito ha de entenderse como un parámetro del contenido de verdad, entonces –tal como se nos sugiere arriba–, el éxito que tuvieran las teorías de Fresnel se debió, en gran medida, al supuesto del éter. De otro lado, sugiero que hay una clave más a considerar: una clave metafísica. En la época de Fresnel (y hasta finales de su siglo) el concepto de "ser una onda" incluía –y lo que es más, hasta implicaba– la idea de necesitar un medio. Separar las dos ideas requería un nivel de atomización conceptual que recién sería promovido décadas más tarde, primero por el empirismo-positivismo, y luego por diversos experimentos de resultado nulo, como los de Michelson y Morley. Pero esto no comenzó a suceder sino hasta aproximadamente la época de Hertz. La disgregación total de las ideas de "onda" y el "requisito de un medio físico" estarían al centro de la revolucionaria movida einsteniana a inicios del siglo XX, y de buena parte del disgusto que esta suscitará inicialmente en el establishment científico.

La separabilidad lógica de conceptos y asertos en una determinada teoría depende de cómo se articulen las relaciones de analiticidad dentro de la misma. Tales relaciones tienden a cambiar en el tiempo, en tanto se aprende y se conjetura más acerca del dominio de la teoría, lo que típicamente ocurre a la par del esclarecimiento de sus fundamentos causales. Este proceso queda bien ejemplificado por la evolución de la concepción de ondas entre 1820 y 1910.

Resulta, entonces, que en los años de las décadas de 1820 y 1830 el concepto de éter funcionaba y se entendía como un supuesto exitoso en todas las formas que le importan a los realistas. De modo que este aserto exige mayor articulación, considerando que, en la medida en que se sostiene, pareceríamos tener muy pocas razones para considerar al concepto de Fresnel como "inesencial" o "prescindible". La única razón para excluirlo sería la escisión de los conceptos decimonónicos de éter de la física subsiguiente (hasta bien entrado el siglo XX), pero ni eso sería suficiente.

Si esas sugerencias están en lo correcto, entonces ninguna hipótesis H* del tipo que imaginara Psillos le fue relevantemente disponible a los teóricos sino hasta fines del siglo XIX. De ser este el caso, el criterio de Psillos no discrimina en contra del éter lumínico. Pareciera, entonces, que el tipo de diferenciación sincrónica de las partes teóricas intentado por KL&P acaba por no funcionar16.

Y así es como parecen haber pocas esperanzas para los realistas en términos de esquemas orientados a recalcar, de maneras sincrónicas enfocadas en el periodo que va de 1820 a 1880, el éxito de las teorías de Fresnel, sin incluir al éter entre sus beneficiarios epistémicos. Nótese, empero, que esto no produce un argumento en contra del tipo de realismo que KL&P buscan defender, sino solo en contra del abordaje sincrónico que proponen a la hora de ordenar los componentes teóricos.

¿Podemos hacerlo mejor? Mi propuesta es que se requiere un cambio de enfoque. La tesis realista parece estar urgida de una reorientación a favor de un abordaje diacrónico mediante el cual identificar a las partes "aproximadamente verdaderas" en la narrativa de las teorías pasadas. Y esto no tendría que sorprendernos. Durante buena parte de su historia, el proyecto realista se ha visto ligado a la idea del progreso epistémico y la acumulación de conocimiento.

2.2. Enfatizando la epistemología diacrónica

El realismo científico requiere abordajes viables de las ideas gemelas que son la diferenciación epistémica y la acumulación de conocimiento teórico. Tal como lo sugiriera en la sección anterior, identificar a las partes "buenas" y "malas" de una teoría exitosa no parece poder lograrse mediante un seguimiento "sincrónico". Aun así, las identificaciones se ejecutan en la práctica científica, y es crucial que podamos responder por ellas. Entre los rasgos más claramente discernibles de tales identificaciones está aquel según el cual (y en la medida en que las partes "sanas" de la teoría sean identificadas) su develamiento toma tiempo. Y es que la develación es un proceso complejo. Kitcher y Leplin son conscientes de esta dificultad, pero al final –y como lo observáramos–, se conforman con un seguimiento sincrónico.

Teorías anteriores de la luz nos dotan de una buena cancha a partir de la cual estudiar las formas en que las varias aplicaciones de una teoría exitosa van gradualmente descubriendo sus partes menos promisorias. Tal como se notara en la subsección 2.1., la evolución del concepto de éter parece haberse atenido a este patrón característico: su develamiento paulatino, acentuado por dudas sugeridas por los propios desarrollos de la epistemología científica, propiciaron la fractura de las conexiones dentro de la red conceptual recibida de la que el supuesto del éter era parte. Movimiento a su vez seguido por partidas revisionistas a niveles epistemológicos y/u ontológicos específicos. Propongo que esto puede ser analíticamente articulado mediante análisis lakatosianos del examen de sucesiones teóricas, sobre todo a la manera de Balashov17. En cuanto teoría exitosa, a T se la aplica a situaciones más diversas a través del tiempo, y una parte de T se revelará como "débil" si es que: (a) varias piezas de información recalcitrante generan la intersección de aplicaciones que involucren a esa parte en específico, y si (b) salvar a esa parte viene consistentemente acompañado de la degeneración del sistema en su totalidad, medida según los criterios epistemológicos vigentes. No hay nada "necesario" en torno al descubrimiento de los componentes débiles. Estos simplemente ocurren con una cierta regularidad en disciplinas que valoran y procuran un éxito predictivo novedoso, sobre todo como nos lo explican, en una primera aproximación, Giere18 y Leplin19. Normalmente es solo tras haber tenido algo de práctica con una teoría que la corrección elemental de algunas de las partes que esta nos aporta se nos vuelve aparente.

El tratamiento que estoy recomendando de las partes teóricas creíbles se ciñe a las siguientes guías: el gradual estancamiento y éxito independiente de una parte en particular la identificará como "aproximadamente correcta" si es que extirparla o alterarla conduce, consistentemente, a la degeneración empírica del sistema en cuestión y de los sistemas teóricos a los que les es relevante.

La identificación de ciertas sub-narrativas como elementos especialmente problemáticos de una teoría nos dota de bases racionales para convertirlos en componentes opcionales de la red conceptual de nuestra teoría. Como en el caso del éter, a menudo sucede que esta suerte de divorcio condujo a teorías que se percibieron como "extrañas" y hasta "misteriosas" para el sentido común20. Pero entonces, para el realista contemporáneo, el mundo es un lugar extraño.

Dos movimientos relevantes pueden destacarse con relación al sugerido proceso de separación:

(i) Los intentos de agregarle suplementos explicativos a una teoría T en todo otro sentido exitosa puede incorporar (y a menudo lo hace) estructuras explicativas que, ya fuera por designio o no, están "en efecto" epistemológicamente divorciadas de las estructuras iniciales de T, sobre todo en lo que toca a esas partes que, hasta ese entonces, se asociaban a su éxito. Esta cuestión está vinculada a la infradeterminación empírica efectiva (en oposición a su variante de principios) de las teorías científicas, sobre todo en cuanto respecta a la disponibilidad de particiones para los modelos de una teoría siguiendo guías epistemológicas más naturales (e imperiosas) que aquellas, en gran medida arbitrarias, que nos propone el empirismo constructivo21. Este tipo de infradeterminación se ve frecuentemente en teorías que alegan calar más hondamente en la naturaleza que la mejor teoría actual, como sucede con los varios abordajes que se empeñan en responder por la bien establecida –aunque "mínima" en estándares– teoría cuántica. Aunque la infradeterminación efectiva se presta a un debate ontológico legítimo, su poder corrosivo sobre el proyecto realista parece limitarse a solo algunos aspectos de la narrativa total. Esto quiere decir que, típicamente, desde una cierta hondura descriptiva y un nivel de precisión que alcance al fenomenológico, los modelos mutuamente contradictorios arrojados por las teorías explicativas más profundas convergen tanto estructural como (podría decirse) semánticamente en términos de una modelación efectiva parcial, haciéndolo incluso con un muy alto nivel de aproximación entre ellas. Dos lecciones importantes para el proyecto realista se desprenden de esto: (a) que la infradeterminación efectiva que se encuentra en la ciencia madura es de un alcance teórico restringido, contrariamente al tipo que promueven los empiristas constructivos y otros no-realistas; y (b) que los límites al compromiso realista que esta infradeterminación encontrada nos revela, sugieren una forma de abordar la fragmentación teórica a lo largo de líneas epistémicas naturales, en oposición a la manera artificial (siguiendo fronteras teoría/observación) por la que generalmente abogan los anti-realistas.

Si aplicáramos esto al caso de las teorías decimonónicas del éter, creo que una explicación similar robustecería uno de los asertos centrales de KL&P y otros realistas. Es decir, que independientemente de sus asunciones respecto a la constitución física de eso que ordinariamente llamaríamos "luz", Fresnel acertó considerablemente en lo que concierne a su propagación e incluso a su "naturaleza" (no pensemos en ella en términos de "esencias"), al mismo tiempo que se equivocó seriamente respecto a su necesidad de un éter, sobre todo de uno mecánico. Y más adelante, Maxwell acertó bastante más con relación a la luz, aunque –como resultó ser el caso– su teoría también se equivocó en ciertos aspectos importantes de la ontología.

(ii) En las disciplinas maduras, las sucesiones teóricas usualmente resultan en el develamiento de "mapas" teóricos parciales del dominio intencionado. Esta es una cuestión que quedará mejor saldada con algunos ejemplos.

En 1897, J. J. Thomson propuso que los rayos catódicos estaban hechos de partículas con carga. El pensamiento de Thomson se ciñó estrictamente a los lineamientos de la mecánica de Newton y al electromagnetismo clásico. Al desviar rayos catódicos con la ayuda de campos magnéticos controlables y contrastar los resultados con otros, logrados mediante la desviación de iones de hidrógeno, Thomson se percató de que en los corpúsculos de los rayos catódicos, la relación carga/masa tenía que ser mucho menor que para los iones de hidrógeno. Procedió, pues, a determinar el valor preciso para estos hipotéticos corpúsculos, a los que asoció con la "partícula elemental" a la que George J. Stoney había llamado "electrón" en 189422. Pensando en los rayos catódicos como enjambres de corpúsculos newtonianos, y asistido por imanes y campos electrostáticos, Thomson produjo numerosas desviaciones en su laboratorio. Valiéndose tan solo de la física clásica al momento de analizar sus resultados experimentales, derivó la siguiente estimación de la relación carga/masa23:

(m/q)e = [0.85 ± 0.34] x 10-7gr/esu

Aunque la expresión sea un tanto burda, es lo suficientemente fina como para no considerarla "imprecisa". El valor que afirma es cercano al que nos proporciona la teoría actual, aunque las teorías empleadas para su determinación lleven casi un siglo en desuso. Este aserto sobre el electrón no ha sido, pues, "refutado" a causa de su tosquedad. Thomson determinó la relación carga/masa dentro de márgenes teórico-experimentales de 0.34 x 10-7 gr/emu. Si representamos a esta puntada gruesa con "δm/q," obtendremos la siguiente afirmación sobre el electrón:

Para todos los electrones, {Ám/q (e) = valor resultante ± δm/q}

Algunos años más tarde, sin embargo, la derivación que Thomson hiciera a partir de la teoría clásica resultó no ser universalmente sostenible. La dependencia que tiene la masa de la velocidad relativa restringe la aplicabilidad del resultado thomsoniano a electrones que estén moviéndose a velocidades lentas respecto a la velocidad de la luz, digamos con relaciones de v/c ~ 1/10:

Para electrones con valores de v/c dentro del rango Dv/c = [0, 0.1], {Ám/q (e) = valor resultante ± δm/q}.

Este aserto mejorado incluye la mentada restricción en su rango de aplicación. Representémosla como:

[Ám/q (e); δm/q, Dv/c]

Hay, además, un hecho histórico adicional. Los valores para la relación carga/masa arrojados por todas las teorías del electrón empíricamente laureadas han resultado en relaciones cada vez más cercanas al valor actual. Los asertos completamente equivocados no muestran este tipo de convergencia. Representando la proximidad al valor actual con aun otro parámetro, “εm/q,", la cercanía entre el resultado thomsoniano y la más reciente determinación de la relación carga/masa nos es dada por:

m/q) = | valor (teoría de Thomson) – estimado actual |

= 0.28 x 10-7 gr/esu.

Así obtenemos la siguiente forma para la generalización de la relación carga/masa del electrón:

[Ám/q (e); δm/q, εm/q, Dv/c]

Entonces, y aunque equivocada en su conjunto, la física clásica logró develar algunas verdades importantes sobre el electrón. Más aun, y como lo notaran justamente Bain y Norton, la física clásica proyectó virtualmente todos los rasgos que fueran exitosamente pronosticados hasta 1925. Aunque determinados con la ayuda de "teorías pasadas", los valores calculados para esos rasgos son, sin embargo, remarcablemente próximos a las estimaciones corrientes. Por ejemplo, guiándose también por el procedimiento clásico que empleara Thomson, unos pocos años después Robert Millikan estableció que todos los electrones tienen la misma unidad de carga de [4.774 ± 0.001] x 10-10 esu, a la que identificó con el valor atómico de carga en la naturaleza. El estimado actual para la carga del electrón es de [4.80325 ± 0.00001] x 10-10 esu.

Desde una perspectiva contemporánea, Thomson obtuvo un valor para (m/q)e un tanto equivocado, y Millikan obtuvo un valor un tanto equivocado de la carga del electrón; pero sus respectivos resultados no fueron absolutamente desacertados. Otras propiedades arrojaron estimados similarmente imperfectos. Pero otra vez los valores obtenidos no fueron del todo erróneos, y se optimizaron paulatinamente gracias a las teorías subsiguientes aplicadas junto a mejores técnicas experimentales. El aserto mayor que hiciera Millikan sobre la carga en los sistemas físicos también se equivocó en su alcance: resultó que no todas las partículas con carga llevan números enteros de la carga del electrón (los quarks llevan 1/3 de ese valor).

Aun así, lo relevante aquí es que resultados importantes derivados de abordajes estrictamente clásicos del electrón se probaron bastante acertados y se fueron mejorando con las teorías sucesivas. Los realistas debaten que estos hechos aparentemente modestos sobre la teoría de la sucesión serían sorprendentes en extremo si es que tales asertos, derivados de la física clásica, fueran básicamente verdaderos (por lo menos una vez que se expliciten restricciones como la anterior). Pero esta especie de convergencia no es, según los realistas, algo que se encuentre en secuencias de conceptos meramente imaginativos. Ciertamente, cada teoría subsiguiente del electrón trajo consigo cambios en el marco conceptual en el que sus descripciones se encontraban alojadas. Pero, como Bain y Norton y otros nos insisten, las descripciones matemáticas de algunos aspectos claves develados en cada etapa se han mantenido incontestadas desde aquel entonces.

Sugeriría, sin embargo, que veamos más que la acumulación de descripciones matemáticas en la sucesión de teorías en cuestión24. Descripciones físicas muy matizadas de aspectos claves del electrón y otros sistemas, incluyendo elaboradas narrativas teóricas develadas en cada una de las etapas, han sido nuevamente pasadas por alto (y una vez más, dentro del marco de restricciones especificadas en las etapas subsiguientes). De ser el caso, el aserto realista más contundente que se puede hacer es que, en muchos respectos, los electrones son tales como nos dice la física clásica. De seguro, los desarrollos en la mecánica cuántica desde mediados de la década de 1920 en adelante han enriquecido ampliamente a la representación del electrón, pero las nuevas teorías resultantes han, nuevamente, "mantenido" cuantiosos resultados derivables de la física newtoniana clásica, aunque por lo general no con propiedades tan atildadas, sino más bien con promedios mecánicos cuánticos. Más aún, las relaciones nomológicas y espaciales que involucran a electrones, átomos y demás se recuperan como relaciones en promedios mecánicos cuánticos, típicamente vía teoremas de corte ehrenfestiano.

3. Algunas posibles objeciones

Llegado este punto, los críticos podrían querer repetirnos algunas antiguas quejas respecto al progreso epistémico, sobretodo las siguientes dos. En primer lugar, puede objetarse que un progreso acumulativo, como el que se observa en los casos históricos citados, meramente expresa un fracaso perdurable de la imaginación. En segundo lugar, los críticos pueden subrayar que, ya que las disciplinas maduras generalmente conducen una revisión teórica guiada por "principios de correspondencia", encontrar una cierta invariancia estructural a través de teorías es de esperarse. Tales objeciones tienen una credibilidad inicial pero, propondré, no son convincentemente fuertes en el marco de las ciencias maduras. Examinémoslas, pues.

(1) En reiteradas ocasiones desde fines del siglo XVII, el pensamiento científico moderno se abrió a posibilidades que antes habrían estado "allende la imaginación humana", hasta el punto de que haya muy poca ciencia que no haya sido expuesta como contingente (y por ende y en principio, revisable). Es así como la noción de que los componentes estables de las teorías previas atestiguan, sobre todo, a limitaciones en la imaginación científica, no calza con la profundidad de las revisiones conceptuales emprendidas exitosamente por las ciencias físicas y biológicas en el curso de los últimos 150 años. Con esto no quiero decir que no haya casos de fracasos de la imaginación en la ciencia pretérita. El caso es que la ciencia opera entre patrones teóricos bien afincados que, a su vez, orientan a la investigación. Pero los patrones recibidos pueden paralizar a la imaginación científica. Se nos viene otra vez a la mente el supuesto del éter. En 1850, las "características esenciales" del comportamiento de ondas estaba bien afianzado, así como lo estuvieron las características de la interacción electromagnética en 1900. La mayoría de los científicos pensaba que la física no podía cambiar este y otros elementos estables que luego resultaron ser equivocados. No se puede negar, entonces, que ciertos patrones teóricos duraderos pueden no solo carecer de significado realista, sino hasta obstaculizar a la imaginación científica. Pero, a mi parecer, esto simplemente significa que defender al realismo exige más que contar con patrones duraderos. En otras palabras, solo las propuestas racionalmente creíbles pueden ser candidatas a la interpretación realista. Sobre este particular, quisiera referirme a la epistemología de la predicción que articulara en primera instancia Leplin25. Esta es especialmente relevante en los análisis diacrónicos de las aplicaciones de una teoría recomendada en la subdivisión 2.2. Los patrones duraderos carecen de peso óntico salvo que estén, a su vez, alojados dentro de teorías que se hayan probado exitosas al momento de hacer predicciones novedosas. Considero que este aspecto de la epistemología del poder predictivo está en el meollo de la apertura mental con la que asociamos al pensamiento científico moderno (sobre todo según lo atestiguan los desarrollos en campos como la física del siglo XIX, la relatividad, la física cuántica, la geofísica, la biología molecular, la biología evolutiva y la cosmología).

(2) El uso de reglas de correspondencia en el desarrollo de teorías introduce, desde un inicio, una expectativa de que las teorías pasadas atinaron "en algo". Pero aunque este sea el caso, de manera alguna garantiza que las teorías sucesivas así producidas vayan a arrojar predicciones propiamente novedosas, y mucho menos que estas vayan a confirmarse como verdaderas. Insistiría, entonces, en que la imputación de que la acumulación teórica es solamente un rasgo artificioso se desvanece si la acumulación en cuestión proviene de sitios distintos a los establecidos por las reglas de correspondencia. Pero, ¿lo hace acaso? Pareciera ser que sí. Si una teoría sucesiva T’ aporta nuevas predicciones confirmadas, entonces el conocimiento ganado no puede apuntar a ninguna de las reglas de correspondencia sentadas (caso contrario, las predicciones no podrían haber contado a favor de T’). Debe, pues, señalar hacia el nuevo tejido teórico provisto por T’. Teorías sucesivas que, una vez instaladas, se hagan de credibilidad mediante predicciones novedosas se granjean su acreditación epistémica independientemente de cuáles sean las teorías previas a las que se reduzcan en algunas condiciones limitantes. Vale también repetir la vieja observación según la cual las reglas de correspondencia son semánticamente complejas. Normalmente toma tiempo inferir su significado e importancia26.

4. Conclusiones

El debate sobre el realismo de las últimas tres décadas ha llevado a una concepción muy mejorada del realismo científico. Parecería que hoy la pregunta no es si cualquier teoría T sobre un dominio en particular es "la" teoría sobre el mismo, ni si hay una mejor teoría al respecto. Las cuestiones relevantes son: (a) si es que T explica al dominio "suficientemente bien", y (b) si T despliega un éxito predictivo lo bastante impresionante (y de ser el caso, si la evaluación diacrónica develará ganancias en el conocimiento teórico, imputables a partes originales de T).

He propuesto una articulación "realista" del vínculo científico entre el éxito y la ganancia en conocimiento teórico. Tal como se ha observado, la articulación propuesta gira en torno a una aproximación diacrónica a la fragmentación teórica y el progreso científico que le da cabida al compromiso realista, pese al fracaso global referencial y a la infradeterminación empírica efectiva ubicables a varios niveles de la teorización. Busca aclarar y robustecer la idea de que la examinación empírica contribuye al progreso en conocimiento teórico, y que las teorías respaldadas por predicciones exitosas generalmente hacen avanzar el conocimiento del mundo.

Es así como procede el compromiso realista. ¿Pero de qué realismo hablamos exactamente? Si nuestras consideraciones previas fuesen básicamente correctas, entonces el realismo tiene que ver con relatos y narrativas teóricas específicas (actuales o pasadas) concernientes a hechos remotos a la inspección directa y a componentes restringidos de las teorías; tocantes a estructuras e historias en el mundo que incluyen descripciones detalladas del devenir del universo material y de su historia, a la estructura física de múltiples sistemas microscópicos (sub-nucleares, atómicos, moleculares, así como a sus niveles de energía; al arreglo espacial de miríadas de moléculas y su dependencia de condiciones previas), a numerosas historias específicas de evoluciones astrofísicas y planetarias, a historias detalladas de la evolución de las estructuras biológicas y de las especies sobre la Tierra, a una muy buena parte de nuestra propia historia, y mucho más.

Como las propuestas realistas defendidas por KL&P, la versión aquí presentada nos aconseja no tratar Ts in toto. A diferencia de sus propuestas, sin embargo, se dejan a un lado las distinciones entre asertos ociosos/útiles o esenciales/inesenciales. Como KL&P han notado, buena parte de la concepción de Fresnel estaba en lo correcto –lo bastante como para explicar el éxito de cada una de sus teorías–, pero no concuerdo con su sugerencia de que la teoría de Fresnel era sobre la propagación en forma de ondas, sea como fuere que la luz estuviese constituida. La teoría de Fresnel trataba sobre una luz mecánica que, resulta ser, no existe.

 

Traducción del inglés de Mónica Belevan.

 


* Filosofía Analítica, organizado por la Pontificia Universidad Católica del Perú y por la Universidad Nacional Mayor de San Marcos (Lima, junio de 2008) y en el XX World Congress of Philosophy (Seúl, julio de 2008). Le agradezco a los participantes de estos eventos sus valiosos comentarios y sugerencias.

  1. Holcomb ("Falsely So-called: The Theological Case Against Scientific Realism", en: Quodlibet Journal, III (2001) [http://www.quodlibet.net/articles/holcomb-realism.shtml]) nos dota de un elocuente ejemplo de esta reacción. Sus fuentes parecen remontarse a algunas obras de J.P. Moreland (cf. por ejemplo, Moreland, J.P., Christianity and Nature of Science, Grand Rapids: Baker Book House, 1989, pp. 153-165) y a ideas constructivistas sobre la naturaleza de los hechos científicos de fines de los años setenta y de los ochenta (tal como se las presenta en, por ejemplo: Latour, Bruno y otros, Laboratory Life, Princeton: Princeton University Press, 1979).

  2. Cf. Van Fraassen, Bas, The Scientific Image, Nueva York: Oxford University Press, 1980.

  3. Cf. Laudan, Larry, "A Confutation of Convergent Realism", en: Philosophy of Science, XLVIII (1981), pp. 19-49.

  4. Representado por Dudley Shapere, Jarrett Leplin, entre otros.

  5. Representada por Kitcher, Leplin, Psillos, entre otros. 

  6. Cf. Giere, Ronald, Scientific Perspectivism, Chicago: University of Chicago Press, 2006.

  7. De aquí en adelante referidos como KL&P.

  8. Ver, por ejemplo: Ladyman, James, "Structural Realism", en: Stanford Encyclopedia of Philosophy [http://plato.stanford.edu/entries/structural-realism] y, del mismo autor, Understanding Philosophy of Science, Nueva York: Routledge, 2002.

  9. Cf. Giere, Ronald, o.c. 

  10. Cf. Worrall, J., "Structural Realism: The Best of Both Worlds?", en: Dialectica, XLIII (1989), pp. 99-124.

  11. Para más información, cf. Whittaker, E.T., A History of The Theories of Aether and Electricity: From the Age of Descartes to the Close of the Nineteenth Century (1910), Whitefish: Kessinger Publishing, 2007.

  12. Leplin, Jarrett, A Novel Defense of Scientific Realism, Nueva York: Oxford University Press, 1997, p. 145.

  13. La primera presentación elaborada de esta línea de razonamiento en particular parece darse en Kitcher, Philip, The Advancement of Science. Oxford: Oxford University Press, 1993.

  14. Cf. Ladyman, James, o.c.

  15. Cf. Psillos, Stathis, Scientific Realism: How Science Tracks Truth. Londres: Routledge, 1999.

  16. Salvo, claro, que uno esté dispuesto a concederle una identificación retrospectiva, en cuyo caso los constituyentes teóricos que supuestamente contribuyeran al éxito de las teorías pasadas pueden considerarse como aquellos retenidos por las teorías subsiguientes.

  17. Cf. Balashov, Yuri, "Duhem, Quine, and the Multiplicity of Scientific Tests", en: Philosophy of Science, LXI (1994), pp. 608-628.

  18. Cf. Giere, Ronald, o.c.; y, del mismo autor, Understanding Science, Nueva York: Holt, Rinehart, and Winston, 1984.

  19. Cf. Leplin, Jarrett, o.c.

  20. Considérese, sino, la concepción einsteiniana de las ondas electromagnéticas como entidades físicas carentes de un medio, o su principio de que la velocidad de la luz en un vacío es la misma en todos los marcos de referencia, y así sucesivamente.

  21. Ver, por ejemplo, Cordero, Alberto, "Realism and Underdetermination: Some Clues From the Practices-Up", en: Philosophy of Science, LXVIII (2001), pp. 301-312.

  22. Esta unidad se introdujo en 1a década de 1840 para explicar las propiedades químicas de los átomos.

  23. Cf. Bain, Jonathan y John Norton, "What Should Philosophers of Science Learn from the History of the Electron?" en: Buchwald, J.Z. y A. Warwick (eds.), Histories of the Electron, Cambridge, Mass.: The MIT Press, 2004, pp. 451-465.

  24. Cf. Cordero, Alberto, "Retrospective Realism and Scientific Progress", en: 13th International Congress of Logic, Methodology, and Philosophy of Science, Beijing: International Union of History and Philosophy of Science, 2007, pp. 229-230.

  25. Cf. Leplin, Jarrett, o.c.

  26. Un sistema cuántico no se vuelve "clásico" en la medida en que la relación entre la constante de Planck y su magnitud de acción se acerque a cero, o nada por el estilo.