Durante siglos, la ciencia ha desempeñado un papel fundamental en el florecimiento de la civilización gracias a su capacidad para dotarnos de una explicación acerca de cómo funciona el mundo y para anticipar las consecuencias de un curso causal determinado. Explicación cabal y prognosis eficiente son, en suma, las dos palabras clave que caracterizan los principales activos de la ciencia.
Tradicionalmente, y en especial desde que el Círculo de Viena analizara esta cuestión, la explicación y la predicción científicas se han considerado dos caras de la misma moneda: si se tiene una explicación científica genuina de un fenómeno, entonces habría sido posible predecirlo, y si puede predecirse científicamente un fenómeno, entonces es posible explicarlo. Es lo que se denomina la «tesis de la simetría». De acuerdo con ella, explicación y predicción comparten la misma estructura lógica. El mismo argumento que nos sirve para explicar el fenómeno una vez que sabemos que este se ha producido nos habría permitido predecirlo antes de que se produjera. La diferencia entre explicar y predecir es, pues, únicamente pragmática. Se reduce al momento en que se formula el argumento: si se formula antes de conocer el fenómeno, predecimos; si se formula después, explicamos.
Cabe admitir que, en ciertos fenómenos, como pueden ser los biológicos —especialmente los evolutivos— o los sociales, la complejidad de los factores que intervienen genera dificultades de tipo práctico para realizar predicciones realmente precisas y podemos tener explicaciones aceptables que no lleven a predicciones relevantes. Sin embargo, en lo que se refiere a la posibilidad inversa, es decir, a la de predecir sin tener capacidad para explicar, se estima que no se dispone de una predicción científica genuina si no se puede proporcionar con los mismos recursos teóricos una explicación de los fenómenos concernidos.
Sin embargo, a día de hoy este escenario no es tan firme como lo era hace unos años. Para empezar, la tesis de la simetría entre explicación y predicción recibió, ya desde el comienzo, críticas de entidad considerable. Como han argumentado diversos autores, la predicción científica podría basarse en un conjunto de datos sin necesidad de recurrir a ninguna ley, careciendo, por tanto, de capacidad explicativa. Tomemos el caso de los sistemas sensibles a las condiciones iniciales o, en lenguaje más popular, el de los sistemas que presentan el llamado «efecto mariposa». Se trata de sistemas caóticos cuyo comportamiento puede ser explicado científicamente mediante leyes deterministas. Sin embargo, su resultado final es altamente imprevisible en la práctica, debido a los efectos multiplicadores que experimentan las diferencias infinitesimales en las condiciones iniciales de las que se parte en cada caso concreto.
Por otro lado, hace ya tiempo que percibimos señales de que nuestra capacidad de construir modelos científicos que permitan explicar el mundo se está enfrentando con algunos límites epistémicos. Esto resulta cada vez más obvio en campos como los de la astrofísica o la biología. En astrofísica, la teoría inflacionaria del universo o la propuesta teórica de los multiversos han sido criticadas por la imposibilidad de ser sometidas a contrastación empírica, lo cual las alejaría del cumplimiento de un requisito considerado hasta ahora básico para cualquier teoría científica. En el caso de la teoría inflacionaria del universo, existen demasiados modelos que no pueden ser discriminados en función de la evidencia disponible, o como suele decirse con un tecnicismo, se trata de modelos infradeterminados por la evidencia empírica. Cierto que estos modelos conducen a predicciones distintas, pero la flexibilidad de la teoría permite que cualquier dato empírico pueda ser finalmente acomodado, impidiéndose así la falsabilidad de dicha teoría. Algo similar puede decirse de la teoría de los multiversos, al menos en algunas de sus versiones: no conduce a predicciones contrastables empíricamente y, por tanto, su carácter científico podría ser cuestionado sobre esa base. Esto mismo, por cierto, se ha sostenido con respecto a otra teoría física de gran relevancia, como es la teoría de cuerdas.
En biología, la investigación actual muestra que el funcionamiento de los mecanismos genéticos resulta extremadamente más complejo de lo que suponíamos hace unos años. La posibilidad de dominar nuestro ADN se nos escapa paulatinamente, no ya solo por las múltiples relaciones entre unos genes y otros, sino por la conciencia creciente del papel esencial que desempeña la epigenética en su expresión concreta. De ahí la dificultad de situar nuestras esperanzas en la aparición de un modelo científico capaz de proporcionarnos una explicación detallada sobre cómo funciona el genoma en toda su complejidad y, menos aún, que sea tan preciso como para confiar ciegamente en su capacidad de prognosis.
Cada vez resulta más evidente que los métodos empleados tradicionalmente por la ciencia ya no son adecuados para satisfacer plenamente las necesidades de la propia ciencia. La complejidad del mundo que se pretende modelar ha superado esas capacidades. Si durante un tiempo no hemos procedido a emplear una alternativa a su monopolio, ha sido porque no la había. Ahora, no obstante, las circunstancias están cambiando. Hace ya tiempo que conocemos algunos casos de acciones humanas exitosas basadas en metodologías que no siguen patrones científicos tradicionales. Quizás un buen ejemplo, tal como señalaba en Wired Chris Anderson, sea la secuenciación génica aleatoria (shotgun gene sequencing), usada por Craig Venter en Celera Genomics para obtener la secuencia completa del genoma humano. Esta técnica puede considerarse una pionera del cambio a gran escala representado por la aparición de unas herramientas nuevas, los algoritmos computacionales (en este caso algoritmos ensambladores) y una nueva forma de entender la función de la computación en la ciencia.
Se hace cada vez más verosímil
una situación en que la fuerza
[predictiva] de la inteligencia artificial
acabe por desplazar a la teorización científica
La aparición de los algoritmos, y especialmente de algoritmos predictivos, es el resultado del uso combinado de unas posibilidades de almacenamiento y procesamiento de datos nunca antes conocidos. Estas herramientas son capaces de desplegar una capacidad predictiva que supera ya —y en un futuro es previsible que supere aún en mayor medida— la que puede proporcionarnos cualquier modelo desarrollado siguiendo los métodos científicos tradicionales. Por citar un ejemplo que saltó a la prensa en mayo, un equipo japonés ha presentado en la revista Heart un algoritmo que predice con un 90 por ciento de aciertos la incidencia de paros cardíacos en función de ciertas condiciones meteorológicas.
La metodología científica tradicional se basa en la contrastación empírica de hipótesis y modelos teóricos acerca del comportamiento de los fenómenos; hipótesis y modelos que pueden resultar confirmados o falsados. Los algoritmos predictivos, en cambio, no siguen ese patrón. Su creación parte de la inferencia de correlaciones entre diferentes variables sobre la base de un análisis estadístico automatizado de enormes bases de datos. Los algoritmos nunca buscan causalidades, sino solo correlaciones. De ahí, por supuesto, que no expliquen, sino que solo anticipen. Pero algunos predicen con una exactitud que desafía a lo que ha podido lograr la ciencia hasta este momento.
La cuestión fundamental que plantea este escenario es que se hace cada vez más verosímil una situación en que la fuerza de la inteligencia artificial acabe por desplazar a la teorización científica en muchos campos, al menos en lo que se refiere a su función predictiva. Probablemente, el punto de inflexión se produzca el día en que tengamos que decidir qué curso de acción queremos seguir cuando ambas estrategias planteen soluciones inconciliables. Si en ese momento nos decantamos por la opción que recomienda la IA, esto es, la opción antiteórica, habremos dado un paso difícil de revertir. Porque en ese momento certificaremos nuestra preferencia por la funcionalidad y alta precisión de la predicción estadística antes que por las explicaciones aproximadamente verdaderas proporcionadas por las teorías y las hipótesis científicas.
Ese momento, de hecho, ha llegado en algunos ámbitos, en los que la posibilidad de trazar predicciones exactas y detalladas a través de diversos algoritmos ha provocado que ya no se profundice en los mecanismos o lazos causales que llevan de un fenómeno a otro, y, en consecuencia, no se nos proporciona una comprensión cabal del modo en que acontecen dichos fenómenos. Ciertamente, estas predicciones exactas pero sin capacidad explicativa pueden servir para poner a prueba y mejorar modelos explicativos, o incluso orientar en el hallazgo de otros nuevos. Sin embargo, poner todo el peso en ellas descuidando la importancia de los modelos causales implica un abandono claro de una de las dos finalidades principales de la ciencia: la de proporcionar explicaciones además de predicciones.
El que todavía no nos hayamos dado cuenta de la enorme magnitud del cambio que se avecina no le resta un ápice de importancia. En suma, parece que se abre ante nuestros ojos un futuro en que es probable que la ciencia (tal y como tradicionalmente hemos entendido este concepto) pase a ser principalmente, si no únicamente, un recurso explicativo, mientras que su antiguo rol de anticipación de escenarios futuros será desempeñado por los sistemas basados en la inteligencia artificial. Y no parece que ese futuro vaya a esperar demasiado para hacerse presente.
Fuente:
¿Explicar o predecir? (s. f.). Recuperado 23 de junio de 2021, de https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/al-rescate-del-coral-837/explicar-o-predecir-20016