Está surgiendo un cisma en la empresa científica. Por un lado está la mente humana, la fuente de cada historia, teoría y explicación que nuestra especie aprecia. Por otro lado, están las máquinas, cuyos algoritmos poseen un asombroso poder de predicción, pero cuyo funcionamiento interno sigue siendo radicalmente opaco para los observadores humanos. A medida que los humanos nos esforzamos por comprender la naturaleza fundamental del mundo, nuestras máquinas producen predicciones prácticas y mensurables que parecen extenderse más allá de los límites del pensamiento. Si bien la comprensión puede satisfacer nuestra curiosidad, con sus narrativas sobre causa y efecto, la predicción satisface nuestros deseos, mapeando estos mecanismos en la realidad. Ahora nos enfrentamos a una elección sobre qué tipo de conocimiento es más importante, así como a la cuestión de si uno se interpone en el camino del progreso científico.
Hasta hace poco, la comprensión y la predicción eran aliadas contra la ignorancia. Francis Bacon fue uno de los primeros en reunirlos en los primeros días de la revolución científica, cuando argumentó que los científicos deberían estar fuera de casa en el mundo, jugando con sus instrumentos. Este enfoque, dijo, evitaría la dolorosa estasis y la circularidad que caracterizaron los intentos escolares de enfrentarse a la realidad. En su Novum Organum (1620), escribió:
Nuestro nuevo método de descubrir las ciencias es tal que deja poco a la agudeza y fuerza del ingenio, y más bien a la nivelación del ingenio y el intelecto. Porque como en el dibujo de una línea recta o un círculo preciso con la mano, mucho depende de su firmeza y práctica, pero si se emplea una regla o un compás, hay poca ocasión para ambos; así es con nuestro método.
Bacon propuso, perfectamente razonablemente, que la percepción y la razón humanas deberían aumentarse con herramientas, y por estos medios escaparían del laberinto de la reflexión.
Isaac Newton adoptó con entusiasmo la filosofía empírica de Bacon. Pasó una carrera desarrollando herramientas: lentes físicos y telescopios, así como ayudas mentales y descripciones matemáticas (conocidas como formalismos ), todo lo cual aceleró el ritmo de los descubrimientos científicos. Pero ocultas en esta creciente dependencia de los instrumentos estaban las semillas de una divergencia desconcertante: entre lo que la mente humana podía discernir sobre los mecanismos subyacentes del mundo y lo que nuestras herramientas eran capaces de medir y modelar.
Hoy en día, esta brecha amenaza con hacer estallar todo el proyecto científico. Parece que hemos alcanzado un límite en el que la comprensión y la predicción (mecanismos y modelos) se están desalineando. En la era de Bacon y Newton, los relatos del mundo que eran manejables por la mente humana y las predicciones que podían probarse se unían en un círculo virtuoso. Teorías convincentes, respaldadas por observaciones del mundo real, han avanzado la comprensión de la humanidad de todo, desde la mecánica celeste hasta el electromagnetismo y la genética mendeliana. Los científicos se han acostumbrado a la comprensión intuitiva expresada en términos de reglas y leyes dinámicas, como la teoría de la selección natural de Charles Darwin o el principio de surtido independiente de Gregor Mendel,
Pero en una era de ‘macrodatos’, el vínculo entre comprensión y predicción ya no es cierto. La ciencia moderna ha logrado un progreso sorprendente en la explicación del fruto de los átomos, la luz y las fuerzas. Ahora estamos tratando de llegar a un acuerdo con el mundo más complejo, desde las células hasta los tejidos, desde el cerebro hasta los sesgos cognitivos, desde los mercados hasta el clima. Los algoritmos novedosos nos permiten pronosticar algunas características del comportamiento de estos sistemas adaptativos que aprenden y evolucionan, mientras que los instrumentos recopilan cantidades sin precedentes de información sobre ellos. Y aunque estos modelos estadísticos y predicciones a menudo hacen las cosas bien, es casi imposible para nosotros reconstruir cómo lo hicieron. La inteligencia instrumental, típicamente una inteligencia de máquina, no solo es resistente sino a veces activamente hostil a la razón. Estudios de datos genómicos, por ejemplo, puede capturar cientos de parámetros (paciente, tipo de célula, condición, gen, ubicación genética y más) y vincular el origen de las enfermedades con miles de factores potencialmente importantes. Pero estos conjuntos de datos ‘de alta dimensión’ y las predicciones que proporcionan desafían nuestra mejor capacidad para interpretarlos.
Si pudiéramos predecir el comportamiento humano con modelos newtonianos y cuánticos, lo haríamos. Pero no podemos. Es esta confrontación honesta entre ciencia y realidad compleja lo que produce el cisma. Algunos críticos afirman que es nuestro propio antropocentrismo obstinado, una insistencia en que nuestras herramientas ceden a nuestra inteligencia, lo que está impidiendo el avance de la ciencia. Si tan solo dejáramos de preocuparnos por aplacar las mentes humanas, dicen, podríamos usar máquinas para acelerar nuestro dominio sobre la materia. Una simulación de inteligencia por computadora no necesita reflejar la estructura del sistema nervioso, como tampoco un telescopio refleja la anatomía de un ojo. De hecho, el radiotelescopio proporciona un ejemplo convincente de cómo un mecanismo radicalmente novedoso y no óptico puede superar una función puramente óptica.
La gran divergencia entre comprensión y predicción se hace eco de la visión de Baruch Spinoza sobre la historia: “Los cismas no se originan en un amor por la verdad … sino más bien en un deseo desordenado de supremacía”. La batalla que tenemos por delante es si los cerebros o los algoritmos serán soberanos en el reino de la ciencia.
PAGSLas aradoxes y sus primos perceptivos, las ilusiones, ofrecen dos ejemplos fascinantes de la enredada relación entre predicción y comprensión. Ambos describen situaciones en las que pensamos que entendíamos algo, solo para enfrentarnos a anomalías. La comprensión se comprende menos de lo que parece.
Algunas de las ilusiones visuales más conocidas ‘cambian’ entre dos interpretaciones diferentes del mismo objeto, como el jarrón de cara, el conejo-pato y el cubo de Necker (un cubo de estructura metálica que se percibe en una de dos orientaciones, con cualquier cara más cercano al espectador). Sabemos que los objetos en la vida real realmente no cambian en un centavo como este, y sin embargo, eso es lo que nuestros sentidos nos están diciendo. Ludwig Wittgenstein, que estaba obsesionado con la ilusión pato-conejo, sugirió que uno ve un objeto de manera secundaria siguiendo una interpretación primaria, en lugar de comprender un objeto solo después de haberlo visto. Lo que vemos es lo que esperamos ver.
El científico cognitivo Richard Gregory, en su maravilloso libro Seeing Through Illusions (2009), los llama “fenómenos extraños de percepción que desafían nuestro sentido de la realidad”. Explica cómo suceden porque nuestra comprensión se basa en las predicciones de múltiples sistemas de reglas diferentes, aplicados fuera de contexto. En el cubo de Necker, cada percepción es consistente con los datos perceptuales en el espacio tridimensional. Pero la ausencia de pistas de profundidad significa que no tenemos forma de decidir qué interpretación es la correcta. Así que cambiamos entre las dos predicciones debido a una falta de comprensión espacial suficiente.
Las paradojas, como las ilusiones, obligan a la intuición a chocar con hechos aparentemente básicos sobre el mundo. Las paradojas son conclusiones de argumentos u observaciones válidos que parecen contradictorios o lógicamente insostenibles. Surgen con frecuencia en las ciencias naturales, sobre todo en la física, tanto en sus encarnaciones filosóficas como científicas. La paradoja de los gemelos , la paradoja de Einstein-Podolsky-Rosen y el gato de Schrödinger son todas paradojas que se derivan de la estructura fundamental de la relatividad o la mecánica cuántica. Y estas son bastante distintas de las paradojas observacionales como la dualidad de onda de partículas observada en el experimento de doble rendija. . Sin embargo, en ambas categorías de paradojas, la comprensión humana basada en el razonamiento causal cotidiano no se alinea con el resultado predicho de los experimentos.
Cuando las reglas se aplican a entradas que no son de la misma estructura, podemos esperar rarezas
Incluso las máquinas pueden sufrir paradojas. La ‘paradoja de Simpson’ describe la forma en que una tendencia que aparece de forma independiente en varios conjuntos de datos puede desaparecer o incluso revertirse cuando se combinan, lo que significa que un conjunto de datos se puede utilizar para respaldar conclusiones contrapuestas. Esto ocurre con frecuencia en el deporte, donde los jugadores individuales superan a los demás en una temporada determinada. Sin embargo, cuando se combinan varias temporadas, estos jugadores ya no lideran, debido a diferencias absolutas como el total de juegos jugados, el número de veces que batea, etc. También existe algo conocido como una ‘paradoja de precisión’, donde los modelos parecen funcionar bien. por razones completamente circulares, es decir, sus soluciones se integran esencialmente en sus muestras. Esto se encuentra detrás de numerosos ejemplos de sesgo algorítmico donde las minorías basadas enLa raza y el género a menudo se clasifican erróneamente, porque los datos de entrenamiento utilizados como punto de referencia para la precisión provienen de nuestro propio mundo sesgado e imperfecto.
Quizás el trabajo más riguroso sobre la paradoja fue realizado por Kurt Gödel en Proposiciones formalmente indecidibles de Principia Mathematica y sistemas relacionados (1931) . Gödel descubrió que en todo sistema matemático estrictamente formal, hay enunciados que no pueden ser confirmados o refutados incluso cuando se derivan de los axiomas del propio sistema. Los axiomas de un sistema formal permiten la posibilidad de contradicciones, y son estas contradicciones las que constituyen la base de la experiencia de la paradoja. La idea básica de Gödel era que cualquier sistema de reglas tiene un dominio natural de aplicación, pero cuando las reglas se aplican a entradas que no son de la misma estructura que guió el desarrollo de las reglas, entonces podemos esperar rarezas.
Esto es exactamente lo que puede suceder con las redes neuronales adversas, donde dos algoritmos compiten para ganar un juego. Una red puede estar entrenada para reconocer un conjunto de objetos, como señales de alto. Mientras tanto, su oponente podría realizar algunas modificaciones menores maliciosas en un conjunto de datos nuevo, por ejemplo, señales de alto con algunos píxeles movidos, lo que lleva a la primera red en categorizar estas imágenes como cualquier cosa, desde señales de giro a la derecha hasta señales de límite de velocidad. Las clasificaciones adversarias parecen una tontería extrema desde el punto de vista humano. Pero, como apreciaría Gödel, podrían ser errores perfectamente naturales desde la perspectiva de los sistemas de reglas invisibles codificados en la red neuronal.
Lo que la paradoja y la ilusión nos muestran es que nuestra capacidad para predecir y comprender depende de deficiencias esenciales del pensamiento, y que las limitaciones para lograr la comprensión pueden ser muy diferentes de las que limitan la predicción. De la misma manera que la predicción está fundamentalmente limitada por la sensibilidad de la medición y las deficiencias de la computación, la comprensión se ve mejorada y disminuida por las reglas de inferencia.
TLa pregunta sobre qué entendemos por “límites” arroja luz sobre por qué los humanos se sienten atraídos por todas estas máquinas y formalismos en primer lugar. La evolución de la cultura científica, y de la tecnología en su sentido más amplio, es una colección de medios para romper los límites de la cognición y el lenguaje, límites que son la bête noir de Bacon en Novum Organum.
La relación entre comprensión y predicción corresponde a un vínculo entre ontología (comprensión de la verdadera naturaleza del mundo) y epistemología (el proceso de adquirir conocimiento sobre el mundo). El conocimiento basado en experimentos puede romper las barreras de nuestra comprensión existente y producir una apreciación de características nuevas y fundamentales de la realidad; a su vez, esas leyes fundamentales permiten a los científicos generar nuevas predicciones para probarlas en el mundo. Cuando la rama de las matemáticas conocida como ‘ teoría de conjuntos‘se demostró que daba lugar a paradojas, el desarrollo posterior de algo conocido como’ teoría de categorías ‘vino al rescate para superar en parte estas limitaciones. Cuando el modelo ptolemaico del sistema solar o el modelo newtoniano de la mecánica generaron expectativas astronómicas incorrectas, se introdujo la relatividad para capturar el comportamiento anómalo de grandes masas en movimiento rápido. De esta manera, la base ontológica de una teoría se convirtió en la base de nuevas y mejores predicciones; la ontología engendró la epistemología.
Pero una vez que el progreso científico alcanza un cierto límite, la ontología y la epistemología parecen convertirse en enemigas. En la mecánica cuántica, el principio de incertidumbre establece que el momento y la posición de una partícula no pueden conocerse perfectamente. Describe tanto una restricción para realizar mediciones perfectamente precisas (epistemología) como parece involucrar un argumento sobre un mecanismo que crea la inseparabilidad esencial de la posición y el momento en la escala cuántica (ontología). En la práctica, la mecánica cuántica implica aplicar la teoría de manera efectiva para predecir un resultado, no intuir el mecanismo que produce el resultado. En otras palabras, la ontología es absorbida por la epistemología.
Por el contrario, el campo de los mecanismos fundamentales en la mecánica cuántica busca romper este límite y dar una explicación de por qué la teoría cuántica es tan predictiva. La interpretación de los “muchos mundos”, por ejemplo , elimina el fantasma cuántico en favor de la increíble proposición de que cada observación engendra un nuevo universo. La emoción de trabajar en este límite es la forma en que la investigación intelectual centellea entre la apariencia de la predicción y la comprensión. No es una tarea trivial distinguir entre el problema epistemológico y el ontológico aquí; están estrechamente relacionados, incluso “acoplados” o “entrelazados”.
Una forma despiadada de hacer que el problema desaparezca es simplemente declarar que, en los límites adecuados, la ontología se desvanece: el juego de manos preciso realizado por la escuela de mecánica cuántica de Copenhague, cuya máxima pasivo-agresiva era: ‘Cállate y calcula’. ! ‘ (en la notoria acuñación de David Mermin). Deje de parlotear sobre posibles explicaciones del fantasma cuántico, en otras palabras; la búsqueda de mecanismos fundamentales es una pérdida de tiempo. Hoy en día, sin embargo, es la computadora moderna, más que el teórico cuántico, la que está desprovista de cualquier inclinación a hablar y no tiene ningún deseo de hacer nada más que calcular silenciosamente e inescrutablemente.
Comprender el habla no era el objetivo; predecir la traducción correcta fue
Pocos científicos se conformarían con un trato intelectual tan miserable. En ciencia, es casi una perogrullada decir que una buena teoría es elegante : codifica una explicación simple (o ‘parsimoniosa’) que se puede comprender y comunicar intuitivamente. Una buena teoría, según esta visión de las cosas, permite a una persona tener un concepto en su totalidad en el ojo de la mente, para improvisar un universo interno en miniatura. En algunos dominios, en particular la física matemática, convergen el universo en miniatura del relato humano y el gran universo de la realidad. Tanto las manzanas como los planetas siguen trayectorias descritas por las mismas ecuaciones de movimiento. Esta feliz coincidencia se puede describir de diversas formas como “consonancia”, “conformabilidad” o la existencia de “leyes invariantes de escala”.
La más sorprendente de estas teorías conformes es la observación de que la fuerza de ciertas fuerzas es inversamente proporcional al cuadrado de la distancia desde la fuente, lo que se aplica tanto a la gravedad a gran escala como al electromagnetismo a pequeña escala. Como lo expresó el fallecido físico Murray Gell-Mann :
A medida que pelamos la piel de la cebolla, penetrando a niveles cada vez más profundos de la estructura del sistema de partículas elementales, las matemáticas con las que nos familiarizamos debido a su utilidad en un nivel sugieren nuevas matemáticas, algunas de las cuales pueden ser aplicables en el siguiente. nivel hacia abajo – o hacia otro fenómeno en el mismo nivel. A veces, incluso las viejas matemáticas son suficientes.
Pero a veces nuestra propia intuición enigmática se convierte en un obstáculo para el progreso práctico. Los casos de uso de computadoras para clasificar, traducir y aprender el lenguaje natural ilustran los peligros de buscar explicaciones intuitivas de los fenómenos científicos. El encanto de HAL y Robby the Robot, de las películas 2001: A Space Odyssey (1968) y Forbidden Planet(1956), fue su capacidad para comprender el lenguaje humano y responder con un nivel apropiado de sarcasmo ominoso, inteligible para sus interlocutores humanos. Pero la evolución de la traducción automática y el reconocimiento de voz terminó sin parecerse a nada. Los enfoques más exitosos para el reconocimiento de voz temprano en los años 80 y 90 emplearon modelos matemáticos basados en la estructura del habla humana, centrándose en categorías de palabras y las relaciones sintácticas y semánticas de orden superior de la oración. Luego, a fines de la década de 1990, aparecieron en serio las redes neuronales profundas. Estos algoritmos ignoraron muchos conocimientos lingüísticos previos, y en cambio permitieron que las palabras emergieran espontáneamente a través del entrenamiento a un nivel puramente acústico. Comprender el habla no era el objetivo; predecir la traducción correcta fue. Pasaron a ser devastadoramente efectivos.
Las redes neuronales capturan el vínculo al que se enfrenta la ciencia contemporánea. Muestran cómo los modelos complicados que incluyen poca o ninguna información estructurada sobre los sistemas que representan pueden superar las teorías basadas en décadas de investigación y análisis. A este respecto, las ideas del reconocimiento de voz reflejan las obtenidas de las computadoras de entrenamiento para vencer a los humanos en el ajedrez y el Go: las representaciones y las reglas generales favorecidas por las máquinas no tienen por qué reflejar las representaciones y las reglas generales favorecidas por el cerebro humano. Resolver ajedrez resuelve ajedrez, no pensamiento.
Pero, ¿revela la forma en que hemos superado los límites del desempeño humano en el ajedrez y el reconocimiento de voz lo que podría significar superar los límites en nuestra predicción de la realidad física, es decir, avanzar en la ciencia? ¿Y puede decirnos algo significativo sobre si la necesidad humana de comprensión está obstaculizando el éxito de la ciencia?
TLa historia de la filosofía ofrece algunas vías para salir del actual impasse científico. Platón fue uno de los primeros en abordar las confusiones de comprensión, en el Theaetetus . El texto está dedicado a la cuestión de las epistemes, es decir, una percepción, un juicio verdadero o una creencia verdadera, con una explicación adicional. En el diálogo, el intratable Sócrates aduce la geometría, la aritmética y la astronomía como ejemplos de la última categoría.
Immanuel Kant desarrolló más las teorías de la comprensión en su Crítica de la razón pura (1781). Kant hace una distinción entre los mundos de la materia y de la representación mental: la realidad como ontología versus el conocimiento mental como epistemología. Para Kant, solo hay una representación del mundo en la mente, y el mundo material solo puede conocerse a través de estas representaciones. Esto significa que nuestro llamado entendimiento no es más que una representación aproximada e imperfecta de la realidad empírica, cuya existencia platónica (o quizás no existencia) es el límite último del conocimiento. El argumento de Kant no nos ayuda realmente a distinguir la comprensión del conocimiento; más bien, cambia la comprensión de una creencia que se puede defender a una representación interna que no se puede verificar.
El filósofo John Searle exploró la distinción conocimiento / comprensión en su influyente libro Minds, Brains and Science (1984), donde se propuso desafiar las Pollyannas de la inteligencia artificial. Searle nos pide que imaginemos a alguien en una habitación sin un conocimiento nativo del idioma chino, pero bien equipado con un conjunto de diccionarios y reglas gramaticales. Cuando se presenta una oración en chino, estos recursos se utilizan para traducir la oración de destino al inglés nativo. Cuando uno considera este experimento mental, está claro que no es necesario entender el idioma que está traduciendo; solo es necesario que la traducción logre fidelidad.
La sala china es un medio metafórico de analizar las limitaciones de los algoritmos, como los que pueden enumerar elementos en una escena digital o traducir frases en una página web. En ambos casos, las soluciones correctas se producen sin ninguna “comprensión” del contenido. Entonces, ¿cuál es la naturaleza de esta comprensión faltante que busca Searle?
La naturaleza del entendimiento es la base misma para la transmisión y acumulación de conocimiento.
Hay muchos implementos baconianos que pueden reemplazar la habitación de Searle, como reglas de cálculo para resolver grandes problemas de multiplicación, o construcciones geométricas que usan brújula y transportadores para probar teoremas, o reglas de integración en cálculo para resolver sumas grandes o incluso infinitas. Estas técnicas son efectivas precisamente porque obvian la necesidad de comprensión. Basta con moverse con precisión a través de los pasos prescritos para garantizar el resultado deseado. Comprender, en cada uno de estos casos, es explicar la lógica y el uso apropiado de los logaritmos, las propiedades cinemático-geométricas de un transportador o brújula, o la base numérica subyacente para tomar límites con rectángulos para aproximar áreas. Por tanto, incluso en la práctica de las matemáticas cotidianas, experimentamos el cisma entre comprensión y predicción.
La comprensión es el medio por el cual superamos un mundo de paradojas e ilusiones al abrir la caja negra del conocimiento a la modificación. La comprensión es la elucidación de errores justificables. Una vez que comprendemos que un cubo de estructura metálica se interpreta como un sólido en tres dimensiones, queda claro por qué solo vemos un frente de cubo a la vez.
Los datos se pueden adquirir sin explicación y sin comprensión. La definición misma de una mala educación es simplemente ser taladrada con hechos: como en aprender historia memorizando fechas y eventos. Pero la verdadera comprensión es la expectativa de que otros seres humanos, o agentes en general, puedan explicarnos cómo y por qué funcionan sus métodos. Necesitamos algunos medios para reproducir una idea y verificar su exactitud. Este requisito se extiende a los dispositivos no humanos que pretenden ser capaces de resolver problemas de forma inteligente. Las máquinas deben poder dar cuenta de lo que han hecho y por qué.
El requisito de explicar es qué vincula la comprensión con la enseñanza y el aprendizaje. ‘Enseñar’ es el nombre que le damos a la comunicación efectiva de los mecanismos causales (‘si sigues estas reglas, lograrás una división larga), mientras que’ aprender ‘es la adquisición de una intuición para las relaciones entre causas y sus efectos (‘esta es la razón por la que funcionan las reglas de división larga’). La naturaleza del entendimiento es la base misma para la transmisión confiable y la acumulación cultural del conocimiento. Y, por extensión, también es la base de toda predicción a largo plazo.
El escritor prismático Jorge Luis Borges podría haber estado reflexionando sobre todo esto cuando escribió en el ensayo ‘Historia de los ecos de un nombre’ (1955):
Aislado en el tiempo y el espacio, un dios, un sueño y un hombre loco y consciente del hecho repiten una oscura afirmación. Esas palabras, y sus dos ecos, son el tema de estas páginas.
Digamos que el dios es el Universo, el sueño nuestro deseo de comprender, y las máquinas son el loco, todos repitiendo sus oscuras declaraciones. En conjunto, sus palabras y ecos son el sistema de nuestra investigación científica. Es el desafío del siglo XXI integrar las ciencias de la complejidad con el aprendizaje automático y la inteligencia artificial. Las formas de conocimiento futuro más exitosas serán aquellas que armonicen el sueño humano de comprensión con los ecos cada vez más oscuros de las máquinas.
Fuente:
<p; tab-interval=”36pt”>Krakauer, D. C. (2020, 9 agosto). At the limits of thought. Aeon. https://aeon.co/essays/will-brains-or-algorithms-rule-the-kingdom-of-science</p;>