Pensar mejor: lo que la inteligencia artificial no puede hacer por nosotros

Esta columna continúa una reflexión previa publicada en Cooperativa sobre las oportunidades que emergen al entrelazar nanotecnología e inteligencia artificial. Muchas de las ideas que aquí se desarrollan surgieron también a partir de una conversación con Mirna Schindler en el programa "Sin Pretexto" de Radio Usach, donde exploramos lo que llamamos la nueva geopolítica de lo invisible: ese territorio en expansión donde algoritmos, datos y sensores redefinen el poder y el conocimiento. En esta ocasión, el foco está puesto directamente en la inteligencia artificial y en cómo debemos aprender a mirarla con más lucidez: sin sobrestimar sus capacidades, ni subestimar aquello que todavía -y quizás por mucho tiempo más- seguirá siendo exclusivo de los seres humanos.

Vivimos rodeados de algoritmos. Diagnósticos médicos, traducción automática, decisiones financieras, recomendaciones culturales, creación de imágenes o composición musical: todo parece estar al alcance de la inteligencia artificial. Pero esa presencia constante ha generado en nosotros una confusión cada vez más común: creer que, si la inteligencia artificial puede hacer cosas como nosotros, entonces también puede pensar como nosotros.

El problema no es técnico, sino cultural. Confundimos herramientas con pensamiento. Olvidamos que la inteligencia artificial es, en el fondo, una prótesis de nuestras capacidades cognitivas. Así como el microscopio amplía la vista y el telescopio nos deja mirar el universo, la inteligencia artificial expande ciertas habilidades. Pero no piensa. No siente. No imagina. Atribuirle comprensión es como suponer que Galileo fue prescindible porque tenía un buen telescopio.

Para entender por qué la inteligencia artificial no piensa como nosotros, conviene recordar cómo razonamos los humanos. A lo largo de la historia, hemos identificado tres formas clásicas de inferencia: inducción, deducción y abducción.

La inducción permite obtener reglas generales a partir de casos particulares. Si observo cientos de cuervos y todos son negros, concluyo que todos los cuervos son negros. No es una técnica infalible, pero sí útil. Es también la base del aprendizaje automático: analizar millones de ejemplos y detectar patrones estadísticos.

La deducción, en cambio, funciona al revés. Parte de una regla general y la aplica a un caso específico. Por ejemplo: todos los mamíferos tienen corazón; un perro es un mamífero, por lo tanto, un perro tiene corazón. Es lógica pura, formal, programable.

La abducción, sin embargo, es distinta. Es el tipo de razonamiento que usamos cuando, ante un hecho inesperado, buscamos la causa más probable. Si llego a casa y el suelo está mojado, pero no tengo más información, puedo suponer que ha llovido. Tal vez fue una cañería rota, o alguien limpió, pero apuesto por la hipótesis más razonable. Eso es abducción: la capacidad de construir hipótesis. En ciencia, es el punto de partida de cualquier descubrimiento. Sin ella, no hay ideas nuevas. Sin hipótesis audaces, no hay avance real.

Se trata, en esencia, de un razonamiento que va del efecto a la causa. Como decía Sherlock Holmes, no es más que sentido común y en buena medida tenía razón. Pero el sentido común es, paradójicamente, el menos común de los sentidos. No sigue una lógica estricta. No se programa.

La abducción convierte hechos en pistas, y pistas en significado. Es una operación mental que no sigue reglas fijas: se apoya en la intuición, la experiencia y el contexto. Lanzamos hipótesis con una naturalidad asombrosa, moviéndonos con soltura dentro de un océano de posibilidades. En resumen, las inferencias abductivas -misteriosas y maravillosas- impregnan nuestra cultura. Son, en un sentido profundo, lo que nos convierte en seres humanos.

También hemos evolucionado en la forma de generar conocimiento. Hoy hablamos, sobre todo, de Big Data. Pero cuidado: los datos, por sí solos, no piensan. Sin una teoría que los oriente, pueden ser tan engañosos como un mapa sin brújula. Tomemos el caso de los terremotos. Contamos con montañas de información: sismógrafos, modelos geológicos, registros históricos y, sin embargo, seguimos sin poder predecir con precisión el momento, el lugar exacto ni la magnitud de un sismo. ¿Por qué? Porque, aunque tenemos buenas teorías generales -como la tectónica de placas-, aún nos falta una comprensión detallada de los procesos que ocurren en el interior de la Tierra y que desencadenan un evento sísmico. Sin esa profundidad teórica, los modelos estadísticos corren el riesgo de confundir ruido con señales. Es el peligro del sobreajuste: generar explicaciones que encajan perfectamente con los datos del pasado, pero que fallan al anticipar el futuro. Sin teoría, la inteligencia artificial basada en Big Data cae fácilmente en la trampa del sobreajuste, la saturación y la ceguera de los métodos puramente inductivos.

En contraste, el caso del bosón de Higgs es ejemplar. Fue propuesto por un físico teórico en 1964, mucho antes de que existiera la tecnología para comprobar su existencia. Recién medio siglo después, una colaboración internacional logró validarlo en el Gran Colisionador de Hadrones, tras analizar una enorme cantidad de datos generados por colisiones de partículas a escalas subatómicas. Pero la clave -y me gustaría subrayarlo- no estuvo en la cantidad de datos, sino en algo anterior y profundamente humano: la existencia de una hipótesis audaz. Sin esa idea previa, no habríamos sabido qué buscar. Fue la teoría la que guio la exploración. No al revés.

Incluso los modelos más avanzados, como ChatGPT, no realizan abducción en sentido estricto. Simulan creatividad porque fueron entrenados con millones de ejemplos generados por humanos. Pero no comprenden lo que dicen. No formulan hipótesis propias, no descubren ni imaginan desde la nada. Lo que hacen, en el fondo, es reordenar patrones: fragmentos de poemas, cuentos, pinturas o melodías ya existentes. No crean: editan. Por eso, la creación auténtica sigue siendo una tarea humana. La inteligencia artificial es una herramienta, no una conciencia.

No deja de ser paradójico que estemos avanzando hacia sistemas cada vez más complejos de inteligencia artificial sin comprender del todo cómo funciona nuestra propia mente. La abducción -esa capacidad de intuir lo que no está dicho, de conjeturar más allá de los datos- sigue siendo, en gran medida, un misterio. No podemos replicar en máquinas lo que aún no entendemos en nosotros mismos. Tal vez el verdadero viaje pendiente no sea hacia una superinteligencia artificial, sino hacia una comprensión más profunda de lo que realmente significa pensar.

Y en ese viaje, las y los docentes -en colegios y universidades- tienen un rol fundamental. No basta con enseñar a usar herramientas digitales: necesitamos formar mentes que piensen con profundidad, que valoren la creatividad, la duda y la imaginación. En tiempos de inteligencia artificial, el verdadero desafío pedagógico es evitar que el estudiantado se limite a obtener respuestas, y en cambio, alentarlo a formular mejores preguntas. La inteligencia artificial puede asistir, pero no debe sustituir el ejercicio de pensar. Porque una mente que delega por completo su curiosidad termina por atrofiarse. Y sin mentes activas, ningún futuro será verdaderamente humano. Porque el futuro -conviene recordarlo- no se programa: se imagina.

Desde Facebook:

Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado