Del copista al algoritmo: la educación ante el espejo de la apropiación

En algún scriptorium medieval, un monje desliza su pluma sobre el pergamino. Copia, letra por letra, un tratado de Aristóteles que jamás conocerá en su lengua original. No pretende originalidad: su tarea es preservar, transmitir, servir de puente entre épocas. La copia, entonces, constituye un acto de devoción y de servicio. Siglos después, en una universidad contemporánea, un estudiante desliza sus dedos sobre un teclado. Un sistema de inteligencia artificial genera en segundos un ensayo sobre el mismo Aristóteles, procesando millones de textos ajenos para producir algo que parece nuevo. Entre el copista y el algoritmo no media solamente una revolución tecnológica; media una profunda transformación de nuestra comprensión sobre qué significa crear, aprender y hacer propio el conocimiento. Y en el centro de esta transformación, la educación exhibe sus omisiones históricas.

La acusación que hoy se formula contra la inteligencia artificial generativa -que se apropia de obras ajenas para construir algo supuestamente nuevo- resulta paradójicamente familiar. Durante décadas, los sistemas educativos han oscilado entre dos polos igualmente problemáticos: la sacralización de la originalidad como valor absoluto y la tolerancia tácita hacia formas de apropiación que nadie se detuvo a problematizar. Enseñamos a citar formalmente, pero no a comprender qué significa realmente hacer propio un pensamiento ajeno. Penalizamos el plagio cuando lo detectamos, pero raramente explicamos por qué la apropiación indebida constituye una falta ética y no meramente administrativa. Paul Watzlawick, en su obra "¿Es real la realidad?", nos advertía que "la más peligrosa manera de engañarse a sí mismo es creer que sólo existe una realidad". Quizás la educación se engañó al creer que existía una sola forma de relacionarse con el conocimiento: la que distingue nítidamente entre lo propio y lo prestado, entre el creador y el copista.

John Bargh, en "¿Por qué hacemos lo que hacemos?", documenta cómo la mayor parte de nuestra vida mental transcurre fuera de la consciencia. "La mente consciente da sentido y explicación a posteriori a nuestras conductas generadas inconscientemente, creando una narrativa positiva y plausible sobre lo que hemos hecho y por qué", señala el investigador. Si esto es cierto para nuestras acciones cotidianas, ¿cuánto más lo será para nuestros procesos de pensamiento y creación?

Absorbemos ideas, estructuras argumentales, formas de razonar, sin registro consciente de su origen. La educación tradicional ignoró sistemáticamente esta dimensión: tratamos la originalidad como si fuera un acto de voluntad pura, cuando en realidad todo pensamiento emerge de un sustrato de influencias que apenas percibimos. Lo que llamamos "nuestras ideas" son, en gran medida, reconfiguraciones de lo que otros pensaron antes.

Es aquí donde la inteligencia artificial se convierte en un espejo incómodo. Cuando criticamos a los modelos generativos por "apropiarse" de millones de textos para producir respuestas, estamos describiendo -en escala industrial y sin mediación del inconsciente- algo análogo a lo que la mente humana hace naturalmente. La diferencia crucial, por supuesto, reside en la consciencia, la intencionalidad y la capacidad de responsabilidad moral. Adela Cortina, en "¿Ética o ideología de la inteligencia artificial?", plantea una distinción fundamental: "Las máquinas carecen del conocimiento de sentido común que es posible por nuestras vivencias corporales. El cuerpo es esencial para dar significado a lo que nos rodea mediante la intencionalidad, para comprender e interpretar desde los contextos concretos". La IA generativa procesa información; no la comprende. Recombina; no significa. Y sin embargo, produce textos que muchos humanos no pueden distinguir de los escritos por personas.

Luciano Floridi, en su "Ética de la inteligencia artificial", nos recuerda que "la información semántica son datos bien formados, significativos y veraces; el conocimiento es la información semántica relevante adecuadamente justificada".

La precisión de esta distinción ilumina el problema: los sistemas de IA manipulan datos, pero no generan conocimiento en el sentido riguroso del término. No justifican; correlacionan. No comprenden; predicen. Y aquí emerge la pregunta que la educación debió formular hace décadas: ¿Qué transforma la información ajena en conocimiento propio? No es la mera exposición, ni la repetición, ni siquiera la paráfrasis. Es un proceso de apropiación que involucra comprensión, crítica, reelaboración y, sobre todo, responsabilidad por lo que se afirma.

Lo que la educación dejó de hacer -y lo que ahora urge recuperar- es enseñar esta ética de la apropiación legítima. Cortina insiste en que "somos los seres humanos quienes tenemos capacidad de dialogar y decidir hoy por hoy", y que las decisiones deben tomarse "desde un nosotros sin exclusiones". Pero ese "nosotros" incluye a quienes pensaron antes que nosotros, a quienes escribieron los textos que leemos, a quienes formularon las ideas que recombinamos. La apropiación legítima del conocimiento ajeno supone reconocer esa deuda, hacerla explícita, y aportar algo genuino en el proceso de reelaboración. No se trata de inventar desde la nada -pretensión tan imposible como arrogante-, sino de contribuir honestamente a una conversación que nos precede y nos trasciende.

Watzlawick argumentaba que "lo que llamamos realidad es resultado de la comunicación", que nuestras percepciones se construyen intersubjetivamente. El conocimiento, análogamente, no es una sustancia que se extrae de los libros como quien extrae minerales de una mina. Es una construcción social que requiere participación activa, diálogo genuino, y reconocimiento del otro como interlocutor válido. La IA generativa puede simular este diálogo, pero no puede participar en él auténticamente. Carece de lo que Cortina denomina "reconocimiento recíproco como interlocutores válidos, como seres dotados de dignidad y no un simple precio". El algoritmo no reconoce a los autores cuyos textos procesa; simplemente los consume.

Emerge aquí una dimensión política ineludible. La apropiación masiva de textos por sistemas de IA no es un fenómeno neutro: concentra poder en quienes controlan los modelos y despoja a los creadores originales de reconocimiento y compensación. Pero sería hipócrita rasgarse las vestiduras por esta apropiación algorítmica sin examinar las formas de apropiación que la educación ha tolerado o incluso promovido. ¿Cuántas veces hemos celebrado la "síntesis" estudiantil que no era sino paráfrasis mal disimulada? ¿Cuántas evaluaciones premiaron la reproducción de ideas ajenas presentadas como propias? Bargh nos advierte que "procesamos de manera automática nuestro nombre y otros aspectos importantes de nuestro autoconcepto sin ni siquiera saberlo". Quizás procesamos también, sin saberlo, una concepción instrumental del conocimiento que reduce a los autores a proveedores de insumos.

Del copista al algoritmo, el arco histórico nos confronta con preguntas que no admiten respuestas técnicas. ¿Qué significa realmente hacer propio un pensamiento ajeno? ¿Cómo distinguimos la apropiación legítima -que transforma, critica, enriquece- de la mera extracción parasitaria? ¿Qué debe enseñar la educación para formar sujetos capaces de participar éticamente en la construcción colectiva del conocimiento? Floridi sostiene que los seres humanos somos "los únicos organismos informacionales conocidos conscientes y capaces de procesar significado". Esta capacidad exclusiva conlleva una responsabilidad igualmente exclusiva: la de relacionarnos éticamente con el conocimiento que heredamos, procesamos y transmitimos.

La irrupción de la IA generativa no crea el problema de la apropiación; lo hace visible en toda su magnitud. Y al hacerlo, nos ofrece la oportunidad de reformular lo que la educación debió enseñar desde siempre: que el conocimiento es un bien común que se cultiva colectivamente; que apropiarse legítimamente de él exige reconocimiento, gratitud y responsabilidad; que la originalidad no consiste en inventar desde la nada sino en aportar genuinamente a una conversación milenaria. Entre el copista medieval y el algoritmo contemporáneo, entre la devoción del que preserva y la voracidad del que extrae, debemos encontrar un camino que honre tanto a quienes pensaron antes que nosotros como a quienes pensarán después. La educación tiene, todavía, la palabra.

Referencias
- Bargh, J. (2018). "¿Por qué hacemos lo que hacemos? El poder del inconsciente". Ediciones B.
- Cortina, A. (2024). "¿Ética o ideología de la inteligencia artificial? El eclipse de la razón comunicativa en una sociedad tecnologizada". Paidós.
- Floridi, L. (2023). "Ética de la inteligencia artificial". Herder.
- Watzlawick, P. (1979). "¿Es real la realidad? Confusión, desinformación, comunicación". Herder.

Desde Facebook:

Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado