La ciencia en la era de la IA: entre la prótesis y el plug-in


Del científico como sujeto autónomo al operador de flujos algorítmicos: una transformación silenciosa pero radical


La inteligencia artificial (IA) ya no es solo una herramienta más en el laboratorio, es el artífice de una transformación radical sobre cómo se produce, valida y circula el conocimiento científico. Para entender esta transformación, propongo dos modelos conceptuales: el «Modelo OpenAI-Elsevier» —una distopía posible— y el «Modelo Plug-in» —nuestra realidad actual.

El «Modelo OpenAI-Elsevier»: una distopía en ciernes

El «Modelo OpenAI-Elsevier» es una tipología que describe la convergencia entre plataformas de automatización científica (como GPT, Claude) y corporaciones editoriales que controlan el acceso al conocimiento (como Elsevier). En este escenario, la generación de hipótesis, el diseño experimental, la redacción de artículos y su evaluación quedan progresivamente integrados en arquitecturas algorítmicas interoperables.

Esta convergencia ya tiene evidencias concretas. GPT-4 integra herramientas como Wolfram Alpha, arXiv API y Semantic Scholar. OpenAI y Microsoft incorporaron funciones científicas en Word y Excel. Elsevier no solo publica resultados científicos, sino que también opera Scopus, Mendeley y sistemas de recomendación algorítmica. Además, en 2021 adquirió Interfolio, insertándose en el corazón de los campus universitarios.

En marzo de 2025, investigadores de Sakana AI consiguieron que un artículo completamente generado por su sistema pasara, sin intervención humana, por la revisión de pares. Entre el 7 % y el 17 % de los reportes para conferencias de IA durante 2023 y 2024 mostraron evidencia de modificación mediante modelos de lenguaje ejecutados desde IA.

Del científico autónomo al operador de flujos

El título de este acápite parece una exageración, quizá lo sea. Sin embargo, al comparar el quehacer científico durante los años 2000 con el actual, la intuición que está detrás adquiere pleno significado.

A inicios del milenio el científico (también el intelectual) era un experto y una agencia autónoma plena, un auténtico «gestor del conocimiento». Su capital simbólico se basaba en publicaciones y redes académicas. La escritura era un proceso cognitivo y de descubrimiento. En la actualidad se aproxima a la figura de un operador de flujos automatizados de datos. Su capital se mide en métricas de citación y visibilidad algorítmica. La escritura se convierte en interfaz de interacción con sistemas generativos.

La transformación es evidente e implica cuatro cambios fundamentales.

  1. De productor a curador. El científico ya no está en el centro productivo, sino en los márgenes del pipeline de datos.
  2. De la economía del conocimiento a la automatización del saber. Lo que vale ya no es el conocimiento en sí, sino su capacidad de ser tokenizado y explotado computacionalmente.
  3. De la autonomía epistémica a la alineación algorítmica. La libertad intelectual queda sometida a requerimientos de interoperabilidad técnica y «modas» u «olas» de modelos que entrenan con su obra y sin consentimiento.
  4. Comunidad académica frente a infraestructuras cerradas. La comunidad epistémica se diluye en redes asimétricas donde el científico pierde control y visibilidad sobre los usos de su trabajo.

Lo que acontece: el «Modelo Plug-in»

Mientras el «Modelo OpenAI-Elsevier» es una proyección distópica, el «Modelo Plug-in» describe lo que ya está sucediendo. La IA ya no es una prótesis externa que amplía capacidades humanas, sino un plugin que se acopla como módulo funcional, reconfigurando al sujeto epistémico como nodo periférico. Esto implica que la visión del científico ejerciendo su rol de agente soberano y usando la IA como asistente, como si se tratara de un microscopio o calculadora, está perdiendo terreno frente a la visión del científico que cede su agencia a una interfaz externa, creando dependencia sistémica.

En el laboratorio actual, sin suscripciones, por ejemplo, a GPT, Scopus o Copilot, el científico queda fuera del flujo de producción. El cubículo se convierte en API hub. Los estudiantes avanzados y futuros investigadores ya no forman parte de un sistema basado en lecturas extensas y escritura progresiva, sino en prompts, resúmenes y simulaciones algorítmicas.

Los riesgos del «Modelo Plug-in»

El «Modelo Plug-in» no es neutral. Configura una nueva subjetividad epistémica en términos de acoplamiento técnico. Ya no se “forma” solo un científico; se configura una interfaz humano-algorítmica para cumplir con flujos de publicaciones y evaluación.

Esto plantea problemas serios:

  • Delegación epistémica. La IA ya resume, traduce, argumenta y revisa. El peer review comienza a automatizarse.
  • Infraestructura privatizada: ChatGPT, Elicit, Scite son interfaces privadas que median el acceso al conocimiento.
  • Plataformas del saber extensivas. Cada vez más ciencia se produce, circula, consume y recicla dentro de plataformas cerradas.
  • Desintermediación del método. Los modelos pueden proponer hipótesis y métodos con mínima participación humana.

¿Inevitable o Evitable?

El «Modelo Plug-in» es la fase intermedia hacia el «Modelo OpenAI-Elsevier». No es inevitabilidad tecnológica, sino el resultado de decisiones económicas, políticas e institucionales. Es posible, para ser ecuánimes, esgrimir argumentos a favor y en contra de esta “inevitabilidad”. Entre los argumentos a favor se encuentran los siguientes: a) delegación creciente de funciones epistémicas en la IA, b) infraestructura epistemológica privatizada, c) creciente convergencia entre métricas, IA y curaduría editorial y, finalmente, d) una fabulosa presión económica-estructural por la productividad. Entre los argumentos en contra, se pueden enumerar los siguientes: a) persistencia de la autonomía académica local, b) resistencia ética y normativa de comunidades epistémicas específicas, y c) fricciones institucionales.

La encrucijada

La ciencia se encuentra en una encrucijada histórica. La pregunta no es si la IA transformará la ciencia —ya lo está haciendo—, sino si esa transformación preservará la ciencia como empresa racional colectiva que busca la verdad, o la convertirá en un ecosistema de entrenamiento para sistemas que operan sin comprensión, pero sustituyen performativamente la autoridad científica.

El «Modelo Plug-in» aún permite resistencia y reorientación. El «Modelo OpenAI-Elsevier» podría no permitirla. La diferencia entre ambos es el margen de agencia humana que nos queda. Y ese margen se estrecha cada día.

Read more