INTELIGENCIA ARTIFICIAL GENERATIVA (IAG) la nueva construcción de la textualidad

“Contempla la máquina,
mira cómo se venga y gira
y nos confunde y debilita.”

R. M. Rilke “Sonetos a Orfeo, XVIII”.

La Inteligencia Artificial Generativa (IAG), es la tecnología que está cambiando al mundo, posiblemente del mismo modo como hace tres décadas impactó Internet en su acceso masivo.

Con la emergencia de esta tecnología, la humanidad vive una paradoja. Probablemente más que otras coyunturas, desde el ascenso de la modernidad, en que las comunicaciones y el conocimiento instantáneamente está a disposición de miles de millones de seres humanos, con dispositivos, literalmente, en la palma de la mano entregando respuestas y solucionando problemas domésticos, pero a la vez esas mismas herramientas están transformando el modo de vincularnos con el mundo de una manera cada vez más compleja y muchas veces desalentadora.

La IAG es un subproducto de la Inteligencia Artificial (IA), que está orientada a dar respuestas a requerimientos desde una interfase usuario-máquina por intermedio de mandos denominados “prompt”, y el resultado es un producto en forma de lenguaje audiovisual o textual. Esta tecnología se distingue por la capacidad de “comprender” datos de entrenamiento para luego generar nuevos contenidos que se pretenden coherentes y de calidad.

He leído un ensayo filosófico que ha sido descrito, por la crítica, como “provocativo”, escrito por Jianwei Xun, que es el seudónimo de Andrea Colamedici “Hipnocracia” (Rosamerón, 2025) que lleva el desafiante subtítulo “Trump, Musk y la nueva arquitectura de la realidad”.

Su lectura es en estilo aforístico, con afirmaciones sintéticas, con tesis que se recorren encadenadas con mucha libertad, y plantea ideas interesantes, que invitan a reflexionarlas. En esa lectura recordé una especie de chisme chaquetero, en tono de burla sobre el trabajo del filósofo coreano-alemán Byung-Chul Han. Dice que este sería una IAG que escribe sin mucha profundidad (crítica destemplada muy lejana al valor de su trabajo teórico). Podría suponer que en el trabajo de Xun-Colamedici hay una imitación del estilo del coreano, una reminiscencia a afirmaciones que avanzan sobre hipótesis políticas claras y coherentes que da sentido para cualquier mirada crítica.

En abril de este año, en sección “Artes y Letras” de El Mercurio publicó un reportaje de este libro con el encabezado: “¿La Inteligencia Artificial también es filósofa?” en que destacaba el aspecto revelador que “Hipnocracia” había sido escrito por un par de plataformas de IAG, en mediación del “traductor” Andrea Colamedici. Lo cierto es que en el epílogo del mismo libro el filósofo revela la motivación de esta performance, es decir: “…no es sólo un análisis de los mecanismos de manipulación de la realidad en la era digital; es la manifestación concreta de esos mismos mecanismos, un experimento epistemológico que traspasa las fronteras tradicionales entre teoría y práctica, entre descripción y performatividad.”.

En el artículo del cuerpo D del diario chileno, varios filósofos que de modo evidente se inscriben en esa extendida tradición del enfrentamiento metafísico inaugurada hace más de medio siglo por Umberto Eco, alinea a unos y otros entre “apocalípticos” e “integrados”, unos que ven con dudas las posibilidades de esta tecnología por la pérdida del horizonte en el ejercicio del pensamiento crítico impactada en los artefactos algorítmicos; y otros, que se posicionan optimistas en torno al adecuado control intelectual, sería suficiente para interactuar con éstas herramientas.

Aquella discusión instala una de las grandes preocupaciones sobre el alcance para la producción intelectual humana en el futuro, debate que es mucho más complejo que una división genealógica del pensamiento.

Un primer problema que se puede mencionar es el que tiene que ver con el estilo de producción en la respuesta que genera la IAG.

El investigador y profesor Frédéric Kaplan en la columna “La estandarización silenciosa del lenguaje” Le Monde Diplomatique de julio de 2025, nos alerta sobre el complejo panorama de la firma invisible que se genera entorno a la escritura de estas herramientas. Señala el problema que significa un empobrecimiento del lenguaje cuando se comienza a usar masivamente estilos denominados “atractores” (patrones que determinan el uso y la interpretación del lenguaje). En su indagación descubrió que herramientas como ChatGPT utiliza dos formas estilísticas elementales: “díptico pivote” y “tríptico rítmico”. Estas formas, en el uso llano de, por ejemplo, usuarios generales o estudiantes, las respuestas a los “prompt” van homogenizando los textos. Aunque no parezca impactante este riesgo, pero hay en este uso un horizonte de la pérdida de diversidad, el que una serie de programas que realizan promedios estilísticos y que son entregados como la respuesta para una amplia gama de requerimientos, preguntas, solicitudes de redacción de tesis, argumentaciones, todo comienza a ser cubierto por la hegemonía del estilo IA, estilísticamente sin faltas de ortografía, y en general con sintaxis correctas.

Hipnocracia es la referencia inmediata de una herramienta que, dirigida y mediada por un filósofo, el doble sentido del “traductor” no es menor, entrega de todas formas una “metanarración” sobre el impacto de la construcción de una realidad redactada de modo coherente y de la que es muy difícil zafar sin coincidir con sus “reflexiones”.

Como usuario recurrente de IAG, la uso cuando busco alguna precisión sobre una fuente, o en alguna ocasión para generar un camino de construcción de contenido. Pero esta experiencia tuvo un desarrollo que implicó que al tiempo de esa exploración entendí que cada tema que “trabajaba” debía ser con suficiente conocimiento previo, y en contraste de la fuente o la respuesta que generaba, debía lograr respaldar sus afirmaciones, pues un problema recurrente son las denominadas “alucinaciones”, por lo que debe haber un control claro de lo que se requiere del programa.

Hace algunas semanas la periodista especializada en tecnología Marta Peirano, en una columna de El País de España resaltó que la “tasa de mentiras” de la IAG es de entorno al 50%, declarado en una conferencia ante accionistas por Sam Altman, CEO de OpenIA, el 11 de agosto. Lo relevante de su afirmación es que esta tasa ha aumentado en la medida que se masifica el uso de su herramienta.

Un paréntesis. La diferencia entre una “alucinación” y una “mentira” de la IAG es que en la primera se “describe un caso individual de información falsa generada por la IA.”, y la segunda “es una métrica estadística que mide cuántas de esas respuestas son falsas en un conjunto determinado” (definiciones generadas por ChatGPT y corroborado en una búsqueda en Google).

Según la periodista, el reconocimiento de esta estadística es alarmante, pues la certeza, que es uno de los potenciales que se ha ofrecido como un avance que implican las plataformas de IAG, este sería menos que una “mentira”, casi suena a un fraude. Pero en general los desarrolladores se defienden con la idea que esta es una tecnología que está en sus primeros pasos. Y sí, es cierto que estos dos años de masificación hemos aprendido a convivir con ese margen de incerteza, la sospecha que aquello que nos responde es una mera suposición expuesta con un bello “verso”, una ajustada narrativa que le acierta un 50% de las veces, es con lo que deberemos vivir, de momento, hasta que los algoritmos mejoren su desempeño.

Cuando Andrea Colamedici, en el epílogo -de la edición internacional- de Hipnocracia nos explica el trasfondo de su experimento, profundiza en la “soberanía perceptiva” como una forma de “lucidez dentro de la simulación”, es decir la capacidad del sujeto para mantener el control sobre una experiencia sensorial y cognitiva, probablemente es el modo que tendremos para sostener la interacción con la interfaz IAG, de otro modo perdemos independencia, nos hacemos dependientes y la herramienta se transforma en el principal soporte para entender el mundo, y en verdad que eso no parece el mejor de los futuros. 



 

 


Entradas populares