INTELIGENCIA ARTIFICIAL GENERATIVA (IAG) la nueva construcción de la textualidad
“Contempla la máquina,
mira cómo se venga y gira
y nos confunde y debilita.”
R. M. Rilke “Sonetos a Orfeo, XVIII”.
La Inteligencia Artificial Generativa (IAG), es la tecnología
que está cambiando al mundo, posiblemente del mismo modo como hace tres décadas
impactó Internet en su acceso masivo.
Con la emergencia de esta tecnología, la humanidad vive una
paradoja. Probablemente más que otras coyunturas, desde el ascenso de la
modernidad, en que las comunicaciones y el conocimiento instantáneamente está a
disposición de miles de millones de seres humanos, con dispositivos,
literalmente, en la palma de la mano entregando respuestas y solucionando
problemas domésticos, pero a la vez esas mismas herramientas están
transformando el modo de vincularnos con el mundo de una manera cada vez más
compleja y muchas veces desalentadora.
La IAG es un subproducto de la Inteligencia Artificial (IA),
que está orientada a dar respuestas a requerimientos desde una interfase
usuario-máquina por intermedio de mandos denominados “prompt”, y el resultado
es un producto en forma de lenguaje audiovisual o textual. Esta tecnología se
distingue por la capacidad de “comprender” datos de entrenamiento para luego
generar nuevos contenidos que se pretenden coherentes y de calidad.
He leído un ensayo filosófico que ha sido descrito, por la
crítica, como “provocativo”, escrito por Jianwei Xun, que es el seudónimo de
Andrea Colamedici “Hipnocracia” (Rosamerón, 2025) que lleva el desafiante
subtítulo “Trump, Musk y la nueva arquitectura de la realidad”.
Su lectura es en estilo aforístico, con afirmaciones
sintéticas, con tesis que se recorren encadenadas con mucha libertad, y plantea
ideas interesantes, que invitan a reflexionarlas. En esa lectura recordé una
especie de chisme chaquetero, en tono de burla sobre el trabajo del filósofo
coreano-alemán Byung-Chul Han. Dice que este sería una IAG que escribe sin mucha
profundidad (crítica destemplada muy lejana al valor de su trabajo teórico). Podría
suponer que en el trabajo de Xun-Colamedici hay una imitación del estilo del
coreano, una reminiscencia a afirmaciones que avanzan sobre hipótesis políticas
claras y coherentes que da sentido para cualquier mirada crítica.
En abril de este año, en sección “Artes y Letras” de El
Mercurio publicó un reportaje de este libro con el encabezado: “¿La
Inteligencia Artificial también es filósofa?” en que destacaba el aspecto
revelador que “Hipnocracia” había sido escrito por un par de plataformas
de IAG, en mediación del “traductor” Andrea Colamedici. Lo cierto es que en el
epílogo del mismo libro el filósofo revela la motivación de esta performance,
es decir: “…no es sólo un
análisis de los mecanismos de manipulación de la realidad en la era digital; es
la manifestación concreta de esos mismos mecanismos, un experimento
epistemológico que traspasa las fronteras tradicionales entre teoría y
práctica, entre descripción y performatividad.”.
En el artículo del cuerpo
D del diario chileno, varios filósofos que de modo evidente se inscriben en esa
extendida tradición del enfrentamiento metafísico inaugurada hace más de medio
siglo por Umberto Eco, alinea a unos y otros entre “apocalípticos” e “integrados”,
unos que ven con dudas las posibilidades de esta tecnología por la pérdida del
horizonte en el ejercicio del pensamiento crítico impactada en los artefactos
algorítmicos; y otros, que se posicionan optimistas en torno al adecuado control
intelectual, sería suficiente para interactuar con éstas herramientas.
Aquella discusión instala
una de las grandes preocupaciones sobre el alcance para la producción intelectual
humana en el futuro, debate que es mucho más complejo que una división
genealógica del pensamiento.
Un primer problema que se
puede mencionar es el que tiene que ver con el estilo de producción en la
respuesta que genera la IAG.
El investigador y profesor Frédéric Kaplan en la columna “La
estandarización silenciosa del lenguaje” Le Monde Diplomatique de julio de
2025, nos alerta sobre el complejo panorama de la firma invisible que se genera
entorno a la escritura de estas herramientas. Señala el problema que significa
un empobrecimiento del lenguaje cuando se comienza a usar masivamente estilos
denominados “atractores” (patrones que determinan el uso y la interpretación
del lenguaje). En su indagación descubrió que herramientas como ChatGPT utiliza
dos formas estilísticas elementales: “díptico pivote” y “tríptico rítmico”.
Estas formas, en el uso llano de, por ejemplo, usuarios generales o
estudiantes, las respuestas a los “prompt” van homogenizando los textos. Aunque
no parezca impactante este riesgo, pero hay en este uso un horizonte de la pérdida
de diversidad, el que una serie de programas que realizan promedios
estilísticos y que son entregados como la respuesta para una amplia gama de
requerimientos, preguntas, solicitudes de redacción de tesis, argumentaciones,
todo comienza a ser cubierto por la hegemonía del estilo IA, estilísticamente
sin faltas de ortografía, y en general con sintaxis correctas.
Hipnocracia es la referencia inmediata de
una herramienta que, dirigida y mediada por un filósofo, el doble sentido del
“traductor” no es menor, entrega de todas formas una “metanarración” sobre el
impacto de la construcción de una realidad redactada de modo coherente y de la
que es muy difícil zafar sin coincidir con sus “reflexiones”.
Como usuario recurrente de IAG, la uso cuando busco alguna
precisión sobre una fuente, o en alguna ocasión para generar un camino de
construcción de contenido. Pero esta experiencia tuvo un desarrollo que implicó
que al tiempo de esa exploración entendí que cada tema que “trabajaba” debía
ser con suficiente conocimiento previo, y en contraste de la fuente o la
respuesta que generaba, debía lograr respaldar sus afirmaciones, pues un
problema recurrente son las denominadas “alucinaciones”, por lo que debe haber
un control claro de lo que se requiere del programa.
Hace algunas semanas la periodista especializada en tecnología
Marta Peirano, en una columna de El País de España resaltó que la “tasa de
mentiras” de la IAG es de entorno al 50%, declarado en una conferencia ante
accionistas por Sam Altman, CEO de OpenIA, el 11 de agosto. Lo relevante de su
afirmación es que esta tasa ha aumentado en la medida que se masifica el uso de
su herramienta.
Un paréntesis. La diferencia entre una “alucinación” y una
“mentira” de la IAG es que en la primera se “describe un caso individual de
información falsa generada por la IA.”, y la segunda “es una métrica
estadística que mide cuántas de esas respuestas son falsas en un conjunto
determinado” (definiciones generadas por ChatGPT y corroborado en una búsqueda
en Google).
Según la periodista, el reconocimiento de esta estadística es
alarmante, pues la certeza, que es uno de los potenciales que se ha ofrecido como
un avance que implican las plataformas de IAG, este sería menos que una
“mentira”, casi suena a un fraude. Pero en general los desarrolladores se
defienden con la idea que esta es una tecnología que está en sus primeros
pasos. Y sí, es cierto que estos dos años de masificación hemos aprendido a
convivir con ese margen de incerteza, la sospecha que aquello que nos responde
es una mera suposición expuesta con un bello “verso”, una ajustada narrativa
que le acierta un 50% de las veces, es con lo que deberemos vivir, de momento,
hasta que los algoritmos mejoren su desempeño.
Cuando Andrea Colamedici, en el epílogo -de la edición
internacional- de Hipnocracia nos explica el trasfondo de su
experimento, profundiza en la “soberanía perceptiva” como una forma de “lucidez
dentro de la simulación”, es decir la capacidad del sujeto para mantener el
control sobre una experiencia sensorial y cognitiva, probablemente es el modo
que tendremos para sostener la interacción con la interfaz IAG, de otro modo perdemos
independencia, nos hacemos dependientes y la herramienta se transforma en el principal
soporte para entender el mundo, y en verdad que eso no parece el mejor de los
futuros.