Antes de anticipar nada sobre el porqué de este título tan clickbait (en mi época se decía taquillero), le pido al lector que tenga la paciencia de hacer el recorrido conmigo para llegar a develar el misterio.
Spoiler alert! Pero si el lector no tiene paciencia (yo escribo mucho, no logro controlar el caos que tengo en mi cabeza), el post puede ser leído en tres etapas separadas:
- Explotó ante mis ojos (o de las prácticas educativas posibles con ChatGPT);
- En diálogo con Carlos Scolari (o de porqué a mí todavía no me termina de convencer que ChatGPT pase el test de Touring y el de Baricco)
- Flashback (o de mi falshback respecto a la plataformización de la sociedad y de la educación con respecto al comportamiento de Open AI).
👉🏻ENGLISH VERSION –
Explotó ante mis ojos
A la preocupación inicial de los educadores respecto de la facilidad con la que los estudiantes van a desbancar el vetusto poder del docente poseedor del conocimiento (ffffffffff ya era hora….) usando ChatGPT, siguió una fase de creciente entusiasmo.
La inteligencia artificial generativa no nos va a hundir, va a ayudarnos a pensar como hacemos docencia, como lo reporta este artículo de Technology Review del MIT (6/04/2023) .
Euforia. Creatividad.
Cientos de ideas de práctica educativa en relación a ChatGPT, que por antonomasia se convertía en LA Inteligencia Artificial, se aparecieron ante nuestra mirada inquieta, curiosa, tal vez incrédula.
No faltaron los webinar con quien anticipó o tuvo la autoridad para abrir ese espacio, orientando prácticas. Como el que promovió el CRADLE Deakin University (Australia) en dos sesiones; o el que lanzó la red europea EDEN, ambos proponiendo a las y los educadores de abandonar el estado de estupor para experimentar y transformar la práctica educativa. Otros webinar como éste por ejemplo, se orientaron menos a repensar la práctica y más a cómo integrar “exitosamente”, “innovadoramente” instrumentos de origen privado en la práctica educativa según un esquema de business al que la tecnología educativa nos tiene acostumbrados (Siguiendo Neil Selwyn, Ben Williamson o Geo Saura y Pablo Rivera-Vargas si quieren leer en castellano).
Lo cierto es que mientras ha ido creciendo la discusión de cómo integrar ChatGPT en varias áreas de servicios y producción según los cientos de posibilidades del pequeño engendro algorítmico (vease por ejemplo: 11 Powerful output formats ChatGPT can produce (with examples), 11 formatos potentes que ChatGPT puede producir (con ejemplos)), la educación no podía quedarse atrás.
Y educadores y educadoras expertos se lanzaron a generar espacios y prácticas, preguntándose a través de una intensa relacionalidad y contextualizando el enfoque de trabajo con la herramienta. En las experiencias mencionadas en el artículo de MIT mencionado antes, se indican experimentos de generación de argumentos para desarrollar un tema; consulta durante los pasos de resolución de un problema; elaboración de ejercicios como ejemplo para reflexionar sobre el proceso mismo de búsqueda de una solución. En una serie de briefings o breves artículos sobre prácticas en curso en el London University College, se invitaba a pensar a los docentes que la IA es buena para:
- Responder a preguntas cuyas respuestas se basan en material que puede encontrarse en Internet.
- Redactar ideas y planificar o estructurar material escrito.
- Generar ideas para gráficos, imágenes y elementos visuales.
- Revisar y analizar críticamente materiales escritos para evaluar su validez.
- Ayudar a mejorar la gramática y la estructura de la escritura (especialmente útil si el inglés es una segunda lengua).
- Experimentar con diferentes estilos de redacción.
- Obtener explicaciones.
- Depurar código.
- Superar el bloqueo del escritor.
Y se acompañaba este listado con una serie de ejemplos de cómo se pueden implementar esas sugerencias.
Buscando, buceando, tratando de entender las muchas colecciones que van creciendo, algunas llegan a proponer cientos…Literalmente 101…actividades educativas en relación a la Inteligencia Artificial, que parecía estar en gestación desde hacía mucho tiempo, pero logró un espacio de sistematización a partir de nuestr3 amig3 el ChatGPT y su primo Dall-E.
Lo que aparece con claridad en todos los ejemplos que he ido viendo es un esfuerzo por
a) fragmentar las tareas en varios pasos más pequeños, donde la máquina no falle al recuperar información y pueda proveer mayor especificidad;
b) usar el estimulo dado por la máquina para trabajar, ampliar, reflexionar;
c) estimular el alumnado a elaborar preguntas mejores que puedan desencadenar “loops” (humanos!) de a) y b).
Sin embargo, el problema de generar un espacio de “loop” humano es que se requiere una capacidad crítica y un nivel de expertise muy alto de parte del docente. De hecho, uno de los listados más “humanamente inteligentes” que he seguido desde su desarollo ha sido el que ha elaborado Mariana Ferrarelli, experta comunicadora y educadora argentina:
En su tarea, que se desarrolla en constante conversación entre pares en la red, Mariana fue haciendo experimentos y ajustando sus preguntas, hasta llegar a hacer emerger los problemas éticos, el lado ciego de estos instrumentos, o la pupila dilatada del replicante de Blade Runner. Ese momento en el cuál vemos al desnudo la infraestructura algorítmica y podemos dejar de jugar a humanizarla. Pero repito, llegar a este punto requiere grandísima competencia como educadores y exploración de la relacionalidad, de la forma en la cuál una información que da el sistema como respuesta oscurece o ignora actores o situaciones o problemas de un dado contexto —-pues el cyber-engendro no ha nacido en la latitud Sur. Y aunque no tenga un cuerpo normativo, pues el suyo es de bits y cálculo probabilístico de conjuntos de palabras ante un input construido con otros grupos de palabras, si ha sido creado a imagen y semejanza (cosa que yo ya discutía en un post anterior).
No tardamos en llegar a las publicaciones científicas
Una rápida búsqueda en Google Scholar ayer, 11 de Abril, nos arroja 1790 resultados para 2023, de artículos escritos en varios ámbitos científicos. En la imagen que sigue, observamos el caso de la ingeniería biomédica, y de las ciencias sociales, pero recorriendo los primeros 10 resultados del listado encuentro ejemplos de los estudios literarios, de la biblioteconomía, la salud pública, medicina clínica. Lo que impresiona en todos estos casos es que estos artículos ya tienen entre 3 a 12 citaciones, lo que significa que hay como mínimo 3 a 12 artículos escritos y publicados tocando el tema.

Por supuesto, no nos quedamos atrás en la educación. Tlili et al (apenas iniciado el 2023, imaginar a la velocidad fotónica a la que escribe esta gente), acompañaba con cascabeles el sonido del tambor ChatGPT no es desde luego tan malo: “What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education” (Y qué pasaría si el demonio es mi ángel de la guarda: ChatGPT como caso de estudio de uso de chatbots en la educación). Con originalidad los autores se basan en un trabajo realizado en en tres etapas, la primera analizando el discurso público en los medios sociales, la segunda que examina el caso de ChatGPT a través de una revisión crítica desde el diseño educativo, y la tercera y última etapa del estudio, que ha investigado experiencias de uso de diez escenarios educativos. Luego de este trabajo, aceptable a nivel empírico por el poco tiempo en el que puede haber ha revelado según los autores algunas cuestiones, los autores concluyeron que el discurso en redes es generalmente positivo y hay entusiasmo respecto a su uso en entornos educativos. Sin embargo, también hay voces que se acercan con cautela al uso de ChatGPT en entornos educativos. Y que temas como el engaño, la honestidad y veracidad de ChatGPT, la violación de la privacidad y la manipulación existen no obstante la bondad del instrumento.
Los hallazgos de este estudio proporcionan varias direcciones de investigación que deberían considerarse para garantizar una adopción segura y responsable de los chatbots, específicamente ChatGPT, en la educación, concluyen los autores.
No deje pasar el lector la antonomasia, de nuevo presente en este ejemplo.
Y sin lugar a dudas uno de los ejercicios intelectuales más desafiantes que he afrontado fue el trabajo en nuestra obra colectiva (más de 30 autores) “Speculative Futures on ChatGPT and Generative Artificial Intelligence (AI): A Collective Reflection from the Educational Landscape” nos llevó también a explorar los costados positivos y negativos de este instrumento.
Partimos justamente del hecho que la IA tiene una larga historia y ha habido un gran debate en la filosofía desde los años 60, que nunca se volcó a la opinión pública de la manera exponencial en que ChatGPT lo ha hecho, pues nadie tenía el acceso a la IA (que era hipotética, teóricamente desarrollada y en algunos casos implementada en laboratorios). Sin embargo, también pusimos de manifiesto que la IA ya se ha utilizado ampliamente en todas las dimensiones de nuestra vida, incluida la educación. Y ello, no era visible tampoco en la opinión pública.
Por eso se decidió la necesidad de trabajar en un artículo colectivo, pero lo hicimos a través de un enfoque particular, concientes de no poder trabajar empíricamente de otra manera que no fuera en una escritura colectiva basada en nuestra propia imaginación, fuertemente conectada a nuestro conocimiento experiencial del mundo. Trabajamos así en una una colección de relatos especulativos sobre posibles escenarios futuros de IA, centrado específicamente en la educación. Las implicaciones para la teoría, la práctica y/o la política se orientaron fundamentalmente en la necesidad de un desarrollo de nuevos alfabetismos y contextos de uso pues no podemos adoptar ciegamente las tecnologías IA. No puede tampoco restarse importancia al rol de los educadores en el impulso de un discurso tecno-entusiasta, pues aún en los futuros más distópicos la necesidad de participación y de expresión, así como la expresión de solidaridades colectivas es inherente al digno ser y existir humano.
En menos de dos meses entendimos que lo que nos hace falta es una competencia algorítimica para entender la caja negra (es decir, que existe una caja negra) y que lo útil es saber hacer preguntas. Preguntas que compartimentalizan el tipo de conocimiento que puedo extraer y que me llevan a resolver un problema cuya visión heurística puede ser solo humana.
Pero también comenzamos a preguntarnos más fuertemente cuál es el sentido último de la educación y del acto de educar, en el presente, si un chatbot puede sustituir las profesiones de la educación.
Para mí ha sido de increíble claridad la formulación hecha por Maha Bali en su reciente post en conversación con Sara Eaton (autora de un libro sobre el plagio), que nos orienta a pensar una era del “post-plagio”. Tenemos en el horizonte los mismos problemas: necesidad de equidad, necesidades de justicia epistémica, de acceso, de desarrollo de la creatividad humana, en un contexto en el que la escritura híbrida, apoyada por herramientas IA va a ser normal.
Si hay algo que este primer ciclo frenético nos deja, es la pregunta por quienes somos, en un mundo en el que no somos el centro del universo, no somos el centro de la naturaleza, no somos el centro de nuestro propio psiquismo, y no somos el centro de una red informacional, hecha de agentes inteligentes que como Luciano Floridi lo indica, desarrollan sus tareas independientemente de nuestra intervención. Nuestra inteligencia debe ser repensada, sin lugar a dudas.
En conversación con Carlos Scolari
Después de esta avalancha de idas y venidas entre usar y no usar el chatbot estrella, llegan a despertarme las potentísimas las reflexiones de Carlos Scolari en su blog Hipermediaciones. Según este estudioso, ChatGPT no solo pasa el test de Touring, sino también el de Baricco. Dice Scolari que si el test de Touring implicaba generar una inteligencia que pudiera ser tan a imagen y semejanza de la humana para no ser reconocida, el de Baricco está basado en la lógica del videojuego llevada a cada esfera de la vida humana. Si esa lógica adictiva, eficaz, de tiempo inmediato entre el problema y la exploración de soluciones, de aprendizaje basado en la inmersión del contexto de juego, entonces están dadas las bases para que haya rotundo éxito de lo que se nos propone como fenómeno (socio-técnico). Y ChatGPT pasa el test de Baricco, según Scolari.
Sin embargo, el énfasis en el vértigo y la eficacia de la metáfora comunicativa pop nos podría hacer olvidar que algunos estímulos altamente adictivos son también destructivos. Esa fue una intución inmediata. ¿Touring y Baricco son suficiente prueba para considerar que esta herramienta AI gobernará nuestros días?
Puse de manifiesto mi preocupación por la ecuación por antonomasia de ChatGPT = AI en un espacio al que gentilmente me invitó la universidad de PISA para reflexionar sobre la IA en la educación. Como soy muy cauta respecto de mis conocimientos, dije que podía hablar sobre mi reciente investigación en alfabetización en datos, y desde allí pensar el tema de la IA. Abajo mi presentación con enlaces.
Mi reflexión fue muy simple. A más de 50 años de reflexión sobre la IA, con cientos de desarrollos en curso en ámbitos como la robótica industrial o aplicada a la rehabilitación y la cura. O bien, pensando en el trabajo ya existente en las analíticas de aprendizaje, mi primer intuición fue hacia todos los problemas y discusiones sobre el lento crecer de los ecosistemas de datos que permiten a la IA de existir, a las que he asistido en mi trabajo de diseño de tecnología educativa. Y fue allí, conectando mi trabajo de investigación reciente sobre la dificultad de generar datos abiertos usables, sobre la dificultad de educadores y educadoras de sentirse representados/representadas por los datos a los que tenian acceso, o de la dificultad en usar ciertas herramientas de interfaces misteriosas y altisonantes en sus promesas, pero frustrantes en su prestación, que surgió la siguiente reflexión. Pensé en primer lugar en cuán poco se aplicaría el test de Touring o de Baricco a estas herramientas y procesos. Y cuanto sin embargo, muchos de estos procesos forman parte de redes de pequeños datos, generados con esfuerzo por redes locales e infraestructuras localizables…Por ejemplo el mismo Proyecto eSTEM que dió hospitalidad al evento ofrece la posibilidad de diseñar proyectos educativos adoptando un algoritmo para orientar el diseño a partir del procesamiento natural del lenguaje sobre textos educativos que han sido etiquetados para poder ser clasificables según su nivel de respuesta a la taxonomía de Bloom.
¿Mataríamos los ecosistemas de pequeños datos, que funcionan en base a estructuras digitales más locales y a través de esfuerzos distribuidos, de trabajo en lógica Open Source y sobre datos abiertos de investigación y gobierno, si esas interfaces fueran reemplazadas por la más oscura ChatGPT?
Entonces, ChatGPT ¿pasaría un aburrido y menos prestigioso test de soberanía digital?
Y entonces, mientras me encontraba en estas cavilaciones, ésto:

La decisión del Garante de la Privacy en Italia, que comenté en Twitter, desencadenó una tempestad de rabia en quien sintió ofendida su libertad de acceso al juguete nuevo. Luciano Floridi reportó la discusión en la cual se embarca el Politécnico de Turín con excelentes referencias a la problemática que implican este tipo de disposiciones. Contrapuesta pero extremamente sólida la posición de Luca de Biase, que ha explicado con mucha claridad cómo se desarrolló la historia sobre de interrupción del servicio en Italia.
Dice el De Biase: “Europa debe encontrar una manera de equilibrar su debida atención a los derechos y una política que aliente a las empresas europeas a innovar en la dirección que redunde en beneficio de todos. Europa está innovando en regulación. También debe ser capaz de innovar en la política general“. Lo que advierte De Biase es que “Europa corre el riesgo de que medidas” que invitan a revisar los principios de la dignidad y del cuidado de lo humano en cada innovación puedan ser “entendidas sólo a medias”. Yo aplicaría esos principios a escala global.
Lo cierto es que ChatGPT generó violaciones a la privacidad de ciudadanos italianos, y se le pidió claridad respecto a la forma con la cuál se enfocan las técnicas extractivas sobre las que se basa el algoritmo. Pero la herramienta de OpenAI, según su fama aumenta, se vuelve más y más cerrada, más caja negra ante una sociedad que también necesida de normativas y regulaciones para proteger los derechos de la ciudadanía.
Yo me sentí en un territorio gris al que llegaba luego de la explosión de fuegos artificiales del lanzamiento de ChatGPT: entiendí que toda la investigación sobre plataformización tenía algo que decir respecto a este problema (y vuelvo a Selwyn, Williamson, Saura, Rivera-Vargas).
¿Libertad de innovar sin frenos y después vemos que pasa si hay daño? ¿O control progresivo y colectivo para considerar el daño antes que suceda? ¿Qué es más democrático?
El flashback llegó entonces.
Flashback
Situación presente ya vista: una tecnología “golosa” (que pasa el test de Baricco), orienta el entusiasmo, la frenesía del ensayo y error, la reflexión sobre sus futuros posibles. Esa tecnología revela su naturaleza monopólica, que requiere una discusión jurídica y política desde lo local, a la que ninguno, obnubilado por el fuego de Prometeo, quiere oir.
Pasó con Facebook
Pasó con Google
Pasó con Twitter.
Pasó con TikTok
¿Porqué navegamos (aún a mayor velocidad) la misma ola, la cabalgamos de la misma manera y nos exponemos de la misma manera? ¿Cuanto tardará la crítica en llegar?
No sé si esta posición es demasiado excesiva (encabezada por Yuval Harari). Pero sí sé que con lucidez en América Latina también ya han llamado la atención: “Gracias Elon, pero el problema es otro” , a partir de la declaración de Montevideo que yo también firmé con gusto. Y cito:
No podemos dejar de resaltar, sin embargo, la soberbia que implica emplazar a la democracia con sólo seis meses. Gracias señores de la tecnología, cuánta generosidad de su parte, ciento ochenta días. Pero vamos más allá. Como señalamos en la Declaración de Montevideo, “la evaluación y mitigación de riesgos e impactos debe ser parte del proceso de diseño y debemos implementar instrumentos para prevenir, detectar tempranamente e incluso suspender la implementación de tecnologías cuyos riesgos sean inaceptables“.
Justamente, me parece que tenemos que considerar lo que sabemos sobre plataformización. Aunque los grandes modelos de lenguaje no sean exactamente una plataforma, el modelo ChatGPT se ha comportado con muchas de sus lógicas. Las plataformas ofrecen una interfaz, una estructura en la ques posible insertar o gestionar cualquier contenido. La masiva presencia de usuarios genera oligopolios o monopolios digitales, hacen pasar sus modelos de negocio por rapidez y usabilidad, que trasforman en necesidad. Infunden en las personas una sensación de “me lo estoy perdiendo” si no se allegan al fenómeno o mucho peor aún “si no lo conozco no podré formar parte de la sociedad avanzada (y al poder, agrego yo)”. En un simposio que lideró Ben Williamson y luego salió publicado en la revista Harvard Educational Review estos efectos se planteaban con claridad, y reclamanban atención. Y a ello agreguemos la progresiva decadencia del modelo de negocio de las plataformas que Cory Doctorow llama, sin tantos eufemismos “the enshittification”. algo así como “el proceso de enmerdamiento” y muestra en este post poniendo como ejemplos Amazon, Facebook y finalmente la taquillera TikTok. Todo empieza con la captura de la atención, con “queremos estar ahí”. Entonces quien vende (y paga nuestra montaña rusa de sensaciones en la plataforma de turno, que se trate de enviar buenos días con glitter, comprar cualquier cosa a bajo costo, ver videos de gatitos, discutir de fútbol o política en dos frases, o desafiarnos con improbables coreografías en la cocina, quien paga quiere estar ahí. Y la plataforma promete a quien paga que todos los que estamos ahí drogados de entusiasmo en lo que sea que estemos haciendo, vamos a comprar, pagar, querer más, distraídos con nuestro quehacer tóxico. Promesas falsas, sueños rotos: el modelo no puede garantizar a todos los que pagan la atención completa, según Doctorow. De ahí a los despidos masivos de las BigTech.
Yo este test de Baricco lo dejo “volentieri“ y me voy a recorrer mis senderos de aburrimiento (por ejemplo en este blog). Forever alone. Pero tranquila.
Necesitamos generar espacios para gobernar estas plataformas y que su inclusión se corresponda con nuestras necesidades de desarrollo humano. Yo he dicho (Seminario de la Universitat de Barcelona) que tenemos que relacionarnos, hablar, generar una práctica reflexiva alrededor de la IA. Pero no usaba la antonomasia. ChatGPT no es por antonomasia la IA.
Quiero cerrar (por ahora) y para ello me remito a mis amigos Ni apocalípticos ni integrados es lo relacional: las tecnologías que usamos tienen su razón de ser si colocan en contexto, si se activan en relación al devenir humano, con sus tiempos de reflexión irremisiblemente más lentos respectos de la capacidad de acción.
A ver si salimos de este flashback usando lo aprendido.