¡…lo logré! ¡Yo también me agrego al coro de gente que está escribiendo y hablando de él/ella/eso/ésto!
Son días frenéticos. Todos corriendo como locos para allá porque todos corrieron para allá y entonces algo allá habrá.
Aquí va Google Trends sobre cuanto hablamos de ChatGPT.
ChatGPT es la última versión del conjunto de GPT (Generative Pre-trained Transformer) de OpenAI. Amigos, habla varios idiomas así que si quieren/queréis probar también les/os deleitará en el idioma de los conquistadores ibéricos (no me pregunten como va en en quechua o guaraní aunque me da curiosidad…si alguien sí puede hacerlo).

Uno ya no alcanza a imaginarse con qué velocidad nos entusiasmaremos con la próxima ola innovadora tecnológica, porque si para llegar al millón de usuarios/gente que habla de…las dot.com, Facebook, MOOCs y la clase invertida tomamos desde años a meses, con ChatGPT estamos hablando de cinco días.
Cinco días y toda la humanidad está concentrada en qué, cómo y cuándo esta cosa entrará en nuestra vida cotidiana cambiandola para siempre.
¿Y saben qué? Con una mirada intelectualmente honesta y sin tantas sensaciones adrenalínicas de por medio, diganme de verdad cuanto cambió positivamente su/vuestra vida después de las dot.com, Facebook, MOOCs (y ahora sólo para educadores) la clase invertida.
Y entonces, con esta sensación contrariada…esta voz interior que les/os dice “Sí pero pero pero ahora no es lo mismo, esto es REALMENTE otra cosa” volvemos nuestra mirada sobre la cotidianidad y nos decimos tal vez “pero…en fin, sigo enseñando en un mundo donde la injusticia prevalece y ninguna de estas invenciones disruptivas cambió eso…” Y ahora ¿como podría ser diferente? (pregunta heurística y abierta, no por el mero placer de la retórica).
Yo nomás trato en estos días de hacerme una idea de cómo conviviré con este frenético avance tecnológico y cómo lo esperaré o más bien lo recibiré en mis aulas atravesadas por las inequidades del planeta global, de una sociedad tremendamente envejecida, violenta, irreflexiva, y por supuesto, un contexto ecológico que ya no podemos dejar de olvidar.
La primer reacción de la comunidad académica/educativa ha sido de horror.
Los educadores reaccionaron con consternación cuando los primeros usuarios de ChatGPT demostraron que podía producir tareas académicas que serían difíciles o incluso imposibles de detectar como escritas por una máquina, lo que llevó a una gran preocupación sobre su uso para hacer trampa en el estudio. Los programas anti-plagio existentes ni siquiera serían capaces de detectarlo…En enero de 2023, los departamentos de educación estadounidenses habían empezado a bloquear totalmente el acceso a ChatGPT en los dispositivos escolares o en las redes de Internet (Elsen-Rooney, 2023).
Re-examining AI, automation and datafication in education, Williamson, Macgilchrist & Potter, 2023. Traducción de Deepl con alguna intervención mía para que no huela tanto a traducción automática.
¿Cómo vamos a seguir haciendo lo que sabíamos hacer tan bien, es decir, largar alguna pregunta de contenido y esperar una suerte de vómito intelectual con el libro de texto comido (atragantado e indigesto, diría) recientemente por nuestro estudiantado? Sabíamos como responder a ello: sabíamos que sólo teníamos que hacer una disección del vómito identificando las partes extrañas, los componentes no necesarios, y todo lo demás, todo lo conforme, indicaba la regularidad y el pase de examen. Pero este agente nos deja sin eso. Tanta es la preocupación que se debate a nivel de políticas y orientaciones nacionales como en el JISC (UK) por ejemplo: ¿Señalará ChatGPT el fin de los ensayos escritos en la academia?
Todos nos sentimos increíblemente tironeados por este tema y TODOS (que tire una piedra el primero que aún no lo haya hecho) hemos ido a charlar amigablemente con ChatGPT. Y charlando con él/ella/eso/ésto, intentamos no revelar el terror que nos invadía su presencia multilingüe, correctísima en el contenido y cuidad en su orientación a una charla políticamente correcta.
Va mi test para quien lee: ¿Cuántos de uds/vosotros pasaron más de media hora tratando de encontrar el error, la mancha, la incorrección en ChatGPT? Es decir, resonando en esa voz existencial que nos lleva a pensar que “humano es mejor, aún, que máquina”.
Y mi segundo test: ¿Cuántos encontraron respuesta, y qué respuestas encontraron?
En otro post si tengo tiempo les/os voy a contar qué me pasó a mí. Tomé unas cuantas notas autoetnográficas, pero me gustaría saber qué les/os pasó a uds/vosotros.
Mientras voy leyendo gente increíblemente inteligente que ya va anticipando el fenómeno, se configura en el horizonte para mí una certeza: que no podemos evitar a la bestia, pero tampoco tenemos que traerla aquí para centrar toda nuestra atención en ella. Y de eso emerge un modo para entrar en relación con ella en nuestras aulas.
A ver.
Como sucedió con las redes sociales, va a ser imposible no prestarle atención y no reflexionar sobre los mundos futuros, posibles, imposibles y alternativos al uso de estas herramientas. Como lo sugirió Cristóbal Cobo en el Congresso de Inteligência Artificial da PUC-SP, podremos aprender de, sobre y con la Inteligencia Artificial, lo que implica una serie de operaciones en nuestras aulas ligadas a explorar cualquier tipo de dispositivo con el que nosotros o nuestro alumnado se tope (baste pensar a una herramienta de traducción automática como la que voy usando en este blog para trabajar sobre literatura en inglés – DeepL-; o una herramienta que permite la corrección automática de la gramática y el parafraseo de un texto en inglés, como Quillbot). Y entonces, pasar de ese fácil e intuitivo aprender con, para aprender sobre, preguntarnos qué es ese instrumento, qué podemos y qué no podemos hacer con éste, pensando en las políticas de los automatismos:
Las tecnologías automatizadas como los LLM, o la IA, la automatización y la digitalización en general, no son neutrales ni obviamente beneficiosas para los profesores, los estudiantes, las instituciones o los sistemas educativos en su conjunto. Su desarrollo, despliegue y uso dependen de luchas de poder socialmente situadas por la influencia.
Re-examining AI, automation and datafication in education, Williamson, Macgilchrist & Potter, 2023.
En su “plácido lugar de ignorancia” Ann Marie Scott me sorprendió plácidamente con sus ideas acerca de qué deberíamos esforzarnos por no ignorar sobre ChatGPT. En su post de indigerible traducción para mi pobre DeepL “ChatGPT and Grimm Realism” la Scott orienta:
Que ChatGPT haya sido capaz de replicar tan fácilmente tantos ejemplos de escritura común dice algo sobre lo gris que es ese trabajo. Si ChatGPT puede escribir un “buen” plan de estudios no es porque sea inteligente, sino porque ha sido entrenado con un gran corpus de planes de estudios bastante indiferenciados, escritos por nosotros. Lo mismo ocurre con las descripciones de puestos de trabajo, los comunicados de prensa, los ensayos, etc. Tanto texto de mierda hace que el generador de texto d sea muy eficaz en generar mierda.
ChatGPT and Grimm Realism, Scott, 2023.
Y esto es, amigas y amigos y amigues, lo que me he encontrado yo misma interactuando con este correctísmo robot escritor (y ya lo comentaré en otro post, pero quería apurarme a decirlo). Una enseñanza de esas que nuestro alumnado puede llevarse a casa: un escritor automático escribe lo que le enseñamos nosotros y nunca, como lo subraya la Scott, integrará su texto con historias de vida, con posiciones, con dolores existenciales y tantas otras cosas que hacen que lo humano (me vuelvo a mirar a la Arendt en esta idea) sea exquisitamente imprevisible, y nazca como humano por el derecho a la imprevisibilidad (Arendt, Vita Activa).
El problemita es que nosotros (o sea lo impresivible que da lugar a lo humano del nosostros) también nos hemos quitado del medio, con la burocracia, los procesos y la satisfacción que nos da la seguridad de la repetición de lo que es igual a sí mismo. Y eso es mucho más fácil que inventar lo nuevo.
No nos debe sorprender si nuestras máquinas, hijas de nuestra mirada de la perfección, se comportan como nuestro espejo con todos los riesgos que implica la repetición estocástica .
Esa repetición también encierra aspectos de una oscuridad mucho mayor, de la que nuestro alumnado (en especial este alumnado que viene de la periferia de las ciudades y de la periferia del mundo y nunca ha sido modelo de nada) tiene que conocer. Que esa repetición se basa en un modelo que los excluye como fuente de belleza, de bondad y de excelencia, por lo que la máquina va a seguir excluyendo su representación (como me pasó a mí cuando le pregunté a Google Lens qué sugerencias de imagen me daba cuando le presenté una remerita con imágenes de líderes latinoamericanos).
Y peor es cuando descubrimos que esa representación existe sólo en el trabajo oculto en la máquina para dar a luz estos objetos de culto tecnológico. La Scott lo dice con claridad extrema:
Y ahora leo cómo se construyó ChatGPT; el siempre oculto trabajo humano que hay detrás de la plataforma. Leo sobre el trabajo precario en el extranjero, mal pagado y absolutamente traumatizante, todo para garantizar que nuestra delicada sensibilidad no se vea ofendida por las cosas más viles que podemos hacernos los unos a los otros y al mundo que nos rodea.
ChatGPT and Grimm Realism, Scott, 2023.
La Scott trabaja en Canadá y habla en inglés, por lo que releamos lo de la ofensa de su sensibilidad, que no es la mía ni la de muchos de uds. que ya trabajan en condiciones paupérrimas y tal vez les enseñen a ese alumnado que va a trabajar en los sistemas de etiquetamiento global del sur del mundo. Considerando la problemática que pone de manifiesto Milagros Miceli en su increíble trabajo entre la sociología y el etiquetamiento en la computer vision.
Por lo cuál ahí tendremos otro tema fundamental para tratar con nuestro alumnado: ¿Cuando interactúan con estos sistemas: obtienen resultados bizarros, que no se entienden, que refieren a algo lejano?¿Y saben cómo se han generado las bases de conocimiento (o mejor, de datos) a partir de las cuáles este agente inteligente ha crecido, se ha desarrollado y se presenta hoy a nuestros ojos?
En definitiva, tendría en cuenta, como educadora, los elementos que se indican en la editorial de Learning, Media & Technology ya citada (Williamson et. al, 2023) y que sirve en nuestro plato una serie de investigaciones críticas respecto de la llegada de la AI a la educación:
- La política de los automatismos, que ya he comentado más arriba, y que incluye todas las maniobras asociadas a la producción de datos y de contextos para que la máquina aprenda, lo que implica larguísimas cadenas de montaje digital a bajo costo situadas generalmente en el sur del mundo.
- El hecho que esos automatismos se sirven integrados a infraestructuras corporativas o plataformas (como Google Classroom, pero también como Intelliboard, Dojo Class, Perusall y cuanta otra herramientilla se cuele en nuestras clases virtuales como la solución a nuestra pesada tarea docente de evaluación y de feedback al alumnado)
- El hecho de que los automatismos se colocan en una relación estrecha con el conocimiento científico, como si la matemática, la estadística, la psicometría y la biometría por su sola presencia contribuyeran al rigor y a la precisión de la tarea docente eliminando ese pesado resto de subjetividad que caracteriza al docente humano. Un panel basado en datos genera esa ilusión óptica en nosotros y nuestro alumnado, aparentemente. Habría que chequearlo en la investigación. Porque hasta donde vengo viendo con mis entrevistas y tarea con docentes, estos paneles provocan más ilusión que realidades y terminan siendo abandonados luego de un período inicial de genuinos intentos de aplicación.
- La instrumentalización de la ética como respuesta a todos los problemas abiertos por estas tecnologías, que se trata simplemente de un contorno, una contingencia, un acompañamiento más bien teatral para liberar la comercialización. Por ejemplo, de una exploración personal del instrumento Dall-E (de generación de imágenes a partir de un texto) yo misma he obtenido resultados muy contestables como una sobrerrepresentación de mujeres ante el texto “the teachers are working” y de varones en “the engineers are working”. Por toda respuesta, OpenAI terciariza de manera cuestionable el control de la discriminación y mucho peor, del lenguaje violento y las imágenes cruentas, y en general, toda la investigación sobre la seguridad de la AI, como lo denuncia Timnit Gebru en su reciente artículo para Wired.
- Y la pregunta sobre qué mundo sería este sin esas tecnologías o con sistemas diseñados de otra manera.
Y eso me lleva a un comentario final, basandome siempre en lo que he logrado detectar en este último tiempo de pensar mi vida en la era post-ChatGPT.
En lugar de “imaginar” lo que ChatGPT podría hacer en el aula, los educadores tienen que adaptar los debates, las actividades y las evaluaciones al nuevo entorno que crea.
Parte de ese trabajo es apasionante, como cuando muchos de nosotros empezamos a introducir las redes sociales en el aula para conectar a nuestros alumnos con pensadores externos o colaborar en tiempo real en un documento compartido.
Otra parte, sin embargo, es como lo que ocurre cuando tenemos que elaborar planes de emergencia ante la posibilidad de un francotirador. Haremos el trabajo, pero la adaptación a) podría haberse evitado, y b) sólo distrae del trabajo.
You’re Not Going to Like How Colleges Respond to ChatGPT. Gilliard and Rorabaugh, 2023.
Me parece bastante elocuente.
Lo primero que tenemos que hacer es mirar nuestras agendas y nuestros objetivos de trabajo, que tal vez pasen más por ver cómo promover el bienestar de una comunidad y de sus grupos humanos. La desazón de las y los jóvenes tal vez requiera más atención a una relación pedagógica, caracterizada por su necesaria humanidad y el diálogo que la atraviesa. Algo que ChatGPT todavía no puede hacer. Pero si seguimos prestando atención a ChatGPT nuestros gobernantes podrían creer (como lo hicieron cuando invirtieron millones en las pizarras inteligentes y en cursos para aprender el paquete Microsoft Office) que sus próximos votos van asociados a cómo integrar tecnologías inteligentes que integren ChatGPT (u otro modelo de lenguaje automatizado). Y entonces nuestra atención se monetizaría, como ya lo hizo Google Classroom, según nos lo cuentan Geo Saura y colegas.
Y nuestra atención allí significa distracción sobre la posibilidad de generar futuros y estructuras digitales alternativas, como las que se cumplen a través del esfuerzo de generar otros datos y de tener acceso a ellos y al diseño tecnológico que podría surgir, como queda plasmado en el trabajo sobre procesos de democratización digital (Declaración por una educación digital democrática y abierta, propuesta de colectivo coordinado por XNET). O algunas propuestas de generar una AI Open source.