Sale otra versión de DigComp (3.0)

¿Vino viejo en odres nuevos?

Entre marzo y junio trabajé intensamente con mi equipo del proyecto ETH-TECH (Anchoring Ethical Technology – AI and data in education) en el análisis de una amplia muestra de planes docentes o syllabi de la formación inicial de docentes y educadores en varios países europeos. La investigación se centró en identificar en qué medida —y de qué manera— la ética de la IA y de los datos aparece representada en estos documentos curriculares, entendidos como artefactos públicos que condensan visiones pedagógicas, prioridades institucionales y marcos normativos implícitos. Los resultados mostraron una presencia escasa, fragmentaria y mayormente implícita de la ética, a menudo reducida a formulaciones genéricas o desplazada hacia competencias instrumentales, con notables diferencias entre contextos nacionales (Raffaghelli & Negru-Subtirica, 2025).

A esta fase analítica le siguieron una serie de Awareness Raising Sessions desarrolladas en cuatro países, concebidas como espacios de sensibilización y reflexión situada con profesorado y estudiantado, que pusieron en evidencia las tensiones entre los marcos normativos europeos, los currículos formales y las prácticas reales, así como las dificultades para traducir principios éticos en acción pedagógica concreta (Negru-Subtirica, Raffaghelli & Marinica, 2025). Este recorrido empírico me llevó a reflexionar sobre la fuerte presencia y centralidad de los frameworks europeos de competencia digital en el ecosistema educativo europeo, especialmente en países como Italia y España, donde las recomendaciones de la UE adquieren un peso particular, entre otros motivos, por la dependencia estructural de fondos europeos para la investigación y la innovación educativa.

En este contexto, me pareció relevante detenerme en el flamante DigComp 3.0.

Yo había participado de forma activa en el desarrollo de DigComp 2.2., coordinando el grupo de data literacy, que posteriormente se escindió entre una línea centrada en habilidades informacionales y otra orientada a la discusión sobre algoritmos, captura de datos y sistemas de IA en la etapa pre-IA generativa. El marco 2.2. se publicó pocos meses antes de noviembre de 2022, cuando la irrupción de ChatGPT reconfiguró abruptamente el debate público y académico, dejando obsoletas muchas de sus premisas.

Tal como ya emergía en la investigación que coordiné, la demanda de una perspectiva crítica sobre la tecnología fue ganando peso en el discurso mainstream, y la expansión de la IA colocó de lleno la cuestión ética en el centro del debate. En apariencia, DigComp 3.0 viene a responder a este desplazamiento.

Lo que sigue es, precisamente, mi lectura crítica de hasta qué punto —y de qué manera— ese objetivo es efectivamente capturado por el nuevo framework.

Una lectura crítica sobre DigComp 3.0

Para analizar el marco competencial DigComp 3.0 me coloqué desde una crítical radical de la tecnología, eligiendo el trabajo colectivo coordinado por Neil Selwyn, en el que participé marginalmente y que me resulta suficientemente representativo de una mirada Global, que incluye el resto del mundo (con cerca de 42 países representados, entre ellos Chile, Argentina, Brasil y otros muchos sures).

Desde esta perspectiva, la tecnología educativa debe analizarse no por lo que promete, sino por lo que hace realmente en términos de poder, desigualdad y gobernanza. Selwyn y el colectivo CSET (Critical Studies on Educational Technology) insisten en interrogar quién define los problemas que la tecnología dice resolver, a quién beneficia su adopción y qué intereses políticos, económicos y comerciales quedan naturalizados bajo discursos de mejora, innovación o esperanza.

Aquí dejo el vídeo de la presentación del 12 de Diciembre (con referencias a los documentos): para que quien lee tenga la oportunidad de acceder a mi objeto de mi ejercicio crítico.

Para comenzar, las cosas se hicieron con más profundidad que en el previo 2.2., en el que se confió demasiado en el crowdsourcing de experiencia y conocimiento profesional aportado por una comunidad de expertos europeos. En el 3.0., el proceso incluyó una revisión de la literatura, algo que nunca había visto en los procesos de versionado de DigComp, como decía antes, tradicionalmente basados sobre todo en el conocimiento profesional y académico de expertos. Se tuvieron en cuenta artículos producidos en Europa y fuera de ella. Yo formé parte del equipo que elaboró el informe sobre “Competencia Digital Crítica” y debo decir que en ese grupo había una visión bastante “pre-crítica”: reconocimiento de los problemas y daños derivados de un mal uso de la tecnología, pero escasa conciencia de las relaciones de poder, de las estructuras sociales y de los intereses empresariales, algo que resulta muy evidente en los estudios críticos de tecnología educativa que ya señalé arriba.

Vi el vídeo y leí el informe que describe el proceso de elaboración de este nuevo marco. Además, revisé los datos abiertos generados, que son muy interesantes y podrían ser objeto de un análisis del discurso. Quizá lo intente, aunque no está entre mis planes inmediatos porque mi pipeline está bastante “obturado” 😄.

Comparto a continuación algunos puntos destacados de mis notas durante la lectura. Me encantaría conocer los comentarios de las y los lectores, si les parece de interés, en particular sobre cómo este documento puede cruzarse con la trayectoria de sus proyectos (que podría desembocar en un post de posicionamiento, pero ya veremos: este ejercicio depende de uds.).

Lo primero es que DigComp 3.0 sigue claramente la línea del debate sobre la “competencia” iniciado en Europa desde los años noventa. El marco mantiene las categorías clásicas y actualiza la definición de competencia digital para abarcar habilidades digitales tradicionales (uso de herramientas, gestión de la información, resolución de problemas…), adoptando el lenguaje KSA (Knowledge, Skills, Attitudes: conocimientos, habilidades y actitudes). Mantener la estructura anterior es eficiente desde el punto de vista de su uso como instrumento para la formulación de políticas y la formación: existe un trasfondo común ya conocido por todos. Veo el evento de lanzamiento y la documentación como una acción de posicionamiento de DigComp 3.0 como lenguaje común de política pública y como referencia para numerosos esquemas de certificación. Está pensado para alinearse con las estrategias de la UE sobre competencias digitales, derechos digitales y economía digital. Esto es también una herramienta de soft power, como leímos en el artículo de Luci Pangrazio y Julian Sefton-Green que habla de los marcos competenciales como herramientas de poder “soft”, es decir, que direccionan la opinión y las prácticas educativas a partir de esquemas de comportamiento “deseables” (para quién?), tal y cómo lo hacen los algoritmos y las plataformas con sus sistemas de recomendación.

Esta versión se apoya en el esfuerzo previo de contextualizar el enfoque KSA para ayudar a los usuarios a interactuar con las áreas y niveles de competencia. Hay un claro intento de hacerlo operativo: más de 500 resultados de aprendizaje vinculados a cuatro niveles de competencia (de básico a altamente avanzado), lo que facilita el diseño curricular.

En cuanto a los contenidos, encontré términos como IA, ciberseguridad, bienestar, derechos y desinformación. El bienestar y la ciberseguridad ya estaban presentes en la versión anterior (de hecho, el bienestar era muy relevante), pero los derechos y la desinformación no eran tan visibles. Los elementos clave se organizan así:

  • Ciberseguridad y seguridad digital (no solo “usar tecnología”, sino comprender las amenazas).
  • Derechos digitales, elección y responsabilidad (qué derechos tenemos y cómo la tecnología los configura).
  • Bienestar en línea (consecuencias mentales, físicas y sociales del uso de la tecnología).

Como puede verse, las definiciones están muy centradas en el individuo y no tanto en la sociedad y/o las comunidades, algo que discutimos ampliamente y que está muy presente en nuestra producción intelectual y en el trabajo que realizamos en ETH-TECH.

Por supuesto, como cabía esperar, la IA ya no es una nota al pie. En la versión 2.2 había una sección específica, pero la IA generativa aún no se había desplegado, por lo que las preocupaciones eran distintas (yo coordiné el grupo de trabajo sobre alfabetización de datos, así que conozco bien las discusiones internas). Ahora la competencia en IA aparece como un elemento sistemático integrado en las 21 competencias. Esto implica que las personas deberían comprender la IA no solo como una herramienta, sino como algo que impregna los entornos digitales, incluida la IA generativa y sus implicaciones éticas (documentos del JRC).

Y aquí entramos en la parte “crítica”. Los daños se reconocen como una cuestión clave y se plantea que el sujeto debe desarrollar capacidades funcionales que evolucionen hacia habilidades críticas y reflexivas para poder “funcionar” en una sociedad tecnológicamente transformada. No hay cuestionamiento alguno sobre si realmente necesitamos más digitalización: eso se da por sentado. Y este elemento ya me coloca en una posición ambigua, porque acepto avanzar hacia la transformación digital, pero también entiendo que no necesitamos este tipo de digitalización.

Desde mi punto de vista, gran parte de DigComp 3.0 sigue estando enmarcada en la mejora de habilidades más que en una crítica estructural de por qué la competencia digital está distribuida de forma desigual o de cómo las infraestructuras de poder y de datos moldean la participación digital (ahí es donde residen las verdaderas cuestiones de equidad). Dicho esto, para ser una herramienta de política europea, DigComp 3.0 logra anclar estas preocupaciones socio-técnicas más incómodas dentro de lo que cuenta como “competencia”, en lugar de dejarlas en los márgenes. ¿Podría la UE hacer algo diferente? ¿Podemos hacerlo nosotras y nosotros?

Al recorrer el documento, encuentro “problemas críticos” (bienestar, ciberseguridad, privacidad de los datos, calidad de la información) que se consideran abordables mediante la figura de un “ciudadano informado, reflexivo, responsable y autorregulado”… estas son palabras que aparecen en los datos abiertos. No hay, en cambio, una implicación con cuestiones como la geopolítica, el capitalismo de plataformas y los intereses privados que operan en espacios públicos, los regímenes de extracción de datos y la posición incómoda de la propia UE en este contexto, las asimetrías en la gobernanza de los datos (incluso los investigadores tienen dificultades para acceder a datos de empresas privadas, mientras que los gobiernos están obligados a producir enormes volúmenes de datos públicos abiertos), ni, por supuesto, el trabajo de ciudadanos, docentes y estudiantes en probar y mejorar las infraestructuras digitales dominantes.

Desde mi reciente trabajo en una crítica de la ética como tecno-solucionismo: ¿dónde está la dimensión ética? ¿Deberíamos seguir utilizando “ética” como sustituto de “crítica”, con todas las connotaciones académicas que ello implica? Me debato entre lo que estamos produciendo en este proyecto, el soft (y hard) power que sentimos operar dentro del marco de un proyecto europeo y lo que discutimos en nuestra investigación. ¿Llegaremos alguna vez a estar perfectamente alineados con nuestros valores?

Esto es, en sí mismo, un dilema ético. El trabajo realmente crítico ocurre, creo, alrededor de DigComp: interrogando sus supuestos, mostrando lo que no puede decir, utilizándolo como objeto de crítica más que como solución. Pero ¿podría este esfuerzo llevarnos al aislamiento y al solipsismo?

Con un toque de humor sarcástico entonces, pensé: ¿estoy más cerca de Selwyn o de Bruselas?

Leave a comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.