Want to create interactive content? It’s easy in Genially!

Get started free

LO-AI4YW-Spanish version

Fundación Esplai

Created on October 23, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Urban Illustrated Presentation

3D Corporate Reporting

Discover Your AI Assistant

Vision Board

SWOT Challenge: Classify Key Factors

Explainer Video: Keys to Effective Communication

Explainer Video: AI for Companies

Transcript

ACERCA DE ESTE OBJETO DE APRENDIZAJE

AIS4YW es un proyecto de partenariado Erasmus+ KA210-YOU que fortalece la calidad y la innovación del trabajo con jóvenes mediante el uso práctico y ético de la inteligencia artificial generativa en la educación no formal. El proyecto de 20 meses se ha desarrollado desde el 4 de marzo de 2024 hasta el 3 de noviembre de 2025. Ha sido liderado por Associazione Arcipelago APS (Italia) junto con Fundación Esplai, Ciudadanía Comprometida (España) como socia. Las prioridades incluyen mejorar la calidad del trabajo con jóvenes y promover la inclusión y la diversidad. AIS4YW responde a la necesidad urgente de que los y las trabajadoras de juventud (Youth Workers en inglés) comprendan cómo funciona la Inteligencia Artificial Generativa, qué oportunidades ofrece, qué riesgos implica y cómo implementarla de manera crítica, ética y segura con adolescentes y jóvenes.

El proyecto se construye como una comunidad de práctica entre Italia y España para compartir métodos y recursos para un uso profesional y consciente de la IA en el aprendizaje no formal. Los participantes directos han sido 16 trabajadoras y trabajadores juveniles (de Italia y España) que han participado mediante aprendizaje práctico, aprendizaje entre iguales y prácticas en situación. El contenido que verás a continuación es el resultado de la exploración y la práctica llevadas a cabo en los últimos meses, y esperamos que sea útil para tu trabajo diaro con personas jóvenes.

Tabla de contenidos

Capítulo 1 - Introducción

Capítulo 2 - Impacto de la IA en la educación no formal

Capítulo 3 - GymComp: IA generativa para la educación no formal

Capítulo 4 - Ética de los sistemas de IA

Capítulo 5 - Privacidad e IA

Capítulo 6 - Netiquetta y la Inteligencia Artificial

Este índice de contenidos te permitirá navegar fácilmente por los contenidos de este Objeto de Aprendizaje. Explora los capítulos y encuentra interacciones con el contenido a través de imágenes e íconos que inlcuyen enlaces.

Capítulo 7 - Herramientas y ejemplos prácticos

Referencias

Capítulo 1 - Introducción

AIS4YW es un partenariado pequeño financiado por el programa Erasmus+ KA210-YOU que fortalece la calidad y la innovación del trabajo con personas jóvenes mediante un uso práctico y ético, de la IA generativa en la educación no formal. El proyecto de 20 meses se realizó desde el 4 de marzo de 2024 hasta el 3 de noviembre de 2025. Ha sifo liderado por Associazione Arcipelago APS (Italia) con Fundación Esplai, Ciudadanía Comprometida (España) como socio. Las prioridades incluyen mejorar la calidad del trabajo juvenil y promover la inclusión y la diversidad. AIS4YW responde a la necesidad urgente de que los trabajadores juveniles (YWs) entiendan cómo funciona la IA generativa, qué oportunidades ofrece, qué riesgos implica y cómo implementarla de manera crítica, ética y segura con jóvenes y muy jóvenes. El proyecto se construye como una comunidad de práctica entre Italia y España para compartir métodos y recursos para un uso profesional y consciente de la IA en el aprendizaje no formal. Los participantes directos son 16 trabajadores juveniles (de Italia y España) que participan mediante aprendizajes prácticos, aprendizaje entre pares y prácticas “en situación”. Los beneficios se extienden al personal de los socios, redes locales y comunidades europeas más amplias a través de eventos de aprendizaje y difusión.

Objetivos

Contenido clave/discusión

Conclusión

Capítulo 2 - Impacto de la IA en la educación no formal

El impacto de la Inteligencia Artificial (IA) en el trabajo con jóvenes y la educación ya no es un debate teórico—es una realidad dinámica y vivida. Basándose en el trabajo fundamental del proyecto AI4YouW, que pilotó y validó recursos educativos abiertos (REA) con más de 100 trabajadores juveniles en Europa, la iniciativa AI4YW actual amplía esa visión involucrando activamente a profesionales en experimentos reflexivos, prácticos y éticamente fundamentados con herramientas de IA generativa. A través de talleres co-diseñados en España e Italia, los educadores exploraron cómo la IA puede transformar el diseño educativo, la creación de contenidos, la participación juvenil y el desarrollo profesional. Estas experiencias fueron informadas por marcos políticos globales como la orientación de UNESCO de 2023 sobre IA generativa en educación, y conceptualizadas en el Marco de Competencia Digital para Ciudadanos (DigComp 2.1) y el marco LIFEComp para competencias personales, sociales y de aprendizaje a aprender. Juntos, estos marcos proporcionaron la base para la metodología GymComp, un proceso gamificado y participativo que ayuda a los trabajadores juveniles a reflexionar y desarrollar las competencias necesarias para el uso responsable y efectivo de la IA. Este capítulo se basa en diversas fuentes—resultados de talleres, matrices de impacto y evaluaciones piloto—para ofrecer una perspectiva fundamentada sobre las oportunidades, desafíos y potencial transformador de la IA. En lugar de apoyar el determinismo tecnológico, aboga por un enfoque informado, inclusivo y centrado en el ser humano para la integración de la IA en el trabajo juvenil.

Contenido clave/discusión

Conclusión

Capítulo 2 - Ejemplos prácticos

Ejemplo 3

Ejemplo 1

Ejemplo 2

Gamma – permite presentaciones visuales dinámicas

Diseñador de experiencias de aprendizaje de Chatgpt

Brisk Teaching – apoya el aprendizaje activo mediante actividades de microaprendizaje integradas

Ejemplo 4

Ejemplo 5

Whimsical – facilita el desarrollo de mapas conceptuales durante el trabajo en grupo

Mizou – apoya la creación de maquetas interactivas para escenarios de interacción con IA-persona

Capítulo 3 - GymComp: IA Generativa para la Educación No Formal

Este capítulo presenta Gym Comp— un enfoque práctico para fortalecer las capacidades digitales y relacionales de los jóvenes mediante circuitos de entrenamiento cortos y repetibles que utilizan IA generativa en espacios de aprendizaje no formal. Traducimos las principales líneas de los marcos de competencias europeos—DigComp 2.2 (1.1–1.3 alfabetización en información y datos, 2.3 participación en línea, 3.1 creación de contenido digital, 4.2 privacidad y protección de datos) junto con la comunicación de LifeComp, colaboración, empatía y autorregulación—en actividades que las trabajadoras de juventud pueden realizar con una mínima preparación y un máximo impacto. Cada circuito combina búsqueda y verificación crítica de información, creatividad impulsada por instrucciones, y rutinas de privacidad desde el diseño alineadas con el RGPD, abordando abiertamente los riesgos de la IA generativa (sesgos, alucinaciones, derechos de autor, seguridad) y mostrando cómo mitigarlos en la práctica cotidiana. El trabajo presentado aquí ha sido co-diseñado y pilotado con socios en Italia y España. En Italia, el programa está dirigido por Associazione Arcipelago APS en colaboración con Lascò, el profesor Raffaele Mele y Mattia Anicito, quienes han adaptado Gym Comp a centros comunitarios, clubes juveniles, bibliotecas y contextos extraescolares. En España, el despliegue y la localización están liderados por Fundación Esplai, que aprovecha su amplia experiencia en inclusión digital y empoderamiento juvenil. Esta colaboración transnacional mantiene el método enraizado en entornos reales y necesidades diversas de los aprendices, asegurando que los ejemplos, escenarios y protocolos sigan siendo éticamente sólidos y culturalmente relevantes.

Contenido clave/discusión

10

Reflexión

Conclusión

Capítulo 3 - Apéndices

Digicomp 2.3. - Participación ciudadana a través de tecnologías digitales

DigiComp 1.1. - Alfabetización informacional y de datos

Introducción, definición y construcción de competencias

LifeComp

DigiComp 4.2. - Protección de datos personales y privacidad

DigiComp 3.1. - Creación de contenido digital

Capítulo 4 - Ética de los sistemas de IA

La dimensión ética es uno de los aspectos más relevantes del impacto de las tecnologías de la información en la organización social. El aspecto ético fue poco considerado en el pasado, ya que las personas creían en el paradigma de la 'autorregulación' de los productos, servicios y actividades TIC, promovido durante décadas por las principales empresas tecnológicas. El escenario comenzó a cambiar gracias a dos factores clave: - Conciencia social de los efectos negativos imprevistos de la tecnología digital (por ejemplo, manipulación de información, pérdida de privacidad, desigualdades en el acceso). - La expansión global de la IA y, sobre todo, de la IA generativa, que evidenció los riesgos de una tecnología capaz de tomar decisiones o generar contenidos con impactos sociales, legales y económicos. Este escenario cambiante ha hecho necesario plantear cuestiones éticas sobre el uso de la IA, incluso en campos ajenos a la tecnología donde la IA se ha expandido y se ha vuelto esencial en la vida cotidiana, como la educación (formal y no formal).

Contenido clave/discusión

Reflexión

Conclusión

Capítulo 4 - Apéndices

Preguntas guía para las profesionales que trabajan con jóvenes sobre el uso ético de la IA

Charlas TED 1

Competencias emergentes en el uso ético de la IA y los datos para el trabajo con jóvenes

Charlas TED 2

Capítulo 5 - Privacidad e IA

La introducción y expansión creciente de sistemas de inteligencia artificial en el contexto económico y social actual han producido un cambio en las formas en que se recopilan, procesan y usan los datos personales, planteando cuestiones regulatorias de gran complejidad. El legislador europeo ha optado por responder a estos desafíos con un modelo regulatorio multinivel, basado en la interacción entre el Reglamento General de Protección de Datos (RGPD) y el nuevo Reglamento de Inteligencia Artificial (Ley de IA), aprobado recientemente por el Parlamento Europeo como parte de una estrategia digital más amplia de la UE. La protección de la privacidad solo existe si está garantizada por leyes, reglamentos y directivas que establecen qué datos pueden recopilarse y de qué maneras.

Contenido clave/discusión

Reflexiones

Conclusión

Capítulo 6 - Netiqueta e Inteligencia Artificial

La netiqueta es una palabra en inglés que combina el término inglés network y la palabra francesa etiquette (buenas maneras). Es un conjunto de reglas informales que regulan el buen comportamiento del usuario en la web, especialmente en la interacción con otros usuarios a través de recursos como grupos de noticias, listas de correo, foros, blogs, redes sociales o correo electrónico en general. Seguir las pautas para un comportamiento aceptable hace que internet sea un lugar más agradable para todas las personas usuarias. La forma en que interactuamos con la IA – y la forma en que la IA interactúa con nosotros – requiere un nuevo conjunto de buenas maneras

Contenido clave/discusión

Conclusión

Capítulo 7 - Herramientas y Ejemplos Prácticos

Este capítulo presenta una selección curada de herramientas, fichas de práctica y tutoriales que surgen del trabajo colaborativo de la asociación del proyecto AIS4YW. Desarrollados en el contexto de la educación no formal, los materiales tienen como objetivo apoyar a educadores, formadores y facilitadores juveniles en la integración de la Inteligencia Artificial (IA) en sus prácticas educativas de manera reflexiva, inclusiva y éticamente fundamentada. Los recursos recopilados aquí reflejan los temas principales explorados a lo largo del proyecto, incluyendo el impacto de la IA en el trabajo juvenil, el desarrollo de competencias digitales y transversales (inspiradas en marcos como DigComp y LIFEComp), y el uso ético y responsable de las tecnologías digitales. Las herramientas están alineadas con estas dimensiones y fueron co-creadas o seleccionadas por los socios del proyecto en función de necesidades reales identificadas durante talleres, sesiones de colaboración y experimentación local. En lugar de ofrecer un inventario exhaustivo, este capítulo destaca recursos prácticos y listos para usar — incluyendo herramientas basadas en IA, plataformas educativas y ejemplos de aplicaciones reales — que pueden inspirar a los educadores en entornos no formales. Los materiales seleccionados son adaptables a diferentes contextos y entornos de aprendizaje y están diseñados para fomentar el pensamiento crítico, la creatividad y el empoderamiento de los aprendices. El capítulo está estructurado en dos secciones: una visión general de diferentes kits de herramientas y una colección de fichas de práctica sobre cómo explorar el uso de la IA en el trabajo juvenil. Estas secciones buscan ofrecer tanto claridad conceptual como orientación práctica a quienes desean integrar la IA en experiencias educativas más allá del contexto no formal.

Capítulo 7 - Resumen de la caja de herramientas

Herramientas de IA para colaboración y comunicación

Plataformas educativas que integran IA

Herramientas de IA para la creación de contenido

Herramientas de IA para reflexión ética y pensamiento crítico

Herramientas de IA para evaluación y retroalimentación

Capítulo 7 - Hojas de práctica

Autoevaluación de competencia digital (Basada en GymComp)

Dilemas éticos y IA

Explorando la IA en la vida diaria

Diseñando un taller mejorado con IA

Herramientas de IA en práctica: una prueba crítica

Referencias

Capítulo 2

  • UNESCO. (2023). Guía para IA generativa en educación e investigación. UNESCO. unesco.org+1
  • Carretero, S., Vuorikari, R., & Punie, Y. (2017). DigComp 2.1: El Marco de Competencias Digitales para Ciudadanos con ocho niveles de competencia y ejemplos de uso (Informe técnico del JRC). Comisión Europea. IDEAS/RePEc
  • Comisión Europea / Centro Común de Investigación. (s.f.). LifeComp: El marco europeo para competencias clave de desarrollo personal, social y de aprendizaje para aprender. JRC / Comisión Europea. joint-research-centre.ec.europa.eu
  • Kechagias, K. (2025). Necesidades de competencia en inteligencia artificial para jóvenes trabajadores. Revista de Educación No Formal. journals.team4excellence.ro
  • Ghimire, A., & Edwards, J. (2024). De directrices a gobernanza: Un estudio de las políticas de IA en educación. preprint de arXiv. arxiv.org
  • Perkins, M., Furze, L., Roe, J., & MacVaugh, J. (2023). La escala de evaluación de IA (AIAS): Un marco para la integración ética de la IA generativa en la evaluación educativa. preprint de arXiv. arxiv.org
  • Bura, C., & Myakala, P. K. (2024). Avanzando en la educación transformadora: La IA generativa como catalizador de equidad e innovación. preprint de arXiv. arxiv.org

Capítulo 3

  • Comisión Europea, Centro Común de Investigación. (2022). *DigComp 2.2: El Marco de Competencias Digitales para Ciudadanos (JRC128415).
  • Sala, A., Punie, Y., Gualtieri, M., et al. (2020). LifeComp: El marco europeo para competencias personales, sociales y de aprendizaje para aprender.
  • Grupo de expertos de alto nivel en IA. (2019). *Directrices éticas para una IA confiable. Comisión Europea.
  • Comisión Europea. (2020). Lista de evaluación para IA confiable (ALTAI) – Autoevaluación. Oficina de publicaciones / Estrategia Digital. ([Oficina de publicaciones de la UE][5], [Estrategia Digital Europea][6])
  • Comisión Europea. (2022). Directrices éticas sobre el uso de IA y datos en la enseñanza y el aprendizaje para educadores.
  • Unión Europea. (2016). Reglamento (UE) 2016/679 (Reglamento General de Protección de Datos).
  • Unión Europea. (2002/2009). Directiva 2002/58/CE (Directiva ePrivacidad)
  • Unión Europea. (2022). Reglamento (UE) 2022/868 (Ley de Gobernanza de Datos). Diario Oficial; consulte también la explicación de la Comisión.

Referencias

Capítulo 4

  • Directrices éticas sobre el uso de inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores (2022)
  • GUÍA BÁSICA DE LA IA, de los textos, Aguilar, I.; Alepuz, V.; Alfaro, J.; Bañón, J.J.; Botti, V.; Despujol, I.; Giménez, J.; Linares, J.; Linares, J.M.; Majadas, V.; Martínez, J.; Monsoriu, M.; Montesa, E.; Morillas, C.; Muñoz, J.M.; Ortega, J.; Ortuño, A.; Peñarrubia, J.P.; Plasencia, A.; Rieta, J.; Sales, M.; Segarra, R. (2024).
  • Edita Smart Digital.Data Strategy: Un plan para un modelo de datos de la UEJRC (2022).
  • DigComp 2.2: El Marco de Competencias Digitales Europeas para CiudadanosOCDE (2021).
  • Recomendación del Consejo sobre Inteligencia ArtificialUNESCO (2021).
  • Recomendación sobre la Ética de la Inteligencia ArtificialUNESCO (2019).
  • Inteligencia Artificial en la Educación: Desafíos y Oportunidades para el Desarrollo SostenibleUNICEF (2021).

Capítulo 5

  • "A. Augostini, G. Minucci, J. Giussani, G. Lombardi, La relación entre la inteligencia artificial y la protección de datos personales, Lexia, 20/11/2024,
  • Una introducción al Código de Prácticas para la IA de Uso General
  • Ley de IA de la UE: primera regulación sobre inteligencia artificial

Referencias

Capítulo 6

  • El arte de la etiqueta en IA – WeAreTechWomen (2025)
  • Código de conducta de los servicios empresariales de IA de Microsoft (2025)
  • 8 consejos de etiqueta y contenido en IA – HRMorning (2023)

Ponte en contacto con los gestores de proyectos en cada país: Italia - Arcipelago info@associazionearcipelago.com España - Fundación Esplai gporres@fundacionesplai.org

5) Ética, derechos y fiabilidad por diseño

Los materiales adoptan la lista de verificación ALTAI de la UE para mantener la creación y participación “confiables”: respetar los derechos fundamentales (incluidos los que atañen a menores), mantener la supervisión humana, garantizar la robustez técnica y la seguridad, aplicar la privacidad por diseño y por defecto, garantizar la trazabilidad y la transparencia, promover la diversidad y la no discriminación y considerar los impactos sociales y ambientales. Convertimos estos en listas de verificación integradas en los circuitos (por ejemplo, “¿Quiénes son los afectados?”, “¿De dónde provienen los datos?”, “¿Dónde está la figura humano en el ciclo?”). Los socios señalan repetidamente que las personas jóvenes deben entender cómo funcionan los sistemas—contrastando modelos de caja negra con modelos interpretables, experimentando con herramientas de entrenamiento simples—para evitar el “pensamiento mágico” sobre la IA.

3. Reflexión ética y uso responsable

La ética no se trató como un añadido abstracto, sino como un pilar central de todas las actividades del taller. Basándose en el marco de la UNESCO y en el enfoque de LIFEComp sobre responsabilidad, colaboración y pensamiento crítico, el proyecto AI4YW introdujo una serie de herramientas reflexivas: Las participantes analizaron ejemplos como el experimento “Máquina Moral” del MIT, discutiendo cómo la IA podría reforzar o desafiar los sesgos sociales. En entornos colaborativos, identificaron situaciones en el trabajo con jóvenes donde la IA podría mejorar la equidad (por ejemplo, perfiles automatizados en programas de formación laboral), y co-crearon directrices para un uso responsable. Se enfatizó la importancia de la supervisión humana y el papel no sustitutivo de la IA. La IA fue vista como un copiloto—no un reemplazo— para la empatía, la ética y el trabajo relacional de los profesionales juveniles. Esto se alinea también con los resultados del piloto AI4YouthWork donde el 78% de los encuestados afirmó que los recursos abiertos (OER) les ayudaron a reconocer sesgos en la IA y promovieron la conciencia ética.

DigiComp 4.2. - protección de datos personales y privacidad
Por qué la ética en la IA es crucial

La IA no es solo un software potente: es un sistema capaz de influir en decisiones que antes pertenecían exclusivamente a los seres humanos. Esto implica consecuencias directas en derechos fundamentales como: - Privacidad, ya que la IA procesa enormes cantidades de datos personales. - Igualdad de trato, porque los algoritmos no controlados pueden reproducir o amplificar sesgos sociales. - Seguridad, ya que errores o manipulaciones en los sistemas de IA pueden generar daños materiales o morales a gran escala. En los últimos años, ha quedado claro que 'depender del sentido común de los creadores de tecnología' no es suficiente. Lo que se necesita son: -Marcos regulatorios claros, que definan límites y responsabilidades; -Estándares éticos compartidos, que guíen el diseño, desarrollo e implementación; -Mecanismos de transparencia y auditoría, que permitan la verificación por entidades independientes.

CAPÍTULO 1

Conclusión

AIS4YWs convierte grandes marcos en pequeños hábitos duraderos. Con GymComp, los jóvenes trabajadores practican verificar → crear, co-gobernar la participación y la privacidad por defecto hasta que estos movimientos se vuelvan rutina; con los Talleres, empaquetan lo que funciona en un Objeto de Aprendizaje multilingüe que otros practicantes pueden adoptar al día siguiente. Juntos, estos enfoques vinculan DigComp 2.2 y LifeComp con la facilitación cotidiana, manteniendo la ética, la seguridad y la inclusión dentro del trabajo en lugar de añadidos. Este enfoque responde claramente a las prioridades de Erasmus+—calidad e innovación en el trabajo juvenil e inclusión y diversidad—mediante la construcción de un método compartido y transfronterizo en lugar de una lista de herramientas. Los roles son claros (Arcipelago coordina GymComp y la difusión; Esplai lidera el seguimiento, impacto y el LO) y la línea de tiempo incorpora eventos de aprendizaje, evidencia y difusión que llevan los resultados más allá de la cohorte.

El valor del proyecto también va más allá: las sesiones y recursos se integran en programas existentes para jóvenes, educación cívica, bibliotecas y centros comunitarios, mientras que las redes de socios en Italia y España amplifican el alcance y mantienen la práctica después de la financiación. En resumen, AIS4YWs ofrece un puente práctico desde la política europea hasta la educación a nivel calle: circuitos repetibles, evidencia ligera y recursos abiertos que ayudan a los jóvenes a crear, verificar, participar—y protegerse a sí mismos y a otros—usando IA de manera responsable. Si el sector cumple con tres compromisos—verificar y crear, privacidad por defecto y participación co-gobernada—los jóvenes trabajadores no necesitan ser ingenieros de IA para liderar aprendizajes significativos. Necesitan un método humano, recursos compartidos y pares en toda Europa. AIS4YWs contribuye con los tres.

Transparencia, justicia y fiabilidad

  • Un sistema de IA debe funcionar de manera segura y consistente a lo largo del tiempo.
  • Deben proporcionarse planes de mitigación de riesgos, actualizaciones regulares y auditorías independientes.
Además, son necesarios otros aspectos clave para garantizar que la IA sea fiable y segura:
  • Respeto por la autonomía humana – Todos los sistemas deben permitir la supervisión humana, especialmente en decisiones que afectan a menores y jóvenes.
  • Bienestar social y ambiental – Evitar daños sociales, promover la cohesión y la sostenibilidad.
  • Privacidad y gobernanza de datos – Protección de datos personales, calidad e integridad de los datos, acceso controlado.
  • Responsabilidad – Deben existir responsabilidades claras para monitorear, impactos negativos y apelaciones.

Tres pilares son esenciales para garantizar que un sistema de IA sea ético: Transparencia

  • Los usuarios y las autoridades deben saber cómo y por qué un sistema toma ciertas decisiones.
  • Los sistemas opacos (cajas negras) deben ir acompañados de herramientas de IA explicables (XAI).
  • Este aspecto es fundamental para la confianza y el ejercicio de derechos.
Justicia
  • Los algoritmos no deben generar discriminación ni reforzar prejuicios.
  • Es crucial probar los modelos con conjuntos de datos diversos y actualizar constantemente los criterios de evaluación.
Fiabilidad

CAPÍTULO 5

Reflexiones

La implementación concreta de las disposiciones establecidas por el RGPD y la Ley de IA plantean desafíos técnicos y operativos significativos, que requieren el desarrollo de soluciones innovadoras y la adopción de enfoques integrados para el cumplimiento normativo. Garantizar tanto el cumplimiento de los principios de protección de datos como la adhesión a los requisitos específicos establecidos para los sistemas de inteligencia artificial, en realidad, implica diseñar arquitecturas tecnológicas y marcos organizativos capaces de satisfacer conjuntamente las necesidades impuestas por ambos conjuntos de regulaciones.

Capítulo 1

Contenido clave/discusión

GymComp se encuentra en el corazón de AIS4YWs—una especie de gimnasio de competencias que convierte los marcos de la UE en rutinas cortas, repetibles y amigables para el teléfono que los jóvenes trabajadores pueden realizar en espacios reales con jóvenes reales. En lugar de ser un curso “sobre modelos de IA”, es una forma de hacer bien tres cosas de manera constante: verificar antes de crear, participar responsablemente y proteger a las personas y datos. El diseño parte de problemas concretos del trabajo juvenil (mitos como “la IA lo sabe todo”, fatiga por privacidad, límites de licencias) y solo después se relaciona con los marcos, de modo que las competencias no queden como etiquetas, sino que se conviertan en hábitos bajo restricción. En la práctica, trabajamos en las áreas 1.1–1.3, 2.3, 3.1, 4.2 de DigComp 2.2 e incorporamos las dimensiones socioemocionales de LifeComp, para que las sesiones desarrollen tanto capacidades técnicas como relacionales. Cada “circuito” de GymComp es un laboratorio ágil con tiempos claros, roles rotativos (escriba, verificador, responsable de privacidad) y una ficha de salida visible vinculada a los descriptores de competencia. En búsqueda y verificación crítica, los grupos comparan una búsqueda en la web, un modelo conversacional y un motor de citas prioritarias, rastreando cada afirmación hasta las fuentes. La participación cívica en línea aborda problemas locales reales mediante plataformas democráticas (estilo Decidim) y coescribe reglas de uso justo para evitar concursos de popularidad. Crea con cuidado prototipos de mini-campañas que abordan la autoría, obras derivadas y la ética de los medios generados. La seguridad por defecto es un laboratorio rotatorio sobre cookies/consentimiento, configuraciones de aplicaciones de mensajería, gestores de contraseñas y metadatos. Una última dimensión, la de “Solicitar para la veracidad”, construye barreras contra alucinaciones, sesgos, exposición a derechos de autor y fuga de datos (roles/audiencias/formatos, “requerir citas”, recuperación para fundamentar). Estos flujos se pilotaron en Italia y España y se ajustaron para diferentes herramientas libres y con licencia, así como para distintos contextos de aprendizaje. La ética y los derechos se mantienen dentro de la práctica, no se añaden como complemento. Los formadores integran la lista de verificación EU ALTAI en unas pocas preguntas—¿Quién se ve afectado? ¿De dónde provienen los datos? ¿Dónde está el humano en el proceso?—para que la dignidad, la transparencia, la supervisión, la robustez y la no discriminación guíen la creación y participación en tiempo real. La privacidad se enseña como un hábito: contraseñas únicas y gestores, lectura de flujos de consentimiento, comprensión de las diferencias entre aplicaciones de mensajería (predeterminados E2E, copias de seguridad, metadatos), y configuración de ajustes en el momento. Un mnemónico de “tres promesas” ayuda: recopilar menos, compartir conscientemente, retener brevemente—ilustrado con casos cotidianos como opciones de cookies y recomendaciones algorítmicas.

El proyecto estructura este método con una estructura clara, roles y resultados. Los socios realizan seis sesiones de GymComp de 3 horas (18 horas en total) para 16 jóvenes trabajadores de Italia y España, usando aprendizaje práctico, aprendizaje entre pares y práctica “en situación”. La misma cohorte se reúne para cuatro talleres en línea (de 2 horas cada uno) para co-crear un Objeto de Aprendizaje (OA)—un paquete multilingüe (EN/IT/ES) de materiales, metodologías y buenas prácticas para un uso ético y seguro de la IA en la educación no formal. Arcipelago lidera la entrega de GymComp; Fundación Esplai coordina los Talleres y compila el OA para acceso abierto a través de sitios web de socios. Los talleres tienen un enfoque deliberadamente productivo: los participantes consolidan lo que funcionó en GymComp, documentan los pasos y convierten los procedimientos en recursos reutilizables para sus pares. El énfasis está en la transferencia—de una rutina de facilitación probada en un club juvenil a un método claramente documentado que otros jóvenes trabajadores puedan adoptar al día siguiente—en lugar de en mostrar aplicaciones específicas. Esto mantiene el proyecto independiente de herramientas: el proceso (plan → co-crear → verificar → atribuir) importa más que las marcas, lo que también ayuda a mantener la inclusión cuando las versiones gratuitas disminuyen o las funciones se trasladan a modelos de pago. En todas las sesiones, el aprendizaje permanece visible pero de forma ligera: encuestas rápidas para marcar el ritmo, fichas de salida alineadas con los descriptores de DigComp y autoevaluaciones cortas para detectar avances. Para tareas 3.1, las rúbricas evalúan la claridad de la intención, licencias/atribución, adecuación a la audiencia y transparencia sobre la ayuda de IA; para 4.2, la evidencia incluye cambios en configuraciones, mejor higiene de contraseñas y una breve “historia de privacidad” (qué cambió y por qué). El resultado es evidencia sin burocracia—y comportamientos que permanecen una vez que los dispositivos vuelven a los bolsillos. Al final, GymComp más Talleres forman un ciclo virtuoso: práctica situada → evidencia ligera → un OA compartido y portátil. Este ciclo es lo que permite a AIS4YWs cumplir sus promesas—trabajo juvenil de calidad, inclusión y diversidad, y un uso crítico/ético/seguro de la IA—transformando los marcos europeos en rutinas diarias verificables, transparentes e inclusivas.

CAPÍTULO 3

Reflexiones

La metodologís de los GymComp funciona porque trata los marcos de la UE como medios, no como fines. Los materiales parten de fricciones reales en el trabajo con jóvenes—fatiga por la privacidad, límites en el acceso a herramientas, mitos de que “la IA lo sabe todo”—y traducen DigComp/LifeComp en rutinas repetibles que las personas participntes pueden realizar bajo presión de tiempo. Ese es el cambio decisivo: las competencias no son listas en una pared, sino comportamientos integrados en circuitos cortos—verifica la fuente, nombra el riesgo, establece el control, reflexionar en equipo. Este enfoque refleja el arco de conciencia–comprensión–acción de LifeComp y hace visible la “capa relacional” no cómo meramente decorativa. Una segunda conclusión es la centralidad de la seguridad por defecto. Cuando la privacidad y la seguridad solo aparecen como un añadido, pierden frente a la conveniencia; cuando están integradas en cada tarea (cookies, consentimiento, contraseñas, configuraciones de mensajería), las participantes en el proyecto empezaron a narrar sus propias historias de privacidad y a realizar cambios concretos (por ejemplo, habilitar MFA, rotar contraseñas, escoger configuraciones de E2E). La propuesta de privacidad italiana ayudó convirtiendo reglas abstractas (base legal, limitación de propósito, minimización, límites de almacenamiento) en indicaciones cortas y memorizables que los participantes pueden reutilizar en distintas plataformas. En la práctica, enseñar el por qué del GDPR sin el cómo de las configuraciones y hábitos es ineficaz; en los GymComp se mantuvieron vinculados. Las sesiones también abordan una cuestión de equidad a menudo ignorada en formaciones de IA: acceso y licencias. Los socios documentan cómo los niveles gratuitos se reducen y cambian los límites de carga, empujando a las participantes en la formaciones hacia planes de pago. Eso importa en el trabajo con jóvenes, donde la promesa de “IA para todos” se desploma si las actividades dependen de funciones restringidas. La respuesta honesta no es lamentarse, sino diseñar ejercicios independientes de herramientas (verificar, atribuir, proteger) y planear cuentas institucionales o alternativas abiertas cuando una herramienta licenciada sea

pedagógicamente necesaria. Esto mantiene la inclusión como no negociable, no solo aspiracional.En cuanto a ética y confianza, la perspectiva de ALTAI resulta práctica cuando se reduce a unas pocas preguntas recurrentes: ¿Quién se ve afectado? ¿De dónde provienen los datos? ¿Dónde está el humano en el proceso? ¿Qué puede salir mal y cómo lo detectaremos? En los talleres, estos indicativos ayudaron a pasar de “la IA es genial/da miedo” a prácticas auditables—salidas rastreables, atribución explícita y un paso de revisión humana acordado. En lugar de regular el lenguaje, las listas de verificación apoyan el juicio y permiten a los jóvenes justificar sus decisiones ante pares, financiadores y participantes.Aún así, la alfabetización en riesgos de IA debe enseñarse como técnica y mentalidad. Los contenidos sobre “el hype de la IA generativa” hacen una distinción útil: los modelos pueden deslumbrar con datos no estructurados y aún así alucinar con confianza; las participantes necesitan tanto disciplina en el planteamiento como referencia externa para resistir esa tendencia. Creemos que el hábito más sólido que se enseña aquí es “verifica primero, luego crea”: partir de las fuentes, limitar el modelo con ellas y citar. Esto contrarresta el pensamiento mágico sin disminuir la creatividad. En el ámbito de la participación es donde la facilitación se pone más a prueba. Las discusiones en los grupos en España muestran cómo las plataformas participativas pueden derivar en concursos de popularidad y rivalidades sin reglas claras. Eso no es motivo para abandonarlas; es un argumento para establecer normas explícitas, uso transparente de datos y moderación consciente de sesgos, diseñada con jóvenes, no para ellos. La decisión de en los GymComp de prototipar reglas de participación dentro de la sesión es la opción correcta: tratar a los y las jóvenes como coparlamentarios de los espacios digitales que usan.

CAPÍTULO 6

Conclusiones

La netiqueta de IA no es solo un conjunto de reglas, sino una forma de construir una relación armoniosa entre humanos y máquinas.

  • Transparencia genera confianza.
  • Respeto por la privacidad garantiza seguridad.
  • Justicia fomenta la igualdad.
  • Responsabilidad y la mejora continua mantienen a la IA efectiva y ética.
  • El toque humano garantiza empatía y comprensión.
A medida que la IA crece, estos principios nos guiarán para usarla de manera responsable y ética. Recibir la IA con conciencia significa convertirla en socia, no solo en una herramienta. Es una forma de construir un futuro donde la IA beneficie a todos.

1. Oportunidades: personalización, creatividad e inclusión

Los participantes en talleres de España e Italia destacaron el potencial de la IA para personalizar contenidos educativos, fomentar la creatividad y abrir nuevas vías para la inclusión: Herramientas de IA generativa como ChatGPT permitieron a las trabajadoras de juventud diseñar personajes ficticios y escenarios de aprendizaje adaptados a contextos del mundo real. Por ejemplo, los participantes crearon personajes como Amina, una joven demandande de asilo, para quien desarrollaron una ruta de aprendizaje completa respaldada por contenido generado por IA. Brisk y MagicSchool se usaron para generar rápidamente cuestionarios, ejercicios interactivos y materiales adaptados. Estas herramientas fueron especialmente valoradas por ayudar a las profesionales a simplificar textos complejos o crear recursos diferenciados según las necesidades lingüísticas y cognitivas de las aprendices. Las matrices de impacto completadas en los talleres destacaron que la IA puede facilitar el acceso para jóvenes con discapacidades o barreras lingüísticas—en línea con las dimensiones de inclusión, aprendizaje a aprender y apertura a la diversidad de LIFEComp. Esto coincide con los resultados piloto del proyecto AI4YouWork, donde el 84% de los jóvenes trabajadores encontraron que los recursos eran aplicables al trabajo juvenil en la vida real, y el 78% reportaron una mayor capacidad para usar la IA en entornos profesionales.

2. Desafíos: sesgos, desigualdad y dependencia excesiva

A pesar de su promesas, la IA también presenta desafíos sustanciales que se discutieron en profundidad durante los talleres: Los participantes identificaron el riesgo de una dependencia excesiva en los resultados de la IA, especialmente por parte de las jóvenes con menores habiliaddes de pensamiento crítico. Varias trabajadoras juveniles compartieron preocupaciones sobre que los jóvenes traten las respuestas de la IA como hechos consumados sin cuestionar su fuente o limitaciones. La desigualdad digital surgió como una barrera crítica: mientras algunas trabajadoras juveniles se sintieron empoderadass por las herramientas de IA, otros carecían de las habilidades digitales básicas para interactuar de manera significativa con ellas. Esta brecha corre el riesgo de ampliar las desigualdades sociales y educativas existentes a menos que se proporcione un apoyo proactivo. También se señalaron los riesgos éticos del mal uso de datos y la falta de transparencia en la toma de decisiones algorítmicas, especialmente cuando las herramientas de IA se usan en contextos sensibles que involucran a menores o grupos marginados. Estas preocupaciones se reflejaron también en el piloto AI4YouthWork, donde los participantes solicitaron una orientación más sólida sobre la privacidad, protocolos éticos más claros y contenido más adaptado culturalmente para comunidades de aprendizaje diversas

3) Qué hacen los y las estudiantes: circuitos básicos de GymComp

Circuito A — Búsqueda crítica y verificación (DigComp 1.1–1.3, 2.3; LifeComp: pensamiento crítico). Los estudiantes comparan respuestas de Google, un modelo conversacional y un motor que prioriza citas, luego rastrean las afirmaciones hasta las fuentes. Los socios encontraron que las herramientas que muestran las fuentes de manera transparente ayudan a desmitificar cómo se producen los resultados y permiten a los estudiantes juzgar la credibilidad. Circuito B — Participación cívica en línea (DigComp 2.3). Partiendo de temas locales, los grupos exploran plataformas democráticas (por ejemplo, procesos estilo plataforma Decidim), reflexionan sobre obstáculos como los “concursos de popularidad” en votaciones vecinales y redactan directrices de contribución que minimicen sesgos y rivalidades. Circuito C — Crear con cuidado (DigComp 3.1; LifeComp: colaboración y comunicación). Los equipos prototipan una campaña corta (cartel, publicación, video de 30 segundos). Los formadores introducen la autoría, las obras derivadas y la ética de los medios generados; los estudiantes practican detectar imágenes creadas por IA vs imagénes creadas por humanos y discuten la equidad en concursos donde se usa IA.

Circuito D — Seguridad por defecto (DigComp 4.2; LifeComp: autorregulación). Un laboratorio de estaciones rotativas: gestionar cookies y banners de consentimiento; ajustar la privacidad en aplicaciones de mensajería; probar la fuerza de contraseñas y gestores; identificar metadatos de plataformas y sus implicaciones. Las presentaciones resumen los principios del RGPD, el alcance de la ePrivacidad, los derechos del titular de los datos y rutinas pragmáticas que los estudiantes pueden aplicar de inmediato. Circuito E — Fomentar la veracidad. Las participantes ven modelos comunes de fallos (alucinaciones, derechos de autor, filtración de privacidad, sesgos y compromisos de coste), y practican medidas de protección: especificar rol, audiencia y formato; requerir citas; y usar puntos de recuperación para fundamentar las restauración de datos que se pudieran perder durante el proceso. Cada circuito incluye límites de tiempo, roles (escriba, verificador, responsable de privacidad) y una tarjeta de salida visible alineada con los descriptores de competencia. Los grupos de Italia y España probaron estos flujos en clubes juveniles y talleres, iterando en base a la retroalimentación de los estudiantes y los límites prácticos de las herramientas libres o con licencia.

Capítulo 1

Contenido clave / discusión

Los GymComp se encuentran en el corazón del proyecto AIS4YWs—“gimnasios” de competencias que convierten los marcos de la UE en rutinas cortas, repetibles y amigables que los trabajadores juveniles pueden realizar en espacios reales con jóvenes reales. En lugar de proponer un curso “sobre modelos de IA,” es una forma de hacer bien tres cosas de manera constante: verificar antes de crear, participar responsablemente y proteger a las personas y los datos. El diseño parte de problemas concretos del trabajo con jóvenes (mitos como “la IA lo sabe todo,” precupaciones por la privacidad, límites de las licencias...) y solo luego se vincula a los marcos, de modo que las competencias no queden como etiquetas, sino que se conviertan en hábitos. En la práctica, trabajamos en áreas del DigComp 2.2 1.1–1.3, 2.3, 3.1, 4.2 e incorporamos los aspectos socioemocionales del LifeComp, para que las sesiones desarrollen tanto capacidades técnicas como relacionales. Cada “circuito” de GymComp fue propuesto cómo un laboratorio ágil con tiempos definidos y roles rotativos (escritores/as, verificadores/as, responsables de privacidad) y una tarea de salida visible vinculada a los descriptores de competencia. En búsqueda y verificación crítica, los grupos comparan una búsqueda web, un modelo conversacional y un motor de búsqueda, rastreando cada afirmación hasta las fuentes. La participación en línea abordó problemas locales reales mediante plataformas democráticas (tipo Decidim, en España) y propuso co-escribir reglas de uso justo para evitar concursos de popularidad. Se crearon con cuidado prototipos de mini-campañas y abordamos temas de autoría, obras derivadas y ética de medios generados. El de seguridad, fue un laboratorio rotativo sobre cookies/consentimiento, configuraciones de aplicaciones de mensajería, gestores de contraseñas y metadatos. Una última línea de trabajo sobre "promting responsable" propuso herramientas para construir barreras contra alucinaciones, sesgos, exposición de los derechos de autor y fuga de datos (roles/audiencias/formatos, citaciones del uso de la IA). Estas dinámicas fueron pilotadas en Italia y España y se ajustaron para diferentes contextos de aprendizaje y herramientas libres o con licencia. La ética y los derechos se integraron en la práctica, no se añadieron de forma superficial. Los participantes, por ejemplo, simplicaron la lista de control EU ALTAI en unas pocas preguntas—¿Quién se ve afectado? ¿De dónde provienen los datos? ¿Dónde está el humano en el proceso?—para que la dignidad, transparencia, supervisión, robustez y no discriminación guíen la creación y participación en tiempo real. La privacidad se abordó como un hábito: contraseñas únicas y gestores, lectura de flujos de consentimiento, comprensión de las diferencias entre aplicaciones de mensajería (por ejemplo, cifrado de extremo a extremo, copias de seguridad, metadatos) y configuración inmediata. Un simple mnemónico de “tres promesas” ayuda: recolectar menos, compartir conscientemente, retener brevemente—ilustrado con casos cotidianos como opciones de cookies y recomendaciones algorítmicas.

El proyecto estructura este método con una estructura clara, roles y resultados. Los socios realizan seis sesiones de GymComp de 3 horas (18 horas en total) para 16 jóvenes trabajadores de Italia y España, usando aprendizaje práctico, aprendizaje entre pares y práctica “en situación”. La misma cohorte se reúne para cuatro talleres en línea (2 horas cada uno) para co-crear un Objeto de Aprendizaje (OA)—un conjunto multilingüe (EN/IT/ES) de materiales, metodologías y buenas prácticas para un uso ético y seguro de la IA en la educación no formal. Arcipelago lidera la entrega de GymComp; Fundación Esplai coordina los Talleres y compila el OA para acceso abierto a través de los sitios web de los socios. Los talleres tienen un enfoque deliberadamente orientado a la producción: los participantes consolidan lo que funcionó en GymComp, documentan los pasos y convierten los procedimientos en recursos reutilizables para sus pares. El énfasis está en la transferencia—de una rutina de facilitación probada en un club juvenil a un método claramente documentado que otros jóvenes trabajadores puedan adoptar al día siguiente—más que en mostrar aplicaciones específicas. Esto mantiene el proyecto independiente de herramientas: el proceso (plan → co-crear → verificar → atribuir) importa más que las marcas, lo que también ayuda a mantener la inclusión cuando las versiones gratuitas disminuyen o las funciones se vuelven de pago. En las sesiones, el aprendizaje se mantiene visible pero de forma ligera: encuestas rápidas para marcar el ritmo, tareas de salida alineadas con los descriptores de DigComp y autoevaluaciones breves para detectar avances. Para tareas 3.1, las rúbricas consideran la claridad de la intención, las licencias/atribuciones, la adecuación a la audiencia y la transparencia sobre la asistencia de IA; para 4.2, la evidencia incluye cambios en configuraciones, mayor higiene en las contraseñas y una “historia de privacidad” breve (qué cambió y por qué). El resultado es evidencia sin burocracia—y comportamientos que permanecen una vez que los dispositivos vuelven a los bolsillos. Al final, GymComp más los Talleres forman un ciclo virtuoso: práctica situada → evidencia liviana → un OA compartido y portátil. Este ciclo permite que AIS4YWs mantenga sus promesas—trabajo juvenil de calidad, inclusión y diversidad, y un uso crítico/ético/seguro de la IA—transformando los marcos europeos en rutinas diarias que son verificables, transparentes e inclusivas.

4. Desarrollo de competencias a través de GymComp

La metodología GymComp, estructurada en torno a DigComp 2.1 y LIFEComp, desempeñó un papel clave en facilitar la autoevaluación y el desarrollo de capacidades: Los participantes reflexionaron sobre las áreas de DigComp como 1.1 Navegación y Búsqueda, 2.3 Compartir y Colaborar, 3.1 Creación de Contenido Digital y 4.2 Protección de Datos Personales, mapeando sus propios niveles de confianza antes y después de los talleres. En línea con LIFEComp, habilidades como la autonomía, la conciencia emocional y el aprendizaje se integraron mediante juegos de roles y construcción de escenarios. Variass trabajadoras de juventud informaron que este marco no solo apoyó su propio crecimiento, sino que también les proporcionó un lenguaje para hablar sobre competencias digitales y transversales con los ylas jóvenes a los que apoyan. Como resultado, más del 75% de los participantes piloto afirmaron que habían desarrollado nuevas habilidades que apoyarían la adopción de IA en su práctica profesional. Además, el 84% indicó que recomendarían los recursos a sus pares, confirmando tanto el valor pedagógico como la transferibilidad del enfoque.

CAPÍTULO 5

Conclusiones

El examen de las relaciones entre el RGPD y la Ley de IA destaca desafíos concretos que las organizaciones deberán afrontar en los próximos años. Esto implica la necesidad de establecer equipos interdisciplinarios con experiencia integrada en privacidad, IA y cumplimiento normativo. Los modelos y procedimientos existentes deberán actualizarse para tener en cuenta no solo los aspectos de protección de datos, sino también las características específicas de la IA, como la robustez del algoritmo o la posible presencia de sesgos. Además, será necesario implementar sistemas de monitoreo continuo para verificar el mantenimiento del cumplimiento a lo largo del tiempo, ya que ambos conjuntos de regulaciones requieren una gestión dinámica del riesgo. Solo un enfoque pragmático podrá convertir estos desafíos regulatorios en oportunidades para la innovación responsable.

CAPÍTULO 3

Reflexiones

La metodologís de los GymComp funciona porque trata los marcos de la UE como medios, no como fines. Los materiales parten de fricciones reales en el trabajo con jóvenes—fatiga por la privacidad, límites en el acceso a herramientas, mitos de que “la IA lo sabe todo”—y traducen DigComp/LifeComp en rutinas repetibles que las personas participntes pueden realizar bajo presión de tiempo. Ese es el cambio decisivo: las competencias no son listas en una pared, sino comportamientos integrados en circuitos cortos—verifica la fuente, nombra el riesgo, establece el control, reflexionar en equipo. Este enfoque refleja el arco de conciencia–comprensión–acción de LifeComp y hace visible la “capa relacional” no cómo meramente decorativa. Una segunda conclusión es la centralidad de la seguridad por defecto. Cuando la privacidad y la seguridad solo aparecen como un añadido, pierden frente a la conveniencia; cuando están integradas en cada tarea (cookies, consentimiento, contraseñas, configuraciones de mensajería), las participantes en el proyecto empezaron a narrar sus propias historias de privacidad y a realizar cambios concretos (por ejemplo, habilitar MFA, rotar contraseñas, escoger configuraciones de E2E). La propuesta de privacidad italiana ayudó convirtiendo reglas abstractas (base legal, limitación de propósito, minimización, límites de almacenamiento) en indicaciones cortas y memorizables que los participantes pueden reutilizar en distintas plataformas. En la práctica, enseñar el por qué del GDPR sin el cómo de las configuraciones y hábitos es ineficaz; en los GymComp se mantuvieron vinculados. Las sesiones también abordan una cuestión de equidad a menudo ignorada en formaciones de IA: acceso y licencias. Los socios documentan cómo los niveles gratuitos se reducen y cambian los límites de carga, empujando a las participantes en la formaciones hacia planes de pago. Eso importa en el trabajo con jóvenes, donde la promesa de “IA para todos” se desploma si las actividades dependen de funciones restringidas. La respuesta honesta no es lamentarse, sino diseñar ejercicios independientes de herramientas (verificar, atribuir, proteger) y planear cuentas institucionales o alternativas abiertas cuando una herramienta licenciada sea

pedagógicamente necesaria. Esto mantiene la inclusión como no negociable, no solo aspiracional.En cuanto a ética y confianza, la perspectiva de ALTAI resulta práctica cuando se reduce a unas pocas preguntas recurrentes: ¿Quién se ve afectado? ¿De dónde provienen los datos? ¿Dónde está el humano en el proceso? ¿Qué puede salir mal y cómo lo detectaremos? En los talleres, estos indicativos ayudaron a pasar de “la IA es genial/da miedo” a prácticas auditables—salidas rastreables, atribución explícita y un paso de revisión humana acordado. En lugar de regular el lenguaje, las listas de verificación apoyan el juicio y permiten a los jóvenes justificar sus decisiones ante pares, financiadores y participantes.Aún así, la alfabetización en riesgos de IA debe enseñarse como técnica y mentalidad. Los contenidos sobre “el hype de la IA generativa” hacen una distinción útil: los modelos pueden deslumbrar con datos no estructurados y aún así alucinar con confianza; las participantes necesitan tanto disciplina en el planteamiento como referencia externa para resistir esa tendencia. Creemos que el hábito más sólido que se enseña aquí es “verifica primero, luego crea”: partir de las fuentes, limitar el modelo con ellas y citar. Esto contrarresta el pensamiento mágico sin disminuir la creatividad. En el ámbito de la participación es donde la facilitación se pone más a prueba. Las discusiones en los grupos en España muestran cómo las plataformas participativas pueden derivar en concursos de popularidad y rivalidades sin reglas claras. Eso no es motivo para abandonarlas; es un argumento para establecer normas explícitas, uso transparente de datos y moderación consciente de sesgos, diseñada con jóvenes, no para ellos. La decisión de en los GymComp de prototipar reglas de participación dentro de la sesión es la opción correcta: tratar a los y las jóvenes como coparlamentarios de los espacios digitales que usan.

Capítulo 5

Contenido clave/discusión

La Ley de IA, por otro lado, define un mecanismo de clasificación para los sistemas de inteligencia artificial articulado en cuatro categorías de riesgo (inaceptable, alto, limitado y mínimo), cada una de las cuales conlleva un marco diferente de obligaciones y responsabilidades. Esta orientación surge especialmente con la introducción, por parte de la Ley de IA, de la Evaluación de Impacto en Derechos Fundamentales (FRIA), una herramienta de evaluación preventiva que, aunque presenta puntos en común con la DPIA bajo el RGPD, difiere en alcance y objetivos. La DPIA, en realidad, se centra específicamente en los riesgos relacionados con el procesamiento de datos personales, mientras que la FRIA adopta una perspectiva más amplia, considerando el impacto que los sistemas de inteligencia artificial puedan tener en toda la gama de derechos fundamentales garantizados por el ordenamiento jurídico europeo. Mientras que la DPIA se enfoca precisamente en los efectos de privacidad derivados del procesamiento de datos personales, la FRIA amplía la perspectiva al considerar una gama más amplia de derechos fundamentales que pueden verse afectados por los sistemas de inteligencia artificial, incluyendo el principio de no discriminación, la libertad de expresión, la dignidad humana y la protección de los menores. Los dos tipos de evaluación permiten identificar diferentes riesgos que podrían escapar a un análisis centrado exclusivamente en un aspecto: un sistema de IA, por ejemplo, podría cumplir con los requisitos de protección de datos y, al mismo tiempo, generar efectos discriminatorios, o respetar los derechos fundamentales sin, sin embargo, garantizar una seguridad adecuada de los datos. Para ello, el legislador europeo ha introducido mecanismos de coordinación específicos entre las dos herramientas: en los casos en que un sistema de IA de alto riesgo implique el procesamiento de datos personales, la FRIA puede complementar los elementos ya presentes en la DPIA, evitando así solapamientos innecesarios.

Actualmente, la UE adopta un enfoque multinivel, en el que el RGPD y la Ley de IA se combinan con la DGA, la Ley de Datos, la DSA y la DMA, con el objetivo de garantizar una complementariedad sustancial entre los diversos instrumentos regulatorios introducidos a lo largo del tiempo. Esta estrategia, basada en la intención de fomentar la innovación tecnológica sin descuidar la protección de los derechos fundamentales de los ciudadanos europeos, toma forma a través de un conjunto articulado de normas interconectadas que incluyen, además de los reglamentos ya mencionados, la Ley de Gobernanza de Datos, la Ley de Datos, la Ley de Servicios Digitales y la Ley de Mercados Digitales. En este complejo marco regulatorio, la relación entre el RGPD y la Ley de IA desempeña un papel principal, ya que el uso de sistemas de inteligencia artificial está estrechamente vinculado a la gestión de grandes cantidades de datos personales, esenciales tanto para entrenar algoritmos como para su funcionamiento práctico. La metodología regulatoria prevista tanto por el RGPD como por la Ley de IA se basa en un enfoque basado en el riesgo que, aunque comparte rasgos comunes, adopta diferentes formas dentro de sus respectivos contextos regulatorios. El RGPD, de hecho, introduce un sistema de obligaciones que se gradúan según el nivel de riesgo asociado al procesamiento, asignando al responsable del tratamiento la responsabilidad de evaluar previamente el impacto de las operaciones en los derechos y libertades de los interesados mediante el instrumento de la Evaluación de Impacto en la Protección de Datos (DPIA).

Autoevaluación de Competencias Digitales (Basada en GymComp)
2. Desafíos: sesgos, desigualdad y dependencia excesiva

A pesar de su promesas, la IA también presenta desafíos sustanciales que se discutieron en profundidad durante los talleres: Los participantes identificaron el riesgo de una dependencia excesiva en los resultados de la IA, especialmente por parte de las jóvenes con menores habiliaddes de pensamiento crítico. Varias trabajadoras juveniles compartieron preocupaciones sobre que los jóvenes traten las respuestas de la IA como hechos consumados sin cuestionar su fuente o limitaciones. La desigualdad digital surgió como una barrera crítica: mientras algunas trabajadoras juveniles se sintieron empoderadass por las herramientas de IA, otros carecían de las habilidades digitales básicas para interactuar de manera significativa con ellas. Esta brecha corre el riesgo de ampliar las desigualdades sociales y educativas existentes a menos que se proporcione un apoyo proactivo. También se señalaron los riesgos éticos del mal uso de datos y la falta de transparencia en la toma de decisiones algorítmicas, especialmente cuando las herramientas de IA se usan en contextos sensibles que involucran a menores o grupos marginados. Estas preocupaciones se reflejaron también en el piloto AI4YouthWork, donde los participantes solicitaron una orientación más sólida sobre la privacidad, protocolos éticos más claros y contenido más adaptado culturalmente para comunidades de aprendizaje diversas

CAPÍTULO 3

Conclusión

La muestra de los GymComp demuestra que los profesionales que trabajan con jóvenes pueden convertir los marcos de competencia europeos en rutinas repetibles y amigables que se ajustan a los espacios juveniles reales donde trabajan. Al mapear DigComp 2.2 (alfabetización en información y datos; participación; creación de contenido; privacidad y protección de datos) y LifeComp (comunicación, colaboración, empatía, autorregulación) en cortos “circuitos”, el proyecto traduce el lenguaje político en comportamientos que los jóvenes pueden practicar y mantener, verificar primero, crear con transparencia, participar responsablemente y proteger los datos. Este es exactamente el espíritu de la orientación de la UE a la que apuntan nuestros materiales, y mantiene los derechos y el bienestar en el centro de la práctica. Dos anclajes hacen que el enfoque sea duradero más allá de este capítulo. Primero, la seguridad por defecto se enseña como hábito, no como teoría: los principios de privacidad (legalidad, minimización, límites de almacenamiento) se convierten en acciones concretas en los mismos dispositivos que los jóvenes llevan. Gestores de contraseñas, configuraciones de aplicaciones de mensajería, opciones de cookies y explicaciones en lenguaje sencillo del RGPD, ePrivacy y DGA. Esta combinación de “por qué” con “cómo” es lo que cambia el comportamiento. Segundo, la confianza por diseño se simplifica mediante indicaciones de ALTAI ¿Quién se ve afectado? ¿De dónde provienen los datos? ¿Dónde está el humano en el ciclo? que los trabajadores juveniles pueden incorporar en cualquier tarea creativa o participativa.

La colaboración entre países es una característica, no un telón de fondo. En Italia, la Associazione Arcipelago APS y Lascò aportaron conocimientos de facilitación y laboratorios de ética y estímulos; las notas de coordinación muestran cómo expertos como Raffaele se integraron en talleres y en cómo se están planificando líneas de formación local para escuelas, bibliotecas y zonas rurales. En España, la Fundación Esplai ha liderado las líneas de DigComp sobre participación y creación de contenido, y coordinado los próximos pasos para formación compartida y seminarios web abiertos. Este ciclo Italia–España asegura que el método sea inclusivo, independiente de la herramienta y listo para escalar.Para el campo más amplio de la educación no formal, GymComp ofrece un puente práctico: objetivos de sesiones que ponen en primer plano la ética junto con las herramientas; patrones de estímulo que hacen visibles los límites del modelo; y momentos de evaluación que capturan evidencia sin demasiada burocracia. Estos elementos pueden integrarse en programas juveniles existentes, laboratorios digitales y módulos de educación cívica, y se adaptan bien a diferentes herramientas y contextos de amplio espectro.

Herramientas de IA para Colaboración y Comunicación

Estas herramientas apoyan el trabajo en grupo, la facilitación en línea y los entornos de aprendizaje interactivos, con funciones mejoradas por IA para organización o comunicación.

4) Herramientas y accesibilidad

Catálogo de recursos de formación para IA generativas principales (Gemini, Copilot, ChatGPT, Canva) y complementos de accesibilidad (por ejemplo, herramientas de lenguaje de señas/voz) para una entrega inclusiva, reforzando que la elección de la herramienta es secundaria al proceso: planificar, co-crear, verificar, atribuir. Los objetivos de la sesión son triples: entender los tipos de contenidos impulsados por IA generativa, seleccionar las herramientas adecuadas, y destacar las consideraciones éticas. Se utilizan encuestas en vivo para evaluar la experiencia y expectativas, y luego ajustar la profundidad y el ritmo.

DigiComp - Alfabetización informacional y de datos
CAPÍTULO 3

Conclusiones

Construir una IA ética requiere colaboración multidisciplinaria entre:

  • Desarrolladores e ingenieros, que entienden la lógica de los modelos;
  • Abogados y legisladores, que definen el marco regulatorio;
  • Sociólogos y éticos, que evalúan el impacto social y cultural;
  • Usuarios finales, que brindan retroalimentación real sobre el uso de las tecnologías.
La ética no limita la innovación: la hace confiable y socialmente aceptable, creando confianza y 'competitividad responsable.' El aspecto ético debe incorporarse en cada fase del ciclo de vida del sistema de IA según el principio de 'Ética por Diseño.'

4. Desarrollo de competencias a través de GymComp

La metodología GymComp, estructurada en torno a DigComp 2.1 y LIFEComp, desempeñó un papel clave en facilitar la autoevaluación y el desarrollo de capacidades: Los participantes reflexionaron sobre las áreas de DigComp como 1.1 Navegación y Búsqueda, 2.3 Compartir y Colaborar, 3.1 Creación de Contenido Digital y 4.2 Protección de Datos Personales, mapeando sus propios niveles de confianza antes y después de los talleres. En línea con LIFEComp, habilidades como la autonomía, la conciencia emocional y el aprendizaje se integraron mediante juegos de roles y construcción de escenarios. Variass trabajadoras de juventud informaron que este marco no solo apoyó su propio crecimiento, sino que también les proporcionó un lenguaje para hablar sobre competencias digitales y transversales con los ylas jóvenes a los que apoyan. Como resultado, más del 75% de los participantes piloto afirmaron que habían desarrollado nuevas habilidades que apoyarían la adopción de IA en su práctica profesional. Además, el 84% indicó que recomendarían los recursos a sus pares, confirmando tanto el valor pedagógico como la transferibilidad del enfoque.

2) Postura pedagógica: de los marcos de trabajo al trabajo con jóvenes

Nuestro enfoque parte de las realidades del alumnado y luego se remonta a los marcos de trabajo, una opción de diseño “invertido” que se plantea repetidamente en las discusiones con los socios. Los formadores enfatizan la contextualización de DigComp en las comunidades, manteniendo el curso práctico, y reconociendo que la certificación solo importa si se percibe como significativa por los aprendices y empleadores. LifeComp ancla el aspecto relacional: autorregulación, flexibilidad, bienestar; empatía, comunicación, colaboración; mentalidad de crecimiento, pensamiento crítico y aprendizaje a aprender. Las presentaciones realizadss estructuran cada competencia con descriptores de conciencia–comprensión–acción, que traducimos en calentamientos (conciencia), mini-entradas (comprensión) y tareas prácticas (acción). Los socios italianos aportan una gramática de facilitación concreta—observación de participantes, identificación de “personas puente” y técnicas explícitas desde la empatía—para que los educadores puedan evidenciar los diferentes “sistemas de representación” en una situación antes de actuar. Estas notas guían las decisiones de facilitación en contextos de alcance y se reutilizan directamente en círculos de Gym Comp.

Competencias emergentes en el uso ético de la IA y los datos

Las profesionales que trabajan con jóvenes desempeñan un papel clave en la adopción consciente y segura de la inteligencia artificial (IA) y el uso de datos en la educación no formal. Dentro del marco general de DigCompEdu, existen indicadores de competencia específicos que pueden ser útiles para desarrollar una cultura digital y ética en la educación no formal para el trabajo con jóvenes. Para obtener más información sobre el sistema de habilidades útiles para las profesionales en el uso de la IA en la educación no formal, consulte la tabla en el apéndice.

capítulo 2

Conclusion

La integración de la IA en el trabajo con jóvenes no es simplemente una cuestión de adoptar nuevas herramientas— desafía los cimientos mismos de cómo entendemos el aprendizaje, la agencia y la relación humana en la educación. Aunque el proyecto AI4YW y su predecesor demostraron que la IA puede ampliar el acceso, mejorar la personalización y fomentar la participación, también revelaron tensiones y puntos ciegos que requieren atención continua. Reequilibrar el poder y la agencia Una de las preguntas centrales que surgieron en los talleres es: ¿Quién controla el proceso de aprendizaje cuando se involucra la IA? Mientras que las herramientas generativas empoderan a los usuarios para crear, simular y personalizar, también centralizan el poder tecnológico en manos de sistemas opacos, a menudo operados por actores privados. Los trabajadores con jóvenes destacaron la necesidad de preservar la agencia del aprendiz asegurando que la IA se utilice como un andamio—no como un sustituto—para el pensamiento crítico, la creatividad y la colaboración. El enfoque GymComp, basado en el énfasis de LIFEComp en la competencia personal y social, ayudó a poner esto en foco. Al combinar la capacitación técnica con reflexiones transversales, los participantes comenzaron a replantear la IA no solo como una herramienta de eficiencia, sino como un espacio para cuestionar, negociar y co-crear significado. Superando la mentalidad de

El trabajo con jóvenes, especialmente en la educación no formal, es inherentemente relacional. Los mejores momentos del proceso AI4YW no han sido pensando en lo que la IA podía hacer en nombre de los educadores y educadoras, sino pensando en lo que podía habilitar el diálogo entre ellos y ellas. Estas ideas reflejan llamadas más amplias del sector juvenil por una pedagogía crítica de la tecnología: una que ponga los valores humanos, la inteligencia colectiva y la supervisión democrática en su núcleo. De la competencia digital a la madurez digital, DigComp 2.1 fue esencial para estructurar los talleres, pero la experiencia del proyecto mostró que la competencia digital por sí sola no es suficiente. Lo que las profesionales que trabajan con jóvenes necesitan es una forma de madurez digital: la capacidad de tomar decisiones informadas, evaluar críticamente los sistemas y apoyar a los jóvenes en la navegación de un paisaje tecnológico complejo. Esta madurez no puede adquirirse únicamente a través de listas de verificación o tutoriales; requiere tiempo, diálogo y práctica reflexiva. En este sentido, el modelo GymComp ofreció un prototipo útil de cómo las competencias digitales y transversales pueden cultivarse de manera integral. Reconoció que entender la IA no se trata solo de ingeniería de prompts o alfabetización de datos; se trata de desarrollar una mentalidad que combine la conciencia ética, la inteligencia emocional y el aprendizaje adaptativo. Hacia una cultura de IA centrada en el ser humano en el trabajo juvenil.- Finalmente, el proyecto afirmó que integrar la IA en el trabajo juvenil no solo se trata de formación o herramientas; se trata de cultura. La cultura del trabajo juvenil valora la participación, la inclusión, el cuidado y el empoderamiento. Para que la IA sea verdaderamente transformadora, debe estar subordinada a estos valores, no al revés.

Herramientas de IA para la creación de contenido

Las herramientas impulsadas por IA pueden ayudar a educadores y estudiantes a crear contenido como textos, imágenes, presentaciones o videos. Estas herramientas pueden apoyar la expresión creativa, el aprendizaje de idiomas y la narración digital.

Explorando la IA en la Vida Diaria
Dilemas éticos y IA
Herramientas para la evaluación y retroalimentación

La IA puede apoyar la evaluación formativa analizando las aportaciones de los estudiantes, sugiriendo retroalimentación o proporcionando recomendaciones de aprendizaje personalizadas

Objetivos

  • 1) Mejorar las habilidades de los jóvenes trabajadores en las áreas 1.1, 1.2, 1.3, 2.3, 3.1, 4.2 de DigComp y fortalecer las competencias del LifeComp (comunicación, colaboración, empatía, autorregulación) para promover entornos inclusivos en línea y fuera de línea.
  • 2) Crear un Objeto de Aprendizaje digital (OA) con métodos y herramientas para un uso inteligente de la IA en la educación no formal, disponible en EN/IT/ES y descargable gratuitamente desde sitios web de socios.
  • 3) Conectar en línea y fuera de línea: los trabajadores juveniles actúan como “puentes”, ayudando a los jóvenes a transferir habilidades entre entornos digitales y reales, con especial atención a los y las jóvenes en riesgo de exclusión.

Actividades

  • GymComp: 6 sesiones en línea de 3 horas cada una (total 18 horas) para practicar las competencias de DigComp y LifeComp con momentos de autoevaluación.
  • Talleres: 4 laboratorios en línea de 2 horas para ensamblar métodos, herramientas y buenas prácticas
  • Currículo GymComp (circuitos, diapositivas, listas de verificación, notas de facilitación, rúbricas de evaluación) probado en Italia y España.
  • Objeto de Aprendizaje (EN/IT/ES) que recopila métodos y herramientas para un uso seguro e inclusivo de la IA en la educación no formal; descarga gratuita a través de sitios de socios.
CAPÍTULO 6

Conclusiones

La netiqueta de la IA no es solo un conjunto de reglas, sino una forma de construir una relación armoniosa entre humanos y máquinas.

  • Transparencia genera confianza.
  • Respeto por la privacidad garantiza seguridad.
  • Justicia fomenta la igualdad.
  • Responsabilidad y mejora continua mantienen la IA efectiva y ética.
  • El toque humano garantiza empatía y comprensión.
A medida que la IA crece, estos principios nos guiarán para usarla de manera responsable y ética. Recibir la IA con conciencia significa convertirla en una compañera, no solo en una herramienta. Es una forma de construir un futuro donde la IA beneficie a todos.

Introducción, definición y construcción de competencias
Herramientas de IA en la práctica: Una prueba crítica
Plataformas educativas que integran IA

Algunas plataformas combinan la gestión del aprendizaje con funciones de IA para personalizar el aprendizaje o proporcionar retroalimentación adaptativa.

CAPÍTULO 5

Conclusiones

El examen de las relaciones entre el RGPD y la Ley de IA destaca desafíos concretos que las organizaciones deberán afrontar en los próximos años. Esto implica la necesidad de establecer equipos interdisciplinarios con experiencia integrada en privacidad, IA y cumplimiento normativo. Los modelos y procedimientos existentes deberán actualizarse para tener en cuenta no solo aspectos de protección de datos, sino también las características específicas de la IA, como la robustez del algoritmo o la posible presencia de sesgos. Además, será necesario implementar sistemas de monitoreo continuo para verificar el mantenimiento del cumplimiento a lo largo del tiempo, ya que ambos conjuntos de regulaciones requieren una gestión dinámica del riesgo. Solo un enfoque pragmático podrá convertir estos desafíos regulatorios en oportunidades para la innovación responsable.

9) Notas de implementación de Italia y España

Las notas de coordinación muestran cómo la experiencia mejoró la entrega: invitando a expertos en privacidad y pedagogía; iterando sobre la logística; y planificando talleres transfronterizos y capacitaciones abiertas. Los equipos destacan que las restricciones en licencias y acceso a herramientas pueden socavar la inclusión, por lo que los programas deben planificar alternativas equitativas o licencias institucionales. Los socios españoles documentan tanto la promesa como los límites de la participación digital (por ejemplo, los procesos de votación locales que se convierten en concursos de popularidad), reforzando la necesidad de una facilitación crítica y conciencia de sesgos en las actividades de tecnología cívica..

LifeComp
DigiComp 2.3. - Participando con la ciudadanía a través de tecnologías digitales

7) Mitigación de riesgos de la IA mientras se crea valor

Las sesiones realizadas sobre “IA generativa” enmarcan tanto la emoción como el riesgo: alucinaciones, exposición a derechos de autor, filtraciones de datos, sesgo y costo. La respuesta práctica es de dos pasos: fortalecer la disciplina en las indicaciones y introducir recuperación/justificación, siempre acompañado de revisión humana y atribución explícita. Los socios demostraron esto en tareas reales (por ejemplo, redactar un correo para un taller de manera segura y obtener hechos de fuente confiable).

Herramientas para la Reflexión Ética y el Pensamiento Crítico

En línea con el énfasis del proyecto en responsabilidad y ética, esta subsección destaca herramientas que apoyan el compromiso crítico con la IA.

8) Evaluación y evidencia del aprendizaje

La evaluación formativa es continua: encuestas rápidas sobre expectativas, tickets de salida reflexivos vinculados a los descriptores de DigiComp y autoevaluaciones cortas registradas en el espacio compartido del aula después de las sesiones. Esto hace que el crecimiento de la competencia sea visible y accionable tanto para las persona jóvenes como para los facilitadores. Para las tareas vinculada a la competencia 3.1, las rúbricas observan la claridad de la intención, la ética en la obtención/licenciamiento, la idoneidad para la audiencia y la transparencia sobre la ayuda de IA. Para la competencias 4.2, las participantes deben demostrar cambios en la configuración, mejorar la higiene de contraseñas y contar una “historia de privacidad” articulada (qué cambiaron y por qué), no solo recordar los términos.

CAPÍTULO 5

Reflexiones

La implementación concreta de las disposiciones establecidas por el RGPD y la Ley de IA plantea desafíos técnicos y operativos significativos, que requieren el desarrollo de soluciones innovadoras y la adopción de enfoques integrados para el cumplimiento normativo. Garantizar tanto el cumplimiento de los principios de protección de datos como la adhesión a los requisitos específicos establecidos para los sistemas de inteligencia artificial, en realidad, implica diseñar arquitecturas tecnológicas y marcos organizativos capaces de satisfacer conjuntamente las necesidades impuestas por ambos conjuntos de regulaciones.

Por otro lado, la Ley de IA define un mecanismo de clasificación para los sistemas de inteligencia artificial articulado en cuatro categorías de riesgo (inaceptable, alto, limitado y mínimo), cada una de las cuales implica un marco diferente de obligaciones y responsabilidades. Esta orientación emerge especialmente con la introducción, por parte de la Ley de IA, de la Evaluación de Impacto en Derechos Fundamentales (FRIA), una herramienta de evaluación preventiva que, aunque presenta puntos de contacto con la DPIA bajo el RGPD, difiere en alcance y objetivos. La DPIA, en realidad, está específicamente centrada en los riesgos relacionados con el procesamiento de datos personales, mientras que la FRIA adopta una perspectiva más amplia, considerando el impacto que los sistemas de inteligencia artificial pueden tener en toda la gama de derechos fundamentales garantizados por el ordenamiento legal europeo. Mientras que la DPIA se centra precisamente en los efectos de privacidad derivados del procesamiento de datos personales, la FRIA amplía la perspectiva considerando una gama más amplia de derechos fundamentales que pueden verse afectados por los sistemas de inteligencia artificial, incluyendo el principio de no discriminación, la libertad de expresión, la dignidad humana y la protección de menores. Los dos tipos de evaluación permiten identificar riesgos diferentes que podrían escapar a un análisis centrado exclusivamente en un aspecto: un sistema de IA, por ejemplo, podría cumplir con los requisitos de protección de datos y, al mismo tiempo, generar efectos discriminatorios, o respetar los derechos fundamentales sin, sin embargo, garantizar una seguridad de datos adecuada. Con este fin, el legislador europeo ha introducido mecanismos de coordinación específicos entre las dos herramientas: en casos donde un sistema de IA de alto riesgo implique el procesamiento de datos personales, la FRIA puede complementar los elementos ya presentes en la DPIA, evitando así solapamientos innecesarios.

Capítulo 5

Contenido clave/discusión

Actualmente, la UE adopta un enfoque multinivel, en el que el RGPD y la Ley de IA se combinan con la DGA, la Ley de Datos, la DSA y la DMA, con el objetivo de garantizar una complementariedad sustancial entre los diversos instrumentos regulatorios introducidos a lo largo del tiempo. Esta estrategia, basada en la intención de fomentar la innovación tecnológica sin descuidar la protección de los derechos fundamentales de los ciudadanos europeos, se materializa a través de un conjunto articulado de normas interconectadas que incluyen, además de los reglamentos ya mencionados, la Ley de Gobernanza de Datos, la Ley de Datos, la Ley de Servicios Digitales y la Ley de Mercados Digitales. En este complejo marco regulatorio, la relación entre el RGPD y la Ley de IA desempeña un papel principal, ya que el uso de sistemas de inteligencia artificial está estrechamente vinculado a la gestión de grandes cantidades de datos personales, esenciales tanto para entrenar algoritmos como para su funcionamiento práctico. La metodología regulatoria prevista tanto por el RGPD como por la Ley de IA se basa en un enfoque basado en riesgos que, aunque comparte rasgos comunes, adopta diferentes formas dentro de sus respectivos contextos regulatorios. El RGPD, de hecho, introduce un sistema de obligaciones que se gradúan según el nivel de riesgo asociado al procesamiento, asignando al responsable del tratamiento la responsabilidad de evaluar previamente el impacto de las operaciones en los derechos y libertades de los titulares de los datos mediante el instrumento de la Evaluación de Impacto en la Protección de Datos (DPIA).

1) Objetivos de la competencia en GymComp

El programa de competencias GymComp ha hechoi visibles cuatro ramas de DigComp 2.1 y las ha conectado con LifeComp para que las sesiones desarrollaron tanto capacidades técnicas como relacionales. Concretamente, nos centramos en: (a) Alfabetización en información y datos (1.1–1.3) mediante búsqueda asistida por IA y verificación de fuentes; (b) Participación digital (2.3) a través de plataformas cívicas y activismo liderado por jóvenes; (c) Creación de contenido digital (3.1) con escritura, audio, imagen y video impulsados por indicaciones; y Seguridad, privacidad y protección de datos (4.2) como rutinas de “seguridad por defecto” en cada actividad. Las diapositivas de las sesiones y las notas de las reuniones enfatizan que la competencia 3.1 no solo consiste en “hacer cosas”, sino en hacerlo éticamente y creativamente con respeto a la autoría y los derechos.

CAPÍTULO 1

Conclusión

AIS4YWs convierte grandes marcos en pequeños hábitos duraderos. Con GymComp, los jóvenes trabajadores practican verificar → crear, co-gobernar la participación y la privacidad por defecto hasta que estos movimientos se vuelvan rutina; con los Talleres, empaquetan lo que funciona en un Objeto de Aprendizaje multilingüe que otros profesionales pueden adoptar al día siguiente. Juntos, estos hilos vinculan DigComp 2.2 y LifeComp con la facilitación cotidiana, manteniendo la ética, la seguridad y la inclusión dentro del trabajo en lugar de añadidos. Este enfoque responde claramente a las prioridades de Erasmus+—calidad e innovación en el trabajo juvenil y inclusión & diversidad—mediante construir un método compartido y transfronterizo en lugar de una lista de herramientas. Los roles son claros (Arcipelago coordina GymComp y la difusión; Esplai lidera el monitoreo, impacto y el LO) y la línea de tiempo incorpora eventos de aprendizaje, evidencia y difusión que llevan los resultados más allá de la cohorte.

El valor del proyecto también viaja más lejos: las sesiones y los recursos se integran en programas juveniles existentes, educación cívica, bibliotecas y centros comunitarios, mientras que las redes de socios en Italia y España amplifican el alcance y mantienen la práctica después de la financiación. En resumen, AIS4YWs ofrece un puente práctico de la política europea a la educación en la calle: circuitos repetibles, evidencia ligera y recursos abiertos que ayudan a los jóvenes a crear, verificar, participar—y protegerse a sí mismos y a los demás—usando la IA de manera responsable. Si el sector cumple con tres compromisos—verificar y crear, privacidad por defecto y participación co-gobernada—los jóvenes trabajadores no necesitan ser ingenieros en IA para liderar un aprendizaje significativo. Necesitan un método humano, recursos compartidos y pares en toda Europa. AIS4YWs contribuye con los tres.

6) Prácticas de seguridad y privacidad que las participantes realmente retienen

Las sesiones sobre la privacidad van más allá de las definiciones y se convierten en comportamientos rutinarios: contraseñas únicas, gestores, rotación; reconocimiento de la recopilación de metadatos; lectura de los flujos de consentimiento; y comprensión de las diferencias entre las aplicaciones de mensajería (predeterminados de cifrado de extremo a extremo, copias de seguridad y metadatos). Los aprendices practican configurando ajustes y discutiendo las compensaciones usando ejemplos concretos de aplicaciones. El panorama legislativo (RGPD, ePrivacidad, Ley de Gobernanza de Datos) se simplifica en tres promesas para los aprendices: “recopilar menos”, “compartir conscientemente”, “retener brevemente”, explicadas mediante casos cotidianos como cookies y recomendaciones algorítmicas en plataformas sociales.

1. Oportunidades: personalización, creatividad e inclusión

Los participantes en talleres de España e Italia destacaron el potencial de la IA para personalizar contenidos educativos, fomentar la creatividad y abrir nuevas vías para la inclusión: Herramientas de IA generativa como ChatGPT permitieron a las trabajadoras de juventud diseñar personajes ficticios y escenarios de aprendizaje adaptados a contextos del mundo real. Por ejemplo, los participantes crearon personajes como Amina, una joven demandande de asilo, para quien desarrollaron una ruta de aprendizaje completa respaldada por contenido generado por IA. Brisk y MagicSchool se usaron para generar rápidamente cuestionarios, ejercicios interactivos y materiales adaptados. Estas herramientas fueron especialmente valoradas por ayudar a las profesionales a simplificar textos complejos o crear recursos diferenciados según las necesidades lingüísticas y cognitivas de las aprendices. Las matrices de impacto completadas en los talleres destacaron que la IA puede facilitar el acceso para jóvenes con discapacidades o barreras lingüísticas—en línea con las dimensiones de inclusión, aprendizaje a aprender y apertura a la diversidad de LIFEComp. Esto coincide con los resultados piloto del proyecto AI4YouWork, donde el 84% de los jóvenes trabajadores encontraron que los recursos eran aplicables al trabajo juvenil en la vida real, y el 78% reportaron una mayor capacidad para usar la IA en entornos profesionales.

Objetivos

  • 1) Mejorar las habilidades de los jóvenes trabajadores en las áreas 1.1, 1.2, 1.3, 2.3, 3.1, 4.2 de DigComp y fortalecer las competencias del LifeComp (comunicación, colaboración, empatía, autorregulación) para promover entornos inclusivos en línea y fuera de línea.
  • 2) Crear un Objeto de Aprendizaje digital (OA) con métodos y herramientas para un uso inteligente de la IA en la educación no formal, disponible en EN/IT/ES y descargable gratuitamente desde sitios web de socios.
  • 3) Conectar en línea y fuera de línea: los trabajadores juveniles actúan como “puentes”, ayudando a los jóvenes a transferir habilidades entre entornos digitales y reales, con especial atención a los y las jóvenes en riesgo de exclusión.

Actividades

  • GymComp: 6 sesiones en línea de 3 horas cada una (total 18 horas) para practicar las competencias de DigComp y LifeComp con momentos de autoevaluación.
  • Talleres: 4 laboratorios en línea de 2 horas para ensamblar métodos, herramientas y buenas prácticas
  • Currículo GymComp (circuitos, diapositivas, listas de verificación, notas de facilitación, rúbricas de evaluación) probado en Italia y España.
  • Objeto de Aprendizaje (EN/IT/ES) que recopila métodos y herramientas para un uso seguro e inclusivo de la IA en la educación no formal; descarga gratuita a través de sitios de socios.
Diseñando un taller mejorado con IA

10) Por qué la capa LifeComp importa en la práctica con IA

Más allá de la técnica, GymComp confía en la empatía y la facilitación para reconectar a los jóvenes, comunidades e instituciones. Los materiales de la tradición de divulgación italiana formalizan la empatía como una herramienta metodológica—suspender el juicio, escuchar activamente y co-diseñar pasos que surgen de la incomodidad—para que las actividades potenciadas por IA sigan siendo humanas y restaurativas. En resumen: GymComp combina el “puedo hacer” de DigComp con el “cómo lo hacemos juntos” de LifeComp. Los materiales traducen la orientación de la UE y la experiencia de los socios en circuitos repetibles donde los jóvenes crean, verifican, participan—y se protegen a sí mismos y a los demás—usando la IA de manera responsable.

CAPÍTULO 4

Reflexiones

En los últimos años, el debate sobre la regulación de la Inteligencia Artificial se ha vuelto central. La IA no es una tecnología neutral: sus decisiones y usos pueden afectar profundamente la vida de las personas, el mercado y la sociedad. ¿Por qué es necesaria la regulación?

  • Protección de los derechos fundamentales – La IA gestiona grandes cantidades de datos personales y puede afectar libertades fundamentales como la privacidad, la igualdad y la no discriminación.
  • Responsabilidad legal – ¿Quién es responsable si un sistema de IA causa daño? Es necesario definir cadenas claras de responsabilidad, incluyendo a desarrolladores, proveedores y usuarios.
  • Fomento de la confianza y la innovación – Una regulación clara aumenta la confianza de los ciudadanos y fomenta inversiones más seguras por parte de las empresas.
Dimensión ética y social de la IA para un uso crítico y consciente
  • La IA debe ser antropocéntrica, sirviendo al bienestar humano y al bien común.
  • Debe apoyar los procesos democráticos, los derechos fundamentales y el estado de derecho, evitando riesgos como la vigilancia masiva o los sesgos discriminatorios.
Es necesaria una reflexión continua y participativa entre desarrolladores, responsables políticos y la sociedad civil para abordar dilemas éticos y tensiones entre principios (por ejemplo, seguridad vs. libertad individual).

capítulo 2

Conclusion

La integración de la IA en el trabajo con jóvenes no es simplemente una cuestión de adoptar nuevas herramientas— desafía los cimientos mismos de cómo entendemos el aprendizaje, la agencia y la relación humana en la educación. Aunque el proyecto AI4YW y su predecesor demostraron que la IA puede ampliar el acceso, mejorar la personalización y fomentar la participación, también revelaron tensiones y puntos ciegos que requieren atención continua. Reequilibrar el poder y la agencia Una de las preguntas centrales que surgieron en los talleres es: ¿Quién controla el proceso de aprendizaje cuando se involucra la IA? Mientras que las herramientas generativas empoderan a los usuarios para crear, simular y personalizar, también centralizan el poder tecnológico en manos de sistemas opacos, a menudo operados por actores privados. Los trabajadores con jóvenes destacaron la necesidad de preservar la agencia del aprendiz asegurando que la IA se utilice como un andamio—no como un sustituto—para el pensamiento crítico, la creatividad y la colaboración. El enfoque GymComp, basado en el énfasis de LIFEComp en la competencia personal y social, ayudó a poner esto en foco. Al combinar la capacitación técnica con reflexiones transversales, los participantes comenzaron a replantear la IA no solo como una herramienta de eficiencia, sino como un espacio para cuestionar, negociar y co-crear significado. Superando la mentalidad de

El trabajo con jóvenes, especialmente en la educación no formal, es inherentemente relacional. Los mejores momentos del proceso AI4YW no han sido pensando en lo que la IA podía hacer en nombre de los educadores y educadoras, sino pensando en lo que podía habilitar el diálogo entre ellos y ellas. Estas ideas reflejan llamadas más amplias del sector juvenil por una pedagogía crítica de la tecnología: una que ponga los valores humanos, la inteligencia colectiva y la supervisión democrática en su núcleo. De la competencia digital a la madurez digital, DigComp 2.1 fue esencial para estructurar los talleres, pero la experiencia del proyecto mostró que la competencia digital por sí sola no es suficiente. Lo que las profesionales que trabajan con jóvenes necesitan es una forma de madurez digital: la capacidad de tomar decisiones informadas, evaluar críticamente los sistemas y apoyar a los jóvenes en la navegación de un paisaje tecnológico complejo. Esta madurez no puede adquirirse únicamente a través de listas de verificación o tutoriales; requiere tiempo, diálogo y práctica reflexiva. En este sentido, el modelo GymComp ofreció un prototipo útil de cómo las competencias digitales y transversales pueden cultivarse de manera integral. Reconoció que entender la IA no se trata solo de ingeniería de prompts o alfabetización de datos; se trata de desarrollar una mentalidad que combine la conciencia ética, la inteligencia emocional y el aprendizaje adaptativo. Hacia una cultura de IA centrada en el ser humano en el trabajo juvenil.- Finalmente, el proyecto afirmó que integrar la IA en el trabajo juvenil no solo se trata de formación o herramientas; se trata de cultura. La cultura del trabajo juvenil valora la participación, la inclusión, el cuidado y el empoderamiento. Para que la IA sea verdaderamente transformadora, debe estar subordinada a estos valores, no al revés.

CAPÍTULO 3

Conclusión

La muestra de los GymComp demuestra que los profesionales que trabajan con jóvenes pueden convertir los marcos de competencia europeos en rutinas repetibles y amigables que se ajustan a los espacios juveniles reales donde trabajan. Al mapear DigComp 2.2 (alfabetización en información y datos; participación; creación de contenido; privacidad y protección de datos) y LifeComp (comunicación, colaboración, empatía, autorregulación) en cortos “circuitos”, el proyecto traduce el lenguaje político en comportamientos que los jóvenes pueden practicar y mantener, verificar primero, crear con transparencia, participar responsablemente y proteger los datos. Este es exactamente el espíritu de la orientación de la UE a la que apuntan nuestros materiales, y mantiene los derechos y el bienestar en el centro de la práctica. Dos anclajes hacen que el enfoque sea duradero más allá de este capítulo. Primero, la seguridad por defecto se enseña como hábito, no como teoría: los principios de privacidad (legalidad, minimización, límites de almacenamiento) se convierten en acciones concretas en los mismos dispositivos que los jóvenes llevan. Gestores de contraseñas, configuraciones de aplicaciones de mensajería, opciones de cookies y explicaciones en lenguaje sencillo del RGPD, ePrivacy y DGA. Esta combinación de “por qué” con “cómo” es lo que cambia el comportamiento. Segundo, la confianza por diseño se simplifica mediante indicaciones de ALTAI ¿Quién se ve afectado? ¿De dónde provienen los datos? ¿Dónde está el humano en el ciclo? que los trabajadores juveniles pueden incorporar en cualquier tarea creativa o participativa.

La colaboración entre países es una característica, no un telón de fondo. En Italia, la Associazione Arcipelago APS y Lascò aportaron conocimientos de facilitación y laboratorios de ética y estímulos; las notas de coordinación muestran cómo expertos como Raffaele se integraron en talleres y en cómo se están planificando líneas de formación local para escuelas, bibliotecas y zonas rurales. En España, la Fundación Esplai ha liderado las líneas de DigComp sobre participación y creación de contenido, y coordinado los próximos pasos para formación compartida y seminarios web abiertos. Este ciclo Italia–España asegura que el método sea inclusivo, independiente de la herramienta y listo para escalar.Para el campo más amplio de la educación no formal, GymComp ofrece un puente práctico: objetivos de sesiones que ponen en primer plano la ética junto con las herramientas; patrones de estímulo que hacen visibles los límites del modelo; y momentos de evaluación que capturan evidencia sin demasiada burocracia. Estos elementos pueden integrarse en programas juveniles existentes, laboratorios digitales y módulos de educación cívica, y se adaptan bien a diferentes herramientas y contextos de amplio espectro.

3. Reflexión ética y uso responsable

La ética no se trató como un añadido abstracto, sino como un pilar central de todas las actividades del taller. Basándose en el marco de la UNESCO y en el enfoque de LIFEComp sobre responsabilidad, colaboración y pensamiento crítico, el proyecto AI4YW introdujo una serie de herramientas reflexivas: Las participantes analizaron ejemplos como el experimento “Máquina Moral” del MIT, discutiendo cómo la IA podría reforzar o desafiar los sesgos sociales. En entornos colaborativos, identificaron situaciones en el trabajo con jóvenes donde la IA podría mejorar la equidad (por ejemplo, perfiles automatizados en programas de formación laboral), y co-crearon directrices para un uso responsable. Se enfatizó la importancia de la supervisión humana y el papel no sustitutivo de la IA. La IA fue vista como un copiloto—no un reemplazo— para la empatía, la ética y el trabajo relacional de los profesionales juveniles. Esto se alinea también con los resultados del piloto AI4YouthWork donde el 78% de los encuestados afirmó que los recursos abiertos (OER) les ayudaron a reconocer sesgos en la IA y promovieron la conciencia ética.

CAPÍTULO 4

Reflexiones

En los últimos años, el debate sobre la regulación de la Inteligencia Artificial se ha vuelto central. La IA no es una tecnología neutral: sus decisiones y usos pueden afectar profundamente la vida de las personas, el mercado y la sociedad. ¿Por qué es necesaria la regulación?

  • Protección de los derechos fundamentales – La IA gestiona grandes cantidades de datos personales y puede afectar libertades fundamentales como la privacidad, la igualdad y la no discriminación.
  • Responsabilidad legal – ¿Quién es responsable si un sistema de IA causa daño? Es necesario definir cadenas claras de responsabilidad, incluyendo a desarrolladores, proveedores y usuarios.
  • Fomento de la confianza y la innovación – Una regulación clara aumenta la confianza de los ciudadanos y fomenta inversiones más seguras por parte de las empresas.
Dimensión ética y social de la IA para un uso crítico y consciente
  • La IA debe ser antropocéntrica, sirviendo al bienestar humano y al bien común.
  • Debe apoyar los procesos democráticos, los derechos fundamentales y el estado de derecho, evitando riesgos como la vigilancia masiva o los sesgos discriminatorios.
Es necesaria una reflexión continua y participativa entre desarrolladores, responsables políticos y la sociedad civil para abordar dilemas éticos y tensiones entre principios (por ejemplo, seguridad vs. libertad individual).

CAPÍTULO 3

Conclusiones

Construir una IA ética requiere colaboración multidisciplinaria entre:

  • Desarrolladores e ingenieros, que entienden la lógica de los modelos;
  • Abogados y legisladores, que definen el marco regulatorio;
  • Sociólogos y éticos, que evalúan el impacto social y cultural;
  • Usuarios finales, que brindan retroalimentación real sobre el uso de las tecnologías.
La ética no limita la innovación: la hace confiable y socialmente aceptable, creando confianza y 'competitividad responsable.' El aspecto ético debe incorporarse en cada fase del ciclo de vida del sistema de IA según el principio de 'Ética por Diseño.'

DigiCompt 3.1. - Creación de contenido digital