Want to create interactive content? It’s easy in Genially!

Get started free

LO-AI4YW-Italian version

Fundación Esplai

Created on October 23, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Interactive Hangman

Secret Code

Branching Scenario: Academic Ethics and AI Use

The Fortune Ball

Repeat the Sequence Game

Pixel Challenge

Word Search: Corporate Culture

Transcript

CONTENUTI LEARNING OBJECT

AIS4YW è un progetto finanziato da Erasmus+ KA210-YOU che rafforza la qualità e l'innovazione del lavoro giovanile attraverso un uso pratico, etico dell'intelligenza artificiale generativa nell'educazione non formale. Il progetto ha avuta una durata complessiva di 20 mesi dal 4 marzo 2024 al 3 novembre 2025. L'Associazione Arcipelago APS (Italia) è il coordinatore e la Fundación Esplai, Ciudadanía Comprometida (Spagna) come partner. Le priorità del progetto sono quelle di migliorare la qualità del lavoro giovanile e promuovere inclusione e diversità. AIS4YW ha risposto all'esigenza sempre più urgente dei lavoratori giovanili (YWs) di capire come funziona l'intelligenza artificiale generativa, quali opportunità offre, quali rischi comporta e come utilizzarla in modo critico, etico e sicuro con giovani e giovanissimi.

Il progetto è strutturato come una comunità di pratica tra Italia e Spagna per condividere metodi e risorse per un uso consapevole e professionale dell'IA nell'apprendimento non formale. I partecipanti diretti sono stati 16 operatori giovanili (tra Italia e Spagna) coinvolti attraverso l'apprendimento pratico, il peer learning e la pratica "in-situ". Il contenuto che vedrai di seguito è il risultato dell'esplorazione e della pratica svolte negli ultimi mesi, che speriamo sarà utile alla tua pratica quotidiana nel lavoro giovanile.

Indice dei contenuti

Capitolo 1 - Introduzione

Capitolo 2 - Impatto dell'IA nell'educazione non formale

Capitolo 3 - GymComp: IA Generativa per l'educazione non formale

Capitolo 4 - Etica dei sistemi di IA

Capitolo 5 - Privacy & IA

Capitolo 6 - Netiquette e Intelligenza Artificiale

Questo indice dei contenuti ti permette di navigare facilmente tra i contenuti di questo Learning Object. Sfoglia i capitoli e trova le interazioni con il contenuto attraverso immagini e icone.

Capitolo 7 - Strumenti ed esempi pratici

Riferimenti

Capitolo 1 - Introduzione

AIS4YW è una partnership di piccola scala Erasmus+ KA210-YOU che rafforza la qualità e l'innovazione del lavoro giovanile attraverso un uso pratico, etico dell'intelligenza artificiale generativa nell'educazione non formale. Il progetto ha avuta una durata complessiva di 20 mesi dal 4 marzo 2024 al 3 novembre 2025. L'Associazione Arcipelago APS (Italia) è il coordinatore e la Fundación Esplai, Ciudadanía Comprometida (Spagna) come partner. Le priorità del progetto sono quelle di migliorare la qualità del lavoro giovanile e promuovere inclusione e diversità. AIS4YW ha risposto all'esigenza sempre più urgente dei lavoratori giovanili (YWs) di capire come funziona l'intelligenza artificiale generativa, quali opportunità offre, quali rischi comporta e come utilizzarla in modo critico, etico e sicuro con giovani e giovanissimi.

Obiettivi

Contenuto/ Elementi principali

Conclusione

Capitolo 2 - Impatto dell'IA nell'educazione non formale

L'impatto dell'Intelligenza Artificiale (IA) sul lavoro giovanile e sull'educazione non è più un dibattito teorico — è una realtà viva, dinamica. Basandosi sul lavoro fondamentale del progetto AI4YWS, che ha sperimentato e validato risorse educative aperte (OER) con oltre 100 operatori giovanili in tutta Europa, l'attuale iniziativa AI4YW amplia questa visione, coinvolgendo attivamente professionisti in sperimentazioni riflessive, pratiche ed eticamente fondate con strumenti di IA generativa. Attraverso workshop co-progettati tenuti in Spagna e in Italia, gli educatori hanno esplorato come l'IA possa rimodellare la progettazione educativa, la creazione di contenuti, il coinvolgimento dei giovani e lo sviluppo professionale. Queste esperienze sono state informate da quadri politici globali, come la guida UNESCO 2023 sull'IA generativa nell'educazione, e sono concettualmente ancorate nel Quadro europeo delle competenze digitali per i cittadini (DigComp 2.1) e nel quadro LIFEComp per le competenze personali, sociali e di apprendimento ad apprendere. Insieme, questi quadri hanno fornito le basi per la metodologia GymComp, un processo ludico e partecipativo utilizzato per aiutare gli operatori giovanili a riflettere e sviluppare le competenze necessarie per un uso responsabile ed efficace dell'IA. Questo capitolo si basa su diverse fonti — risultati dei workshop, matrici di impatto e valutazioni pilota — per offrire una prospettiva concreta sulle opportunità, le sfide e il potenziale trasformativo dell'IA. Piuttosto che sostenere il determinismo tecnologico, promuove un approccio informato, inclusivo e centrato sull’uomo all'integrazione dell'IA nel lavoro giovanile.

Contenuto/discussione chiave

Conclusione

Capitolo 2 - Esempi pratici

Esempio 3

Esempio 1

Esempio 2

Gamma – consente presentazioni dinamiche e visive

Designer dell'esperienza di apprendimento Chatgpt

Insegnamento rapido – supporta l'apprendimento attivo attraverso attività di micro-apprendimento integrate

Esempio 4

Esempio 5

Fantastico – facilita lo sviluppo di mappe concettuali durante il lavoro di gruppo

Mizou – supporta la creazione di mock-up interattivi per scenari di interazione AI-persona

Capitolo 3 - GymComp: IA Generativa per l'Istruzione Non Formale

Questo capitolo introduce le GymComp — un approccio pratico e accessibile per rafforzare le competenze digitali e relazionali dei giovani attraverso brevi “circuiti” formativi, ripetibili, che impiegano l’IA generativa in contesti di apprendimento non formale. Traduciamo gli elementi principali dei quadri europei di competenza — DigComp 2.2 (1.1–1.3 alfabetizzazione su dati e informazioni, 2.3 partecipazione online, 3.1 creazione di contenuti digitali, 4.2 protezione dei dati e della privacy) — integrandoli con le dimensioni di LifeComp legate a comunicazione, collaborazione, empatia e autoregolazione, in attività che gli operatori giovanili possono realizzare con minima preparazione e massimo impatto. Ogni circuito combina ricerca e verifica critica, creatività guidata da prompt e routine di privacy-by-design, allineate al GDPR, affrontando apertamente i rischi dell’IA generativa (bias, allucinazioni, copyright, sicurezza) e mostrando come mitigarli nella pratica quotidiana. Il lavoro presentato in questo capitolo è stato co-progettato e sperimentato con partner in Italia e Spagna. In Italia, il programma è curato dall’Associazione Arcipelago APS, in collaborazione con Lascò, il Professor Raffaele Mele e Mattia Anicito, che hanno adattato GymComp a contesti reali come centri comunitari, club giovanili, biblioteche e spazi extrascolastici. In Spagna, il roll-out e la localizzazione sono coordinati dalla Fundación Esplai, forte di una consolidata esperienza in inclusione digitale ed empowerment giovanile. Questa collaborazione transnazionale mantiene il metodo radicato nei contesti concreti e nei bisogni diversificati dei giovani, garantendo che esempi, scenari e protocolli siano eticamente solidi e culturalmente rilevanti.

Contenuto/Elementi chiave

10

Riflessione

Conclusione

Capitolo 3 - Appendici

Digicomp 2.3. - Partecipazione civica attraverso le tecnologie digitali

DigiComp - Alfabetizzazione informatica e sui dati

Introduzione, definizione e costruzione delle competenze

LifeComp

DigiComp 4.2. - Protezione dei dati personali e privacy

DigiComp 3.1. - Creazione di contenuti digitali

Capitolo 4 - Etica dei sistemi di IA

La dimensione etica è uno degli aspetti più rilevanti dell'impatto delle tecnologie dell'informazione sull'organizzazione sociale. L'aspetto etico è stato poco considerato in passato, poiché si credeva nel paradigma della 'auto-regolamentazione' dei prodotti, servizi e attività, promosso per decenni dai principali colossi tecnologici. Lo scenario ha iniziato a cambiare grazie a due fattori chiave: - Consapevolezza sociale degli effetti negativi imprevisti della tecnologia digitale (ad esempio manipolazione delle informazioni, perdita della privacy, disuguaglianze nell'accesso). - L'espansione globale dell'IA e, soprattutto, dell'IA generativa, che ha reso evidenti i rischi di una tecnologia capace di prendere decisioni o generare contenuti con impatti sociali, legali ed economici. Questo scenario in evoluzione ha reso necessario sollevare questioni etiche sull'uso dell'IA, anche in campi fuori dalla tecnologia, dove l'IA si è ampliata ed è diventata essenziale nella vita quotidiana, come l'educazione (formale e non formale).

Contenuto/Discussione chiave

Riflessione

Conclusione

Capitolo 4 - Appendici

Ted Talks 1

Domande guida per i lavoratori giovanili sull'uso etico dell'IA

Competenze emergenti nell'uso etico dell'IA e dei dati per le giovani donne

Ted Talks 2

Capitolo 5 - Privacy e AI

L'introduzione e la crescente diffusione dei sistemi di intelligenza artificiale nel contesto economico e sociale odierno hanno prodotto un cambiamento significativo nei modi in cui i dati personali vengono raccolti, elaborati e utilizzati, sollevando questioni di notevole complessità. Il legislatore europeo ha scelto di rispondere a queste sfide con un modello regolamentare multilivello, basato sull'interazione tra il Regolamento Generale sulla Protezione dei Dati (GDPR) e il nuovo Regolamento sull'Intelligenza Artificiale (AI Act), recentemente approvato dal Parlamento Europeo come parte di una strategia digitale più ampia dell'UE. La protezione della privacy esiste solo se garantita da leggi, regolamenti e direttive che stabiliscono quali dati possono essere raccolti e in quali modi.

Contenuto/discussione principale

Riflessioni

Conclusione

Capitolo 6 - Netiquette e Intelligenza Artificiale

La netiquette è una parola inglese che combina il termine inglese network e la parola francese etiquette (buone maniere). È un insieme di regole informali che regolano un buon comportamento degli utenti sul web, specialmente nell'interagire con altri utenti attraverso risorse come newsgroup, mailing list, forum, blog, social network o email in generale. Seguire le linee guida per un comportamento accettabile rende internet un luogo più piacevole per tutti gli utenti. Il modo in cui interagiamo con l'IA – e il modo in cui l'IA interagisce con noi – richiede un nuovo insieme di buone maniere

Contenuto/Discussione chiave

Conclusione

Capitolo 7 - Strumenti ed Esempi Pratici

Questo capitolo presenta una selezione curata di strumenti, schede pratiche e tutorial che derivano dal lavoro collaborativo del partenariato del progetto AIS4YW. Sviluppati nel contesto dell’educazione non formale, i materiali mirano a supportare educatori, formatori e facilitatori giovanili nell'integrare l’Intelligenza Artificiale (IA) nelle loro pratiche educative in modo riflessivo, inclusivo ed eticamente fondato. Le risorse raccolte riflettono i temi principali esplorati durante tutto il progetto, inclusi l’impatto dell’IA sul lavoro giovanile, lo sviluppo di competenze digitali e trasversali (ispirate da framework come DigComp e LIFEComp), e l’uso etico e responsabile delle tecnologie digitali. Gli strumenti sono allineati a queste dimensioni e sono stati co-creati o selezionati dai partner del progetto in base a bisogni reali identificati durante workshop, sessioni collaborative e sperimentazioni locali. Piuttosto che offrire un inventario esaustivo, questo capitolo evidenzia risorse pratiche, pronte all’uso — inclusi strumenti basati sull’IA, piattaforme educative ed esempi di applicazioni reali — che possono ispirare gli educatori in contesti non formali. I materiali selezionati sono adattabili a diversi contesti e ambienti di apprendimento e sono progettati per promuovere il pensiero critico, la creatività e l’empowerment dei partecipanti. Il capitolo si struttura in due sezioni: una panoramica di diversi toolkit e una raccolta di schede pratiche su come esplorare l’uso dell’IA nel lavoro giovanile. Queste sezioni mirano a fornire sia chiarezza concettuale che guida pratica a chi desidera integrare l’IA in esperienze educative oltre il contesto non formale.

Capitolo 7 - Panoramica degli strumenti

Strumenti AI per Collaborazione e Comunicazione

Piattaforme Educative Integranti AI

Strumenti AI per la creazione di contenuti

Strumenti AI per Riflessione Etica e Pensiero Critico

Strumenti AI per Valutazione e Feedback

Capitolo 7 - Schede di esercizi

Auto-valutazione delle Competenze Digitali (Basata su GymComp)

Dilemmi Etici e AI

Esplorare l'IA nella vita quotidiana

Progettare un workshop potenziato dall'IA

Strumenti AI in pratica: un test critico

Riferimenti

Capitolo 2

  • UNESCO. (2023). Linee guida per l'IA generativa nell'istruzione e nella ricerca. UNESCO. unesco.org+1
  • Carretero, S., Vuorikari, R., & Punie, Y. (2017). DigComp 2.1: Il Quadro delle competenze digitali per i cittadini con otto livelli di competenza ed esempi di utilizzo (Rapporto tecnico JRC). Commissione Europea. IDEAS/RePEc
  • Commissione Europea / Centro comune di ricerca. (n.d.). LifeComp: Il quadro europeo per le competenze personali, sociali e di apprendimento per apprendere. JRC / Commissione Europea. joint-research-centre.ec.europa.eu
  • Kechagias, K. (2025). Bisogni di competenza in intelligenza artificiale per i giovani lavoratori. Journal of Non-formal Education. journals.team4excellence.ro
  • Ghimire, A., & Edwards, J. (2024). Dalle linee guida alla governance: uno studio sulle politiche sull'IA nell'istruzione. arXiv preprint. arxiv.org
  • Perkins, M., Furze, L., Roe, J., & MacVaugh, J. (2023). La Scala di Valutazione dell'IA (AIAS): un quadro per l'integrazione etica dell'IA generativa nella valutazione educativa. arXiv preprint. arxiv.org
  • Bura, C., & Myakala, P. K. (2024). Promuovere l'educazione trasformativa: l'IA generativa come catalizzatore di equità e innovazione. arXiv preprint. arxiv.org

Capitolo 3

  • Commissione Europea, Centro comune di ricerca. (2022). *DigComp 2.2: Il quadro delle competenze digitali per i cittadini (JRC128415).
  • Sala, A., Punie, Y., Gualtieri, M., et al. (2020).LifeComp: Il quadro europeo per le competenze personali, sociali e di apprendimento per imparare.
  • Gruppo di esperti di alto livello sull'IA. (2019). *Linee guida etiche per un'IA affidabile. Commissione Europea.
  • Commissione Europea. (2020). Lista di valutazione per un'IA affidabile (ALTAI) – Autovalutazione. Ufficio pubblicazioni / Strategia digitale. ([Ufficio pubblicazioni dell'UE][5], [Strategia Digitale Europea][6])
  • Commissione Europea. (2022). Linee guida etiche sull'uso dell'IA e dei dati nell'insegnamento e nell'apprendimento per gli educatori.
  • Unione Europea. (2016). Regolamento (UE) 2016/679 (Regolamento generale sulla protezione dei dati).
  • Unione Europea. (2002/2009). Direttiva 2002/58/CE (Direttiva ePrivacy)
  • Unione Europea. (2022). Regolamento (UE) 2022/868 (Regolamento sulla governance dei dati). Gazzetta ufficiale; vedi anche la spiegazione della Commissione.

Riferimenti

Capitolo 4

  • Linee guida etiche sull'uso dell'intelligenza artificiale (IA) e dei dati nell'insegnamento e nell'apprendimento per gli educatori (2022)
  • GUIDA BASE DELL'IA, dei testi, Aguilar, I.; Alepuz, V.; Alfaro, J.; Bañón, J.J.; Botti, V.; Despujol, I.; Giménez, J.; Linares, J.; Linares, J.M.; Majadas, V.; Martínez, J.; Monsoriu, M.; Montesa, E.; Morillas, C.; Muñoz, J.M.; Ortega, J.; Ortuño, A.; Peñarrubia, J.P.; Plasencia, A.; Rieta, J.; Sales, M.; Segarra, R. (2024).
  • Edizione Smart Digital.Data Strategy: un progetto per un modello di dati dell'UEJRC (2022).
  • DigComp 2.2: Il Quadro di competenza digitale europeo per i cittadiniOECD (2021).
  • Raccomandazione del Consiglio sull'intelligenza artificialeUNESCO (2021).
  • Raccomandazione sull'etica dell'intelligenza artificialeUNESCO (2019).
  • Intelligenza artificiale nell'istruzione: sfide e opportunità per lo sviluppo sostenibileUNICEF (2021).

Capitolo 5

  • "A. Augostini, G. Minucci, J. Giussani, G. Lombardi, La relazione tra intelligenza artificiale e protezione dei dati personali, Lexia, 20/11/2024,
  • Un'introduzione al Codice di condotta per l'IA generica
  • Legge sull'IA dell'UE: prima regolamentazione sull'intelligenza artificiale

Riferimenti

Capitolo 6

  • L'arte dell'etichetta AI – WeAreTechWomen (2025)
  • Codice di condotta dei servizi di intelligenza artificiale aziendale di Microsoft (2025)
  • 8 consigli di etichetta AI e contenuti – H RMorning (2023)

Contatta i responsabili di progetto di ogni paese: Italia - Arcipelago info@associazionearcipelago.com Spagna - Fundación Esplai gporres@fundacionesplai.org

5) Etica, diritti e affidabilità

I materiali adottano la check-list dell’UE ALTAI per mantenere la creazione e la partecipazione “affidabili”: rispettare i diritti fondamentali (inclusi i minori), mantenere la supervisione umana, garantire robustezza e sicurezza tecnica, applicare la privacy-by-design/default, garantire tracciabilità e trasparenza, promuovere diversità/non discriminazione e considerare gli impatti sociali-ambientali. Questi principi vengono tradotti in checklist operative integrate nei circuiti (ad es.: “Chi è coinvolto?”, “Da dove provengono i dati?”, “Dove si trova l’umano nel ciclo?”). I partner sottolineano più volte che gli YWs devono capire come funzionano i sistemi: occorre contrastare i modelli “scatola nera” con modelli interpretabili, e far sperimentare semplici strumenti di addestramento, così da evitare il “pensiero magico” sull’IA.

DigiComp 4.2. - Protezione dei dati personali e privacy
Perché l'etica nell'IA è fondamentale

L'IA non è solo un software potente: è un sistema capace di influenzare decisioni che un tempo appartenevano esclusivamente agli esseri umani. Ciò comporta conseguenze dirette su diritti fondamentali come: - Privacy, poiché l'IA elabora enormi quantità di dati personali; - Trattamento equo, perché gli algoritmi non controllati possono replicare o amplificare i bias sociali; - Sicurezza, poiché errori o manipolazioni nei sistemi di IA possono generare danni materiali o morali su larga scala. Negli ultimi anni, è diventato chiaro che 'fare affidamento sul buon senso dei creatori di tecnologia' non è sufficiente. Ciò di cui c'è bisogno sono: - Quadri regolatori chiari, che definiscano limiti e responsabilità; - Standard etici condivisi, che guidino la progettazione, lo sviluppo e l'implementazione; - Trasparenza e meccanismi di audit, che consentano verifiche da parte di enti indipendenti.

CAPITOLO 1

Conclusione

Il progetto AIS4YWs – AI Skills for Youth Workers dimostra che è possibile tradurre i grandi quadri europei di competenza in pratiche quotidiane, semplici da applicare, sostenibili nel tempo e significative per chi lavora a stretto contatto con i giovani. Attraverso le GymComp, gli operatori giovanili si allenano a usare l’intelligenza artificiale in modo critico, sicuro ed etico, integrando le competenze digitali e relazionali nella propria routine professionale. Nei Workshop, queste pratiche vengono raccolte, sistematizzate e trasformate in un Oggetto di Apprendimento multilingue, pronto per essere condiviso e adattato da altri professionisti del settore in tutta Europa. L’approccio del progetto è chiaro e innovativo: non una lista di strumenti tecnologici, ma un metodo replicabile, centrato sulle persone, sui processi e sul contesto. È proprio questa attenzione alla quotidianità educativa, unita alla visione europea, che permette ad AIS4YWs di rispondere in modo concreto alle priorità del programma Erasmus+, promuovendo qualità, inclusione e innovazione nel lavoro con i giovani.Con ruoli ben definiti – Arcipelago per la facilitazione e la comunicazione, Fundación Esplai per il monitoraggio e la co-creazione del Learning Object – e una strategia costruita su partecipazione attiva, evidenze leggere e risorse aperte, il progetto getta le basi per una comunità di pratica transnazionale che continuerà a crescere anche dopo la fine del finanziamento.I risultati non restano confinati al gruppo coinvolto, ma si diffondono nei territori, nelle reti, nei contesti educativi già esistenti, come centri giovanili, biblioteche, scuole e percorsi di educazione civica.

In definitiva, AIS4YWs rappresenta un ponte concreto tra le politiche europee e l’educazione di prossimità. Offre circuiti pratici, strumenti accessibili e una visione condivisa, che permette agli operatori giovanili di creare, verificare, partecipare — e allo stesso tempo proteggere sé stessi e gli altri nell’uso dell’IA. Per affrontare le sfide educative di oggi, non servono specialisti tecnici, ma educatori ben formati, dotati di metodi umanistici, risorse comuni e pari opportunità formative. AIS4YWs contribuisce a costruire tutto questo. E lo fa insieme.

Trasparenza, equità e affidabilità

Affidabilità

  • Un sistema di IA deve funzionare in modo sicuro e coerente nel tempo.
  • Devono essere predisposti piani di mitigazione del rischio, aggiornamenti regolari e audit indipendenti.
Inoltre, sono necessari altri aspetti chiave per garantire che l'IA sia affidabile e sicura:
  • Rispetto dell'autonomia umana – Tutti i sistemi devono consentire la supervisione umana, specialmente nelle decisioni che riguardano minori e giovani.
  • Benessere sociale e ambientale – Evitare danni sociali, promuovere coesione e sostenibilità.
  • Privacy e governance dei dati – Protezione dei dati personali, qualità e integrità dei dati, accesso controllato.
  • Responsabilità – Devono esistere responsabilità chiare per il monitoraggio, gli impatti negativi e le eventuali contestazioni.

Tre pilastri sono essenziali per garantire che un sistema di IA sia etico: Trasparenza

  • Gli utenti e le autorità devono sapere come e perché un sistema prende determinate decisioni.
  • I sistemi opachi (scatole nere) devono essere accompagnati da strumenti di intelligenza artificiale spiegabile (XAI).
  • Questo aspetto è fondamentale per la fiducia e l'esercizio dei diritti.
Equità
  • Gli algoritmi non devono generare discriminazioni né rafforzare i pregiudizi.
  • È fondamentale testare i modelli su dataset diversi e aggiornare costantemente i criteri di valutazione.

CAPITOLO 5

Riflessioni

L'implementazione concreta delle disposizioni stabilite dal GDPR e dall'AI Act solleva importanti sfide tecniche e operative, richiedendo lo sviluppo di soluzioni innovative e l'adozione di approcci integrati alla conformità normativa. Garantire sia la conformità ai principi di protezione dei dati sia l'adesione ai requisiti specifici stabiliti per i sistemi di intelligenza artificiale, infatti, comporta progettare architetture tecnologiche e quadri organizzativi in grado di soddisfare congiuntamente le esigenze imposte da entrambi i set di regolamenti.

Capitolo 1

Contenuto/Elementi chiave

Nel cuore del progetto AIS4YW c’è GymComp, un format innovativo che non si limita a “insegnare l’intelligenza artificiale”, ma aiuta gli operatori giovanili a sviluppare buone abitudini digitali attraverso attività pratiche, rapide e ripetibili. Più che un corso teorico, GymComp è pensato come una vera palestra di competenze, dove si impara facendo, confrontandosi, sbagliando e migliorando insieme. L’idea nasce da un’esigenza concreta: molti giovani (e non solo) vivono oggi una forte esposizione al mondo digitale, ma spesso senza gli strumenti critici per orientarsi tra informazioni false, violazioni della privacy, contenuti non verificati, e senza una consapevolezza sui rischi e le opportunità dell’IA generativa. Gli operatori giovanili si trovano così ad affrontare nuove sfide educative, senza sempre avere il tempo o le risorse per fermarsi a studiare modelli teorici complessi. Le GymComp partono proprio da qui: non dal modello, ma dal problema. Ad esempio: “L’IA sa davvero tutto?” Cosa succede se condividiamo contenuti creati con ChatGPT?” “Come possiamo aiutare i ragazzi a capire cosa accade ai loro dati?” A partire da queste domande, ogni sessione propone un circuito laboratoriale con attività guidate, ruoli specifici e un tempo definito (circa 3 ore), in cui i partecipanti allenano competenze digitali (DigComp) e socio-emotive (LifeComp) in contesti reali, facilmente trasferibili nel loro lavoro quotidiano. Le GymComp sono pensate per operatori reali, con problemi reali, che lavorano con giovani veri. Per questo sono già state testate e adattate in Italia e in Spagna, utilizzando strumenti gratuiti o accessibili, in contesti diversi (urbani, rurali, formali e informali). Attraverso questo format, AIS4YW vuole creare una comunità europea di pratiche, dove gli Youth Workers non solo si formano, ma costruiscono insieme nuove modalità di intervento educativo, più vicine ai linguaggi, agli strumenti e alle esigenze dei giovani di oggi. Nel progetto AIS4YW, ogni attività è costruita con una struttura chiara, obiettivi concreti e ruoli ben definiti. Il cuore pulsante del percorso è un ciclo formativo che unisce due elementi complementari: le GymComp, che servono ad allenare le competenze attraverso l’esperienza, e i Workshop, che trasformano queste esperienze in risorse riutilizzabili per tutta la comunità educativa. Il percorso coinvolge 16 operatori giovanili provenienti da Italia e Spagna, che partecipano a:

- sei sessioni GymComp da 3 ore ciascuna (per un totale di 18 ore di pratica),- quattro Workshop online da 2 ore, dove si co-progetta un Learning Object (LO): un insieme multilingue (EN/IT/ES) di strumenti, esempi e buone pratiche per un utilizzo etico, consapevole e sicuro dell’intelligenza artificiale nell’educazione non formale. Il format punta a molto più che “insegnare app”: mira a trasferire un metodo, facilmente replicabile da altri operatori, indipendentemente dai software utilizzati. Ciò che conta non è quale strumento si usa, ma come si pianifica, co-crea, verifica e attribuisce il lavoro svolto. Questo rende il progetto più inclusivo e sostenibile, anche quando le piattaforme cambiano, i servizi gratuiti si riducono o le licenze diventano a pagamento. Le GymComp sono coordinate da Arcipelago, mentre i Workshop sono gestiti da Fundación Esplai, che si occupa anche dell’assemblaggio finale del Learning Object, reso disponibile in accesso aperto sui siti dei partner. Durante i Workshop, si lavora per consolidare ciò che ha funzionato nella fase pratica: si riflette sulle esperienze, si documentano i passaggi e si trasformano i percorsi formativi in materiali utili per altri operatori, pronti da usare il giorno dopo in un centro giovanile o in un laboratorio. Le sessioni sono progettate per essere coinvolgenti e misurabili, senza appesantire il lavoro educativo: si parte da sondaggi rapidi per sintonizzare il gruppo, si chiude ogni attività con un “biglietto di uscita” legato alle competenze DigComp, si utilizzano brevi auto-valutazioni per aiutare i partecipanti a riconoscere i propri progressi. Le evidenze raccolte non sono “burocratiche”, ma concrete e rilevanti: per le attività legate alla creazione di contenuti (3.1), si valuta l’intento, il rispetto delle licenze, la trasparenza sull’uso dell’IA e l’adeguatezza per il pubblico target; per la protezione dei dati (4.2), si osservano comportamenti reali come il miglioramento delle impostazioni sulla privacy, l’uso di password manager o la capacità di raccontare la propria “storia della privacy” (cioè cosa si è cambiato e perché).

CAPITOLO 3

Riflessioni

Le GymCom funzionano perché considerano i quadri dell’UE come mezzi, non come fini. I materiali partono da frizioni reali del lavoro con i giovani — affaticamento da privacy, limiti di accesso agli strumenti, miti come “l’IA sa tutto” — e traducono DigComp/LifeComp in routine ripetibili che i YWs possono seguire anche sotto pressione temporale. Questo è il cambio decisivo: le competenze non sono liste appese al muro, ma comportamenti incorporati in circuiti brevi — controllare la fonte, nominare il rischio, impostare i controlli, riflettere in squadra. Questa cornice rispecchia l’arco consapevolezza–comprensione–azione delle LifeComp e rende visibile, anziché ornamentale, lo strato relazionale. Un secondo punto chiave è la centralità della sicurezza by default. Quando privacy e sicurezza compaiono solo come aggiunta, perdono contro la comodità; quando sono incorporate in ogni compito (cookie, consenso, password, impostazioni di messaggistica), i YWs iniziano a narrare le proprie storie di privacy e ad attuare cambiamenti concreti (ad es. attivando MFA, ruotando le password, scegliendo impostazioni E2E). La scheda privacy italiana aiuta traducendo principi astratti (base giuridica, limitazione della finalità, minimizzazione, limiti di conservazione) in prompt brevi e memorizzabili riutilizzabili su piattaforme diverse. In pratica, spiegare il perché del GDPR senza il come delle impostazioni e delle abitudini è inefficace; le GymCom mantengono i due livelli collegati. Le sessioni mettono inoltre in luce una questione di equità spesso ignorata nella formazione sull’IA: accesso e licenze. I partner documentano come i piani gratuiti si restringano e i limiti di upload cambino, spingendo i YWs verso offerte a pagamento. Questo è cruciale nel lavoro con i giovani, dove la promessa di “IA per tutti” crolla se le attività dipendono da funzioni premium. La risposta onesta non è lamentarsi, ma progettare esercizi indipendenti dagli strumenti (verifica, attribuzione, protezione) e pianificare account istituzionali o alternative aperte quando uno strumento con licenza è didatticamente necessario. Così l’inclusione resta una priorità, non un’aspirazione.

Sul piano etico e della fiducia, la lente ALTAI è pratica quando viene ridotta a poche domande ricorrenti: Chi è coinvolto? Da dove provengono i dati? Dov’è l’umano nel ciclo? Cosa può andare storto e come ce ne accorgiamo? Nei workshop, questi prompt aiutano a passare da “l’IA è fantastica/terrificante” a pratiche verificabili — output tracciabili, attribuzione esplicita e un passo di revisione umana concordato. Più che controllare il linguaggio, le checklist strutturano il giudizio e permettono agli operatori di giustificare le scelte con pari, finanziatori e partecipanti.Ancora, l’alfabetizzazione ai rischi va insegnata come tecnica e come mentalità. Le diapositive sul “falso hype dell’IA moderna” offrono una distinzione utile: i modelli possono stupire su dati non strutturati e, allo stesso tempo, allucinare con sicurezza; i YWs hanno bisogno di disciplina nel prompting e di ancoraggi esterni per resistere a questa tentazione. A nostro avviso, l’abitudine più solida insegnata qui è “verifica prima, poi crea”: partire dalle fonti, farle richiamare dal modello e citarle. Così si contrasta il pensiero magico senza soffocare la creatività. Il filone sulla partecipazione civica è il più testato. Le discussioni in Spagna mostrano come le piattaforme partecipative possano deragliare in gare di popolarità e rivalità senza regole chiare. Non è un motivo per abbandonarle: è un argomento per norme esplicite, uso trasparente dei dati e moderazione consapevole dei bias, progettate con i giovani, non per i giovani. La scelta delle GymCom di prototipare le regole di partecipazione all’interno della sessione è la mossa giusta: tratta i giovani come co-governatori degli spazi digitali che usano.

CAPITOLO 6

Conclusioni

L'etichetta digitale dell'IA non è solo un insieme di regole, ma un modo per costruire una relazione armoniosa tra umani e macchine.

  • Trasparenza costruisce fiducia.
  • Rispetto per la privacy garantisce sicurezza.
  • Equità promuove l'uguaglianza.
  • Responsabilità e miglioramento continuo mantengono l'IA efficace ed etica.
  • Il tocco umano garantisce empatia e comprensione.
Man mano che l'IA cresce, questi principi ci guideranno nell'usarla in modo responsabile ed etico. Accogliere l'IA con consapevolezza significa farne un partner, non solo uno strumento. È un modo per costruire un futuro in cui l'IA avvantaggia tutti.

2. Sfide: bias, disuguaglianza e dipendenza eccessiva

Nonostante le sue promesse, l'IA presenta anche sfide sostanziali che sono state discusse approfonditamente durante i workshop: I partecipanti hanno identificato il rischio di dipendenza eccessiva dai risultati dell'IA, soprattutto tra i giovani con capacità di pensiero critico limitate. Diversi operatori giovanili hanno condiviso preoccupazioni riguardo al fatto che i giovani trattino le risposte dell'IA come fatti senza mettere in discussione la loro fonte o i loro limiti. La disuguaglianza digitale si è rivelata come una barriera critica: mentre alcuni operatori giovanili si sentivano potenziati dagli strumenti di IA, altri mancavano delle competenze digitali di base per interagire in modo significativo con essi. Questa divisione rischia di ampliare le disuguaglianze sociali ed educative esistenti, a meno che non venga fornito un supporto proattivo. Anche i rischi etici di uso improprio dei dati e di mancanza di trasparenza nelle decisioni algoritmiche sono stati evidenziati, specialmente quando gli strumenti di IA vengono utilizzati in contesti sensibili che coinvolgono minori o gruppi emarginati. Queste preoccupazioni sono state riflesse nel progetto pilota AI4YouW, dove i partecipanti hanno chiesto una guida più rigorosa sulla privacy, protocolli etici più chiari e contenuti più culturalmente adattati per le diverse comunità di apprendimento

3) Circuiti principali delle Gym Comp

Circuito A — Ricerca critica e verifica (DigComp 1.1–1.3, 2.3; LifeComp: pensiero critico). Gli operatori giovanili (YWs) mettono a confronto le risposte ottenute da Google, da un modello conversazionale e da un motore che prioritizza le citazioni, quindi risalgono a ogni affermazione verificandone la fonte. I partner hanno rilevato che gli strumenti che rendono le fonti immediatamente visibili aiutano a comprendere come sono generati i risultati e consentono agli studenti di valutarne l’affidabilità. Circuito B — Partecipazione civica online (DigComp 2.3). A partire da questioni locali, i gruppi esplorano piattaforme di democrazia partecipativa (es. processi in stile Decidim), riflettono sui rischi — come le “gare di popolarità” nelle votazioni di quartiere — e redigono linee guida per i contributi che minimizzano bias e rivalità.

Circuito C — Sviluppare contenuti digitali (DigComp 3.1; LifeComp: collaborazione e comunicazione). Gli YWs ealizzano un prototipo di micro-campagna (poster, post, video di 30”). I formatori introducono il concetto di "autorialità", opere derivate ed etica dei media generati dall’IA; gli YWs si esercitano il riconoscimento di immagini sintetiche rispetto a quelle umane e discutono di equità nei concorsi in cui si impiega l’IA. Circuito D — Sicurezza (DigComp 4.2; LifeComp: autoregolamentazione). Imparare a gestire cookie e banner di consenso; configurare la privacy sulle app di messaggistica; testare la forza delle password e i gestori; identificare i metadati delle piattaforme e le loro implicazioni. Le slide riassumono i principi GDPR, il campo di applicazione ePrivacy, i diritti dell’interessato, e routine pragmatiche che gli studenti possono applicare subito. Circuito E — Richieste di veridicità. Gli YWs si sono soffermati sui problemi dell'AI (allucinazioni, copyright, perdita di privacy, bias e compromessi di costo); hanno praticato come aumentare la sicurezza dei loro dispositivi e dei siti internet maggiormente utilizzati.

Capitolo 1

Contenuto/Workshop

Nel cuore del progetto AIS4YW c’è GymComp, un format innovativo che non si limita a “insegnare l’intelligenza artificiale”, ma aiuta gli operatori giovanili a sviluppare buone abitudini digitali attraverso attività pratiche, rapide e ripetibili. Più che un corso teorico, GymComp è pensato come una vera palestra di competenze, dove si impara facendo, confrontandosi, sbagliando e migliorando insieme. L’idea nasce da un’esigenza concreta: molti giovani (e non solo) vivono oggi una forte esposizione al mondo digitale, ma spesso senza gli strumenti critici per orientarsi tra informazioni false, violazioni della privacy, contenuti non verificati, e senza una consapevolezza sui rischi e le opportunità dell’IA generativa. Gli operatori giovanili si trovano così ad affrontare nuove sfide educative, senza sempre avere il tempo o le risorse per fermarsi a studiare modelli teorici complessi. Le GymComp partono proprio da qui: non dal modello, ma dal problema. Ad esempio: “L’IA sa davvero tutto?” Cosa succede se condividiamo contenuti creati con ChatGPT?” “Come possiamo aiutare i ragazzi a capire cosa accade ai loro dati?” A partire da queste domande, ogni sessione propone un circuito laboratoriale con attività guidate, ruoli specifici e un tempo definito (circa 3 ore), in cui i partecipanti allenano competenze digitali (DigComp) e socio-emotive (LifeComp) in contesti reali, facilmente trasferibili nel loro lavoro quotidiano. Le GymComp sono pensate per operatori reali, con problemi reali, che lavorano con giovani veri. Per questo sono già state testate e adattate in Italia e in Spagna, utilizzando strumenti gratuiti o accessibili, in contesti diversi (urbani, rurali, formali e informali). Attraverso questo format, AIS4YW vuole creare una comunità europea di pratiche, dove gli Youth Workers non solo si formano, ma costruiscono insieme nuove modalità di intervento educativo, più vicine ai linguaggi, agli strumenti e alle esigenze dei giovani di oggi. Nel progetto AIS4YW, ogni attività è costruita con una struttura chiara, obiettivi concreti e ruoli ben definiti. Il cuore pulsante del percorso è un ciclo formativo che unisce due elementi complementari: le GymComp, che servono ad allenare le competenze attraverso l’esperienza, e i Workshop, che trasformano queste esperienze in risorse riutilizzabili per tutta la comunità educativa. Il percorso coinvolge 16 operatori giovanili provenienti da Italia e Spagna, che partecipano a:

- sei sessioni GymComp da 3 ore ciascuna (per un totale di 18 ore di pratica),- quattro Workshop online da 2 ore, dove si co-progetta un Learning Object (LO): un insieme multilingue (EN/IT/ES) di strumenti, esempi e buone pratiche per un utilizzo etico, consapevole e sicuro dell’intelligenza artificiale nell’educazione non formale. Il format punta a molto più che “insegnare app”: mira a trasferire un metodo, facilmente replicabile da altri operatori, indipendentemente dai software utilizzati. Ciò che conta non è quale strumento si usa, ma come si pianifica, co-crea, verifica e attribuisce il lavoro svolto. Questo rende il progetto più inclusivo e sostenibile, anche quando le piattaforme cambiano, i servizi gratuiti si riducono o le licenze diventano a pagamento. Le GymComp sono coordinate da Arcipelago, mentre i Workshop sono gestiti da Fundación Esplai, che si occupa anche dell’assemblaggio finale del Learning Object, reso disponibile in accesso aperto sui siti dei partner. Durante i Workshop, si lavora per consolidare ciò che ha funzionato nella fase pratica: si riflette sulle esperienze, si documentano i passaggi e si trasformano i percorsi formativi in materiali utili per altri operatori, pronti da usare il giorno dopo in un centro giovanile o in un laboratorio. Le sessioni sono progettate per essere coinvolgenti e misurabili, senza appesantire il lavoro educativo: si parte da sondaggi rapidi per sintonizzare il gruppo, si chiude ogni attività con un “biglietto di uscita” legato alle competenze DigComp, si utilizzano brevi auto-valutazioni per aiutare i partecipanti a riconoscere i propri progressi. Le evidenze raccolte non sono “burocratiche”, ma concrete e rilevanti: per le attività legate alla creazione di contenuti (3.1), si valuta l’intento, il rispetto delle licenze, la trasparenza sull’uso dell’IA e l’adeguatezza per il pubblico target; per la protezione dei dati (4.2), si osservano comportamenti reali come il miglioramento delle impostazioni sulla privacy, l’uso di password manager o la capacità di raccontare la propria “storia della privacy” (cioè cosa si è cambiato e perché).

CAPITOLO 5

Conclusioni

L'esame delle relazioni tra il GDPR e l'AI Act evidenzia sfide concrete che le organizzazioni dovranno affrontare negli anni a venire. Ciò comporta la necessità di creare team interdisciplinari con competenze integrate in privacy, AI e conformità normativa. Modelli e procedure esistenti dovranno essere aggiornati per tenere conto non solo degli aspetti sulla protezione dei dati, ma anche delle caratteristiche specifiche dell'AI, come la robustezza degli algoritmi o la possibile presenza di bias. Inoltre, sarà necessario implementare sistemi di monitoraggio continuo per verificare il mantenimento della conformità nel tempo, poiché entrambi i set di regolamenti richiedono una gestione dinamica del rischio. Solo un approccio pragmatico potrà trasformare queste sfide normative in opportunità per un'innovazione responsabile.

CHAPTER 1

Conclusion

L'integrazione dell'IA nel lavoro giovanile non è semplicemente una questione di adottare nuovi strumenti—sfida le stesse fondamenta di come comprendiamo l'apprendimento, l'agenzia e la relazione umana nell'educazione. Mentre il progetto AI4YW e il suo predecessore hanno dimostrato che l'IA può ampliare l'accesso, migliorare la personalizzazione e favorire l'engagement, hanno anche rivelato tensioni significative e punti ciechi che richiedono attenzione continua. Riaffermare il potere e l'agenzia Una delle domande centrali emerse dai workshop è: Chi controlla il processo di apprendimento quando è coinvolta l'IA? Mentre gli strumenti generativi danno agli utenti la possibilità di creare, simulare e personalizzare, centralizzano anche il potere tecnologico nelle mani di sistemi opachi, spesso gestiti da attori privati. Gli operatori giovanili hanno sottolineato la necessità di preservare l'agenzia dei discenti garantendo che l'IA venga usata come una struttura di supporto—non come un sostituto—per il pensiero critico, la creatività e la collaborazione. L'approccio GymComp, radicato nell'enfasi di LIFEComp sulla competenza personale e sociale, ha contribuito a mettere questo in evidenza. Combinando il miglioramento delle competenze tecniche con riflessioni trasversali, i partecipanti hanno iniziato a riformulare l'IA non solo come uno strumento di efficienza, ma come uno spazio per mettere in discussione, negoziare e co-creare significato. Superare la mentalità del

Youth work, especially in non-formal education, is inherently relational. The best moments of the AI4YW process were not about what AI could do on behalf of educators, but about what it could enable in dialogue with them. These insights echo broader calls from the youth sector for a critical pedagogy of technology: one that puts human values, collective intelligence, and democratic oversight at its core.From Digital Competence to Digital MaturityDigComp 2.1 was essential in structuring the workshops, but the project experience showed that digital competence alone is not enough. What youth workers need is a form of digital maturity: the ability to make informed choices, critically evaluate systems, and support young people in navigating a complex technological landscape. This maturity cannot be acquired solely through checklists or tutorials—it requires time, dialogue, and reflective practice.In this sense, the GymComp model offered a useful prototype for how digital and transversal competences can be cultivated holistically. It recognized that understanding AI is not just about prompt engineering or data literacy—it’s about developing a mindset that combines ethical awareness, emotional intelligence, and adaptive learning. Toward a human-centered AI culture in Youth Work Finally, the project affirmed that integrating AI into youth work is not only about training or tools—it is about culture. The culture of youth work values participation, inclusion, care, and empowerment. For AI to be genuinely transformative, it must be subordinate to these values, not the other way around.

Capitolo 5

Contenuto/Discussione chiave

L'AI Act, d'altra parte, definisce un meccanismo di classificazione per i sistemi di intelligenza artificiale articolato in quattro categorie di rischio (inaccettabile, alto, limitato e minimo), ognuna delle quali comporta un diverso quadro di obblighi e responsabilità. Questa orientamento emerge particolarmente chiaramente con l'introduzione, da parte dell'AI Act, della Valutazione d'Impatto sui Diritti Fondamentali (FRIA), uno strumento di valutazione preventiva che, pur presentando punti di contatto con la DPIA prevista dal GDPR, differisce per scopo e obiettivi. La DPIA, infatti, si concentra specificamente sui rischi legati al trattamento dei dati personali, mentre la FRIA adotta una prospettiva più ampia, considerando l'impatto che i sistemi di intelligenza artificiale possono avere sull'intera gamma dei diritti fondamentali garantiti dall'ordinamento europeo. Mentre la DPIA si focalizza precisamente sugli effetti sulla privacy derivanti dal trattamento dei dati personali, la FRIA amplia la prospettiva considerando una gamma più ampia di diritti fondamentali che possono essere influenzati dai sistemi di intelligenza artificiale, tra cui il principio di non discriminazione, la libertà di espressione, la dignità umana e la protezione dei minori. Le due tipologie di valutazione consentono di identificare rischi diversi che potrebbero sfuggire a un'analisi focalizzata esclusivamente su un singolo aspetto: ad esempio, un sistema di intelligenza artificiale potrebbe risultare conforme ai requisiti di protezione dei dati pur generando effetti discriminatori, oppure rispettare i diritti fondamentali senza, tuttavia, garantire una adeguata sicurezza dei dati. A tal fine, il legislatore europeo ha introdotto specifici meccanismi di coordinamento tra i due strumenti: nel caso in cui un sistema di intelligenza artificiale ad alto rischio coinvolga il trattamento di dati personali, la FRIA può integrare gli elementi già presenti nella DPIA, evitando sovrapposizioni inutili.

Attualmente, l'UE adotta un approccio multilivello, in cui il GDPR e l'AI Act sono combinati con il DGA, il Data Act, il DSA e il DMA, con l'obiettivo di garantire una sostanziale complementarità tra i vari strumenti normativi introdotti nel tempo. Questa strategia, basata sull'intenzione di favorire l'innovazione tecnologica senza trascurare la tutela dei diritti fondamentali dei cittadini europei, si concretizza attraverso un articolato insieme di regole interconnesse che includono, oltre alle normative già menzionate, il Data Governance Act, il Data Act, il Digital Services Act e il Digital Markets Act. In questo complesso quadro normativo, il rapporto tra GDPR e AI Act riveste un ruolo di primo piano, poiché l'uso di sistemi di intelligenza artificiale è strettamente legato alla gestione di grandi quantità di dati personali, essenziali sia per l'addestramento degli algoritmi sia per il loro funzionamento pratico. La metodologia normativa prevista sia dal GDPR che dall'AI Act si basa su un approccio basato sul rischio che, pur condividendo tratti comuni, assume forme diverse nei rispettivi contesti regolamentari. Il GDPR, infatti, introduce un sistema di obblighi graduati in base al livello di rischio connesso al trattamento, assegnando al titolare del trattamento la responsabilità di valutare anticipatamente l'impatto delle operazioni sui diritti e le libertà degli interessati tramite lo strumento della Valutazione d'Impatto sulla Protezione dei Dati (DPIA).

Autovalutazione delle Competenze Digitali (Basata su GymComp)
2. Sfide: bias, disuguaglianza e dipendenza eccessiva

Nonostante le sue promesse, l'IA presenta anche sfide sostanziali che sono state discusse a lungo durante i workshop: I partecipanti hanno identificato il rischio di affidarsi troppo ai risultati dell'IA, soprattutto da parte dei giovani con capacità di pensiero critico limitate. Diversi operatori giovanili hanno espresso preoccupazioni riguardo i giovani che trattano le risposte dell'IA come fatti senza mettere in discussione la loro fonte o i loro limiti. La disuguaglianza digitale è emersa come una barriera critica: mentre alcuni operatori giovanili si sono sentiti potenziati dagli strumenti di IA, altri mancavano delle competenze digitali di base per interagire in modo significativo con essi. Questa divisione rischia di ampliare le disuguaglianze sociali ed educative esistenti, a meno che non venga fornito un supporto proattivo. Anche i rischi etici di uso improprio dei dati e di mancanza di trasparenza nelle decisioni algoritmiche sono stati segnalati, soprattutto quando gli strumenti di IA vengono utilizzati in contesti sensibili che coinvolgono minori o gruppi emarginati. Queste preoccupazioni sono state riflesse nel progetto pilota AI4YouW, dove i partecipanti hanno chiesto una maggiore guida sulla privacy, protocolli etici più chiari e contenuti più culturalmente adattati per comunità di apprendimento diversificate

CAPITOLO 3

Conclusione

Le GymCom mostrano che gli operatori giovanili possono trasformare i quadri di competenza europei in routine brevi, ripetibili e “mobile-friendly”, adatte agli spazi giovanili reali. Mappando le DigComp 2.2 (alfabetizzazione informativa e dei dati; partecipazione; creazione di contenuti; privacy e protezione dei dati) e le LifeComp (comunicazione, collaborazione, empatia, autoregolazione) su circuiti di breve durata, il progetto traduce il linguaggio delle policy in comportamenti praticabili e sostenibili: verificare prima, creare in modo trasparente, partecipare responsabilmente, proteggere i dati. È esattamente lo spirito delle linee guida UE cui si rifanno i materiali, con diritti e benessere al centro. Due elementi rendono l’approccio duraturo oltre questo capitolo. Primo, la sicurezza by default è insegnata come abitudine, non come teoria: i principi di privacy (liceità, minimizzazione, limiti di conservazione) diventano azioni concrete sugli stessi dispositivi dei giovani — gestori di password, impostazioni delle app di messaggistica, scelte sui cookie, spiegazioni operative di GDPR, ePrivacy e DGA. Questa combinazione di “perché” e “come” è ciò che cambia i comportamenti. Secondo, la fiducia progettata si semplifica in prompt ALTAI — Chi è interessato? Da dove provengono i dati? Dove si trova l’umano nel ciclo? — che gli operatori possono integrare in qualunque compito creativo o partecipativo. possono integrare in qualsiasi compito creativo o partecipativo.

La collaborazione transnazionale è una caratteristica, non uno sfondo. In Italia, Associazione Arcipelago APS e Lascò hanno contribuito con know-how di facilitazione e laboratori etici/di stimolazione; le note di coordinamento mostrano come esperti come Raffaele siano stati integrati nei workshop e come siano pianificate linee di formazione locali per scuole, biblioteche e aree rurali. In Spagna, la Fundación Esplai ha guidato le attività DigComp su partecipazione e creazione di contenuti, coordinando i prossimi passi per formazione condivisa e webinar aperti. Questo ciclo Italia–Spagna garantisce che il metodo sia inclusivo, strumento-indipendente e scalabile.Per il più ampio settore dell’educazione non formale, le GymCom offrono un ponte pratico: obiettivi di sessione che mettono etica e strumenti sullo stesso piano; schemi di stimolazione che rendono visibili i limiti dei modelli; momenti di valutazione che catturano evidenze senza burocrazia. Questi elementi si integrano con facilità in programmi giovanili esistenti, laboratori digitali e moduli di educazione civica, adattandosi a strumenti diversi e a contesti di connettività variabile.

Strumenti IA per Collaborazione e Comunicazione

Questi strumenti supportano il lavoro di gruppo, la facilitazione online e gli ambienti di apprendimento interattivi, con funzionalità potenziate dall'IA per l'organizzazione o la comunicazione.

4) Strumentazione e accessibilità

Presentiamo i principali generatori basati su IA (Gemini, Copilot, ChatGPT, Canva) e i componenti aggiuntivi per l’accessibilità (ad es. strumenti per lingua dei segni e sintesi/riconoscimento vocale) per garantire una consegna inclusiva. Ribadiamo che la scelta dello strumento è secondaria rispetto al processo: pianificare → co-creare → verificare → attribuire. Obiettivi della sessione (tre focus): - comprendere le tipologie di contenuti generati dall’IA; - selezionare gli strumenti più adeguati al contesto e agli obiettivi; - mettere in primo piano le considerazioni etiche (trasparenza, diritti, bias) Sono previsti sondaggi dal vivo per rilevare esperienza ed aspettative dei partecipanti, così da adattare profondità e ritmo della sessione in tempo reale.

CAPITOLO 3

Riflessioni

Negli ultimi anni, il dibattito sulla regolamentazione dell'Intelligenza Artificiale è diventato centrale. L'IA non è una tecnologia neutra: le sue decisioni e i suoi utilizzi possono influenzare profondamente la vita delle persone, il mercato e la società. Perché è necessaria una regolamentazione?

  • Protezione dei diritti fondamentali – L'IA gestisce grandi quantità di dati personali e può influenzare libertà fondamentali come privacy, uguaglianza e non discriminazione.
  • Responsabilità legale – Chi è responsabile se un sistema di IA causa danni? È necessario definire chiare catene di responsabilità, inclusi sviluppatori, fornitori e utenti.
  • Promozione della fiducia e dell'innovazione – Una regolamentazione chiara aumenta la fiducia dei cittadini e incoraggia investimenti più sicuri da parte delle aziende.
Dimensione etica e sociale dell'IA per un uso critico e consapevole
  • L'IA deve essere antropocentrica, al servizio del benessere umano e del bene comune.
  • Deve supportare i processi democratici, i diritti fondamentali e lo stato di diritto, evitando rischi come la sorveglianza di massa o il bias discriminatorio.
È necessaria una riflessione continua e partecipativa tra sviluppatori, responsabili politici e società civile per affrontare dilemmi etici e tensioni tra principi (ad esempio, sicurezza vs. libertà individuale).

Introduzione, definizione e costrutto di competenza
Sviluppo delle competenze attraverso GymComp

La metodologia GymComp, strutturata attorno a DigComp 2.1 e LIFEComp, ha svolto un ruolo chiave nel favorire l'autovalutazione e lo sviluppo delle capacità: I partecipanti hanno riflettuto sulle aree di DigComp come 1.1 Navigare e Ricercare, 2.3 Condividere e Collaborare, 3.1 Creazione di Contenuti Digitali e 4.2 Protezione dei Dati Personali, valutando i propri livelli di fiducia prima e dopo i workshop. In linea con LIFEComp, competenze come l'autonomia, la consapevolezza emotiva e l'apprendimento ad apprendere sono state integrate attraverso giochi di ruolo e costruzione di scenari. Diversi operatori giovanili hanno riferito che questo quadro non solo ha supportato la loro crescita personale, ma ha anche fornito loro un linguaggio per parlare di competenze digitali e trasversali con i giovani che supportano. Di conseguenza, oltre il 75% dei partecipanti pilota ha dichiarato di aver sviluppato nuove competenze che supporterebbero l'adozione dell'IA nella loro pratica professionale. Inoltre, l'84% ha indicato che raccomanderebbe le risorse ai colleghi, confermando sia il valore pedagogico che la trasferibilità dell'approccio.

2) Posizione pedagogica: dai quadri di riferimento al lavoro con i giovani

Partiamo dalle realtà degli apprendenti e poi ci ricolleghiamo ai quadri europei, un approccio “invertito” emerso spesso nel confronto tra i partner. Gli esperti evidenziano l’importanza di contestualizzare le DigComp, mantenendo un’impostazione pratica, e riconoscono che la certificazione ha valore solo se percepita come significativa da chi apprende e da chi assume. Le LifeComp offrono una base relazionale: autoregolazione, empatia, comunicazione, collaborazione, pensiero critico e apprendimento continuo. Ogni competenza è articolata in consapevolezza – comprensione – azione, tradotte operativamente in riscaldamenti, mini-input e compiti pratici. I partner italiani contribuiscono con strumenti concreti di facilitazione — osservazione partecipante, individuazione di “persone ponte” e tecniche di empatia — che aiutano gli educatori a leggere il contesto prima di agire. Queste pratiche guidano l’outreach educativo e nutrono direttamente i circuiti di GymComp.

Competenze emergenti nell'uso etico di AI e dati

I giovani lavoratori (YWs) svolgono un ruolo chiave nell'adozione consapevole e sicura dell'intelligenza artificiale (AI) e dell'uso dei dati nell'educazione non formale. All'interno del quadro generale di DigCompEdu, ci sono indicatori di competenza specifici che possono essere utili nello sviluppo di una cultura digitale ed etica nell'educazione non formale per i YWs. Per ulteriori informazioni sul sistema di competenze utili per i YWs nell'uso dell'AI nell'educazione non formale, si prega di fare riferimento alla tabella in appendice.

Strumenti di IA per la creazione di contenuti

Gli strumenti alimentati dall'IA possono aiutare educatori e studenti a creare contenuti come testi, immagini, presentazioni o video. Questi strumenti possono supportare l'espressione creativa, l'apprendimento delle lingue e il storytelling digitale.

Esplorare l'IA nella vita quotidiana
Dilemmi etici e AI
Strumenti per la valutazione e il feedback

L'IA può supportare la valutazione formativa analizzando l'input degli studenti, suggerendo feedback o fornendo raccomandazioni di apprendimento personalizzate

CAPITOLO 6

Conclusioni

L'etichetta di rete dell'IA non è solo un insieme di regole, ma un modo per costruire una relazione armoniosa tra umani e macchine.

  • Trasparenza costruisce fiducia.
  • Rispetto per la privacy garantisce sicurezza.
  • Equità promuove uguaglianza.
  • Responsabilità e miglioramento continuo mantengono l'IA efficace ed etica.
  • Il tocco umano garantisce empatia e comprensione.
Man mano che l'IA cresce, questi principi ci guideranno nell'usarla in modo responsabile ed etico. Accogliere l'IA con consapevolezza significa farla diventare un partner, non solo uno strumento. È un modo per costruire un futuro in cui l'IA avvantaggia tutti.

Introduzione, definizione e costrutto di competenza
Strumenti di IA in pratica: un test critico
Piattaforme educative che integrano l'IA

Alcune piattaforme combinano la gestione dell'apprendimento con funzionalità di intelligenza artificiale per personalizzare l'apprendimento o fornire feedback adattivi.

CAPITOLO 5

Conclusioni

L'esame delle relazioni tra il GDPR e l'AI Act evidenzia sfide concrete che le organizzazioni dovranno affrontare negli anni a venire. Ciò comporta la necessità di creare team interdisciplinari con competenze integrate in privacy, IA e conformità normativa. I modelli e le procedure esistenti dovranno essere aggiornati per considerare non solo gli aspetti della protezione dei dati, ma anche le caratteristiche specifiche dell'IA, come la robustezza degli algoritmi o la possibile presenza di bias. Inoltre, sarà necessario implementare sistemi di monitoraggio continuo per verificare il mantenimento della conformità nel tempo, poiché entrambi i set di regolamenti richiedono una gestione dinamica del rischio. Solo un approccio pragmatico potrà trasformare queste sfide normative in opportunità per un'innovazione responsabile.

9) Note di implementazione da Italia e Spagna

Le note di coordinamento mostrano come le competenze specialistiche abbiano migliorato l’implementazione: coinvolgimento di esperti di privacy e pedagogia, interazione sulla logistica e pianificazione di workshop transfrontalieri e percorsi di formazione aperta. I team sottolineano che limitazioni di licenza e di accesso agli strumenti possono compromettere l’inclusione; per questo i programmi devono prevedere alternative eque o adottare licenze istituzionali. I partner spagnoli documentano tanto le potenzialità quanto i limiti della partecipazione digitale (ad esempio, processi di voto locale che degenerano in gare di popolarità), rafforzando la necessità di una facilitazione critica e di una maggiore consapevolezza dei bias nelle attività di civic tech.

LifeComp
DigiComp 2.3. - Partecipare alla cittadinanza attraverso le tecnologie digitali
CAPITOLO 3

Conclusioni

Costruire un'IA etica richiede collaborazione multidisciplinare tra:

  • Sviluppatori e ingegneri, che comprendono la logica dei modelli;
  • Avvocati e legislatori, che definiscono il quadro normativo;
  • Sociologi ed eticisti, che valutano l'impatto sociale e culturale;
  • Utenti finali, che forniscono feedback reale sull'uso delle tecnologie.
L'etica non limita l'innovazione: la rende affidabile e socialmente accettabile, creando fiducia e 'competitività responsabile.' L'aspetto etico deve essere incorporato in ogni fase del ciclo di vita del sistema AI secondo il principio di 'Etica by Design.'

7) Mitigare i rischi dell'IA creando valore

Le diapositive su “Intelligenza artificiale moderna” mettono a fuoco, insieme all’entusiasmo, i principali rischi: allucinazioni, violazioni del diritto d’autore, perdite di dati, bias e costi. La risposta operativa si articola in due mosse: rafforzare la disciplina nel prompting e introdurre recupero/grounding, sempre accompagnati da verifica umana e attribuzione esplicita delle fonti. I partner hanno dimostrato questo approccio con compiti autentici, ad esempio redigere in modo sicuro un’email per un workshop e reperire fatti verificati.

Strumenti per la riflessione etica e il pensiero critico

In linea con l'enfasi del progetto sulla responsabilità e l'etica, questa sottosezione evidenzia strumenti che supportano l'impegno critico con l'IA.

8) Valutazione e prove di apprendimento

La valutazione formativa è continua: sondaggi rapidi sulle aspettative, momenti riflessivi collegati ai descrittori di DigComp e brevi autovalutazioni registrate nello spazio condiviso della classe dopo le sessioni. Questo rende la crescita delle competenze visibile e azionabile sia per i YWs sia per i facilitatori. Per i compiti 3.1, le rubriche considerano chiarezza dell’intento, provenienza/licenze etiche, idoneità al pubblico e trasparenza sull’assistenza dell’IA. Per il 4.2, i YWs devono dimostrare di aver modificato le impostazioni, migliorato l’igiene delle password e di saper raccontare una “storia della privacy” ben articolata (che cosa hanno cambiato e perché), andando oltre il semplice richiamo dei termini.

CAPITOLO 5

Riflessioni

L'implementazione concreta delle disposizioni stabilite dal GDPR e dall'AI Act solleva importanti sfide tecniche e operative, richiedendo lo sviluppo di soluzioni innovative e l'adozione di approcci integrati per la conformità normativa. Garantire sia la conformità ai principi di protezione dei dati sia l'adesione ai requisiti specifici stabiliti per i sistemi di intelligenza artificiale, comporta progettare architetture tecnologiche e strutture organizzative in grado di soddisfare congiuntamente le esigenze imposte da entrambi i set di regolamenti.

Capitolo 5

Contenuto/Discussione chiave

L'AI Act, invece, definisce un meccanismo di classificazione per i sistemi di intelligenza artificiale articolato in quattro categorie di rischio (inaccettabile, alto, limitato e minimo), ognuna delle quali comporta un diverso quadro di obblighi e responsabilità. Questa orientamento emerge in modo particolarmente chiaro con l'introduzione, da parte dell'AI Act, della Valutazione dell'Impatto sui Diritti Fondamentali (FRIA), uno strumento di valutazione preventiva che, pur presentando punti di contatto con la DPIA ai sensi del GDPR, differisce per scopo e obiettivi. La DPIA, infatti, si concentra specificamente sui rischi legati al trattamento dei dati personali, mentre la FRIA adotta una prospettiva più ampia, considerando l'impatto che i sistemi di intelligenza artificiale possono avere sull'intera gamma di diritti fondamentali garantiti dall'ordinamento europeo. Mentre la DPIA si focalizza precisamente sugli effetti sulla privacy derivanti dal trattamento dei dati personali, la FRIA amplia la prospettiva considerando un insieme più ampio di diritti fondamentali che possono essere influenzati dai sistemi di intelligenza artificiale, tra cui il principio di non discriminazione, la libertà di espressione, la dignità umana e la tutela dei minori. Le due tipologie di valutazione permettono di individuare rischi diversi che potrebbero sfuggire a un'analisi focalizzata esclusivamente su un singolo aspetto: un sistema di intelligenza artificiale, ad esempio, potrebbe risultare conforme ai requisiti sulla protezione dei dati ma generare effetti discriminatori, oppure rispettare i diritti fondamentali senza garantire un'adeguata sicurezza dei dati. A tal fine, il legislatore europeo ha introdotto meccanismi di coordinamento specifici tra i due strumenti: nel caso in cui un sistema di intelligenza artificiale ad alto rischio coinvolga il trattamento di dati personali, la FRIA può integrare gli elementi già presenti nella DPIA, evitando sovrapposizioni inutili.

Attualmente, l'UE adotta un approccio multilivello, in cui il GDPR e l'AI Act sono combinati con il DGA, il Data Act, il DSA e il DMA, con l'obiettivo di assicurare una sostanziale complementarità tra i vari strumenti normativi introdotti nel tempo. Questa strategia, basata sull'intenzione di promuovere l'innovazione tecnologica senza trascurare la protezione dei diritti fondamentali dei cittadini europei, si concretizza attraverso un articolato insieme di regole interconnesse che includono, oltre ai regolamenti già menzionati, il Data Governance Act, il Data Act, il Digital Services Act e il Digital Markets Act. In questo complesso quadro normativo, il rapporto tra il GDPR e l'AI Act riveste un ruolo di primo piano, poiché l'uso dei sistemi di intelligenza artificiale è strettamente collegato alla gestione di grandi quantità di dati personali, essenziali sia per l'addestramento degli algoritmi sia per il loro funzionamento pratico. La metodologia regolamentare prevista sia dal GDPR che dall'AI Act si basa su un approccio basato sul rischio che, pur condividendo tratti comuni, assume forme diverse nei rispettivi contesti normativi. Il GDPR, infatti, introduce un sistema di obblighi graduati in base al livello di rischio connesso al trattamento, attribuendo al titolare del trattamento la responsabilità di valutare in anticipo l'impatto delle operazioni sui diritti e le libertà degli interessati tramite lo strumento della Valutazione d'Impatto sulla Protezione dei Dati (DPIA).

1) Obiettivi delle GymComp

Le GymComp mettono in pratica quattro aree chiave di DigComp 2.1, collegandole al quadro LifeComp affinché ogni sessione sviluppi competenze sia tecniche che relazionali. In particolare, si concentrano su: (a) alfabetizzazione informativa e dei dati (1.1–1.3), attraverso ricerche assistite dall’IA e verifica delle fonti; (b) partecipazione digitale (2.3), tramite l’uso di piattaforme civiche e attività di advocacy guidate dai giovani; (c) creazione di contenuti digitali (3.1), con testi, audio, immagini e video generati a partire da prompt; (d) sicurezza, privacy e protezione dei dati (4.2), promosse come routine di “sicurezza di default” in ogni attività.

CAPITOLO 1

Conclusione

Il progetto AIS4YWs – AI Skills for Youth Workers dimostra che è possibile tradurre i grandi quadri europei di competenza in pratiche quotidiane, semplici da applicare, sostenibili nel tempo e significative per chi lavora a stretto contatto con i giovani. Attraverso le GymComp, gli operatori giovanili si allenano a usare l’intelligenza artificiale in modo critico, sicuro ed etico, integrando le competenze digitali e relazionali nella propria routine professionale. Nei Workshop, queste pratiche vengono raccolte, sistematizzate e trasformate in un Oggetto di Apprendimento multilingue, pronto per essere condiviso e adattato da altri professionisti del settore in tutta Europa. L’approccio del progetto è chiaro e innovativo: non una lista di strumenti tecnologici, ma un metodo replicabile, centrato sulle persone, sui processi e sul contesto. È proprio questa attenzione alla quotidianità educativa, unita alla visione europea, che permette ad AIS4YWs di rispondere in modo concreto alle priorità del programma Erasmus+, promuovendo qualità, inclusione e innovazione nel lavoro con i giovani.Con ruoli ben definiti – Arcipelago per la facilitazione e la comunicazione, Fundación Esplai per il monitoraggio e la co-creazione del Learning Object – e una strategia costruita su partecipazione attiva, evidenze leggere e risorse aperte, il progetto getta le basi per una comunità di pratica transnazionale che continuerà a crescere anche dopo la fine del finanziamento.I risultati non restano confinati al gruppo coinvolto, ma si diffondono nei territori, nelle reti, nei contesti educativi già esistenti, come centri giovanili, biblioteche, scuole e percorsi di educazione civica.

In definitiva, AIS4YWs rappresenta un ponte concreto tra le politiche europee e l’educazione di prossimità. Offre circuiti pratici, strumenti accessibili e una visione condivisa, che permette agli operatori giovanili di creare, verificare, partecipare — e allo stesso tempo proteggere sé stessi e gli altri nell’uso dell’IA. Per affrontare le sfide educative di oggi, non servono specialisti tecnici, ma educatori ben formati, dotati di metodi umanistici, risorse comuni e pari opportunità formative. AIS4YWs contribuisce a costruire tutto questo. E lo fa insieme.

6) Pratiche di sicurezza e privacy

Le sessioni sulla privacy vanno oltre le definizioni e si concentrano su comportamenti di routine: uso di password uniche, gestione tramite password manager e rotazione periodica; riconoscimento della raccolta di metadati; lettura consapevole dei flussi di consenso; comprensione delle differenze tra app di messaggistica (crittografia end-to-end di default, politiche di backup e gestione dei metadati). Gli YWs configurano concretamente le impostazioni e discutono i compromessi usando esempi reali di app. Lo snapshot normativo (GDPR, ePrivacy, Data Governance Act) viene tradotto in tre promesse operative per i partecipanti: “raccogli meno”, “condividi consapevolmente”, “conserva per poco”. Ogni promessa è spiegata attraverso casi quotidiani — dalla gestione dei cookie alle raccomandazioni algoritmiche sulle piattaforme social.

4. Sviluppo delle competenze attraverso GymComp

La metodologia GymComp, strutturata attorno a DigComp 2.1 e LIFEComp, ha svolto un ruolo chiave nel favorire l'auto-valutazione e lo sviluppo delle capacità: I partecipanti hanno riflettuto sulle aree di DigComp come 1.1 Navigare e Ricercare, 2.3 Condividere e Collaborare, 3.1 Creazione di Contenuti Digitali e 4.2 Proteggere i Dati Personali, mappando i propri livelli di fiducia prima e dopo i workshop. In linea con LIFEComp, competenze come l'autonomia, la consapevolezza emotiva e l'apprendimento ad apprendere sono state integrate attraverso role-play e costruzione di scenari. Vari operatori giovanili hanno riferito che questo quadro non solo ha supportato la loro crescita personale, ma anche fornito loro un linguaggio per parlare di competenze digitali e trasversali con i giovani che supportano. Di conseguenza, oltre il 75% dei partecipanti pilota ha dichiarato di aver sviluppato nuove competenze che supporterebbero l'adozione dell'IA nella loro pratica professionale. Inoltre, l'84% ha indicato che raccomanderebbe le risorse ai colleghi, confermando sia il valore pedagogico che la trasferibilità dell'approccio.

1. Opportunità: personalizzazione, creatività e inclusione

I partecipanti ai workshop in Spagna e Italia hanno sottolineato il potenziale dell'IA per personalizzare i contenuti educativi, favorire la creatività e aprire nuove strade per l'inclusione: Strumenti generativi come ChatGPT hanno consentito ai giovani operatori di progettare personaggi fittizi e scenari di apprendimento adattati ai contesti reali. Ad esempio, i partecipanti hanno creato personaggi come Amina, una giovane assistente legale, per la quale hanno sviluppato un percorso di apprendimento completo supportato da contenuti generati dall'IA. Brisk e MagicSchool sono stati usati per generare rapidamente quiz, esercizi interattivi e materiali adattati. Questi strumenti sono stati particolarmente apprezzati per aver aiutato gli educatori a semplificare testi complessi o a creare risorse differenziate in base alle esigenze linguistiche e cognitive degli studenti. Le matrici di impatto compilate durante i workshop hanno evidenziato che l'IA può facilitare l'accesso per i giovani con disabilità o barriere linguistiche— in linea con le dimensioni di inclusività, apprendimento a imparare e apertura alla diversità di LIFEComp. Questo rispecchia i risultati del pilota AI4YouW, dove l'84% dei giovani operatori ha trovato le risorse applicabili al lavoro giovanile reale e il 78% ha riferito di aver migliorato la capacità di utilizzare l'IA in contesti professionali.

Obiettivi

  • 1) Potenziare le competenze dei giovani lavoratori sulle aree DigComp 2.2 1.1, 1.2, 1.3, 2.3, 3.1, 4.2 e rafforzare LifeComp (comunicazione, collaborazione, empatia, autoregolazione) per favorire ambienti inclusivi online/offline.
  • 2) Produrre un oggetto di apprendimento digitale (LO) con metodi e strumenti per un uso saggio dell'IA nell'educazione non formale, disponibile in EN/IT/ES e liberamente scaricabile dai siti partner.
  • 3) Colmare il divario tra online e offline: i giovani lavoratori formati agiscono come “ponti”, aiutando i giovani a trasferire competenze tra ambienti digitali e reali, con particolare attenzione a chi è a rischio di esclusione.

Attività

  • GymComp: 6 sessioni online × 3 ore (totale 18 ore) per esercitarsi con le competenze DigComp e LifeComp con momenti di autovalutazione.
  • Workshop: 4 laboratori online per praticare strumenti e mettere in condivisione buone pratiche tra Youth Workers italiani e spagnoli
  • Learning Object (EN/IT/ES) che raccoglie metodi e strumenti per un uso sicuro e inclusivo dell'IA nell'educazione non formale; download gratuito tramite i siti dei partner.
Progettare un laboratorio potenziato dall'IA
1. Opportunità: personalizzazione, creatività e inclusione

I partecipanti ai workshop in Spagna e Italia hanno sottolineato il potenziale dell'IA di personalizzare i contenuti educativi, favorire la creatività e aprire nuove vie per l'inclusione: Strumenti generativi come ChatGPT hanno permesso agli operatori giovanili di progettare personas e scenari di apprendimento fittizi adattati ai contesti reali. Ad esempio, i partecipanti hanno creato personas come Amina, una giovane assistente legale, per la quale hanno sviluppato un percorso di apprendimento completo supportato da contenuti generati dall'IA. Brisk e MagicSchool sono stati usati per generare rapidamente quiz, esercizi interattivi e materiali adattati. Questi strumenti sono stati particolarmente apprezzati per aver aiutato gli educatori a semplificare testi complessi o creare risorse differenziate in base alle esigenze linguistiche e cognitive degli studenti. Le matrici di impatto completate durante i workshop hanno evidenziato che l'IA può facilitare l'accesso ai giovani con disabilità o barriere linguistiche— in linea con le dimensioni di inclusività, apprendimento a imparare e apertura alla diversità di LIFEComp. Ciò rispecchia i risultati del progetto pilota AI4YouW, dove l'84% degli operatori giovanili ha trovato le risorse applicabili al lavoro giovanile reale e il 78% ha riferito di aver migliorato la capacità di usare l'IA in contesti professionali.

10) Perché è importante il livello LifeComp nella pratica dell'IA

Le GymComp combinano tecnica, empatia e facilitazione per allenare, in circuiti brevi e ripetibili, le competenze delle DigComp e delle LifeComp: verificare prima di creare, partecipare in modo responsabile, proteggere dati e persone. Radicate nei contesti reali (centri giovanili, biblioteche, outreach), trasformano linee guida europee ed esperienza dei partner in pratiche quotidiane: ricerca e fact-checking, co-progettazione, prompt consapevoli, privacy-by-design. Così i giovani e gli YWs creano, verificano, partecipano — e si proteggono, proteggendo gli altri — usando l’IA in modo critico, etico e inclusivo.

Obiettivi

  • 1) Potenziare le competenze dei giovani lavoratori su DigComp 2.2 aree 1.1, 1.2, 1.3, 2.3, 3.1, 4.2 e rafforzare LifeComp (comunicazione, collaborazione, empatia, autoregolazione) per favorire ambienti inclusivi online/offline.
  • 2) Creare un Oggetto di Apprendimento digitale (LO) con metodi e strumenti per un uso saggio dell'IA nell'educazione non formale, disponibile in EN/IT/ES e liberamente scaricabile dai siti dei partner.
  • 3) Colmare il divario tra online e offline: i giovani lavoratori formati agiscono come “ponti”, aiutando i giovani a trasferire competenze tra ambienti digitali e reali, con particolare attenzione a chi è a rischio di esclusione.

Attività

  • GymComp: 6 sessioni online × 3 ore (totale 18 ore) per esercitarsi con le competenze DigComp e LifeComp con momenti di autovalutazione.
  • Workshop: 4 laboratori online per praticare strumenti e mettere in condivisione buone pratiche tra Youth Workers italiani e spagnoli
  • Learning Object (EN/IT/ES) che raccoglie metodi e strumenti per un uso sicuro e inclusivo dell'IA nell'educazione non formale; download gratuito tramite i siti dei partner.
CAPITOLO 4

Riflessioni

Negli ultimi anni, il dibattito sulla regolamentazione dell'Intelligenza Artificiale è diventato centrale. L'IA non è una tecnologia neutra: le sue decisioni e i suoi utilizzi possono influenzare profondamente la vita delle persone, il mercato e la società. Perché è necessaria una regolamentazione?

  • Protezione dei diritti fondamentali – l'IA gestisce grandi quantità di dati personali e può influenzare libertà fondamentali come privacy, uguaglianza e non discriminazione.
  • Responsabilità legale – Chi è responsabile se un sistema di IA causa danni? È necessario definire chiare catene di responsabilità, includendo sviluppatori, fornitori e utenti.
  • Promozione della fiducia e dell'innovazione – Una regolamentazione chiara aumenta la fiducia dei cittadini e incoraggia investimenti più sicuri da parte delle aziende.
Dimensione etica e sociale dell'IA per un uso critico e consapevole
  • L'IA deve essere antropocentrica, al servizio del benessere umano e del bene comune.
  • Deve sostenere i processi democratici, i diritti fondamentali e lo stato di diritto, evitando rischi come il mass surveillance o il bias discriminatorio.
È necessaria una riflessione continua e partecipativa tra sviluppatori, decisori politici e società civile per affrontare dilemmi etici e tensioni tra principi (ad esempio, sicurezza vs. libertà individuale).

CAPITOLO 1

Conclusione

L'integrazione dell'IA nel lavoro giovanile non è semplicemente una questione di adottare nuovi strumenti— sfida le fondamenta di come comprendiamo l'apprendimento, l'agenzia e la relazione umana nell'educazione. Mentre il progetto AI4YW e il suo predecessore hanno dimostrato che l'IA può espandere l'accesso, migliorare la personalizzazione e favorire l'impegno, hanno anche rivelato tensioni significative e punti ciechi che richiedono attenzione continua. Ribilanciare potere e agenzia Una delle domande centrali emerse dai workshop è: Chi controlla il processo di apprendimento quando è coinvolta l'IA? Mentre gli strumenti generativi consentono agli utenti di creare, simulare e personalizzare, centralizzano anche il potere tecnologico nelle mani di sistemi opachi, spesso gestiti da attori privati. Gli operatori giovanili hanno evidenziato la necessità di preservare l'agenzia degli apprendenti garantendo che l'IA sia usata come un supporto—non come un sostituto—per il pensiero critico, la creatività e la collaborazione. L'approccio GymComp, radicato nell'enfasi di LIFEComp sulle competenze personali e sociali, ha aiutato a mettere tutto questo a fuoco. Combinando il potenziamento tecnico con riflessioni trasversali, i partecipanti hanno iniziato a riformulare l'IA non come uno strumento di efficienza, ma come uno spazio per mettere in discussione, negoziare e co-creare significato. Superare la mentalità del "Cassetto degli attrezzi" Un'idea ricorrente era l'importanza di andare oltre una visione puramente strumentale dell'IA. La tendenza a trattare l'IA come una raccolta di app rischia di frammentarne le implicazioni etiche, sociali e politiche. Invece, è emersa una chiamata a contestualizzare l'IA nelle realtà vissute dei giovani—dove questioni di identità, inclusione, bias e fiducia sono costantemente in gioco.

Il lavoro giovanile, soprattutto nell'educazione non formale, è intrinsecamente relazionale. I momenti migliori del processo AI4YW non riguardavano ciò che l'IA poteva fare per gli educatori, ma ciò che poteva abilitare in dialogo con loro. Questi spunti rispecchiano richieste più ampie del settore giovanile per una pedagogia critica della tecnologia: una che mette al centro i valori umani, l'intelligenza collettiva e la supervisione democratica. Da Competenza Digitale a Maturità DigitaleDigComp 2.1 è stato essenziale per strutturare i workshop, ma l'esperienza del progetto ha mostrato che la competenza digitale da sola non basta. Ciò di cui hanno bisogno i lavoratori giovanili è una forma di maturità digitale: la capacità di fare scelte informate, valutare criticamente i sistemi e supportare i giovani nel navigare un paesaggio tecnologico complesso. Questa maturità non può essere acquisita solo tramite liste di controllo o tutorial—richiede tempo, dialogo e pratica riflessiva.In questo senso, il modello GymComp ha offerto un prototipo utile su come le competenze digitali e trasversali possano essere coltivate in modo olistico. Riconosceva che comprendere l'IA non riguarda solo l'ingegneria dei prompt o l'alfabetizzazione dei dati—si tratta di sviluppare una mentalità che combina consapevolezza etica, intelligenza emotiva e apprendimento adattivo. Verso una cultura dell'IA centrata sull'uomo nel lavoro giovanile Infine, il progetto ha affermato che integrare l'IA nel lavoro giovanile non riguarda solo formazione o strumenti—ma cultura. La cultura del lavoro giovanile valorizza partecipazione, inclusione, cura e empowerment. Perché l'IA sia veramente trasformativa, deve essere subordinata a questi valori, non il contrario.

3. Riflessione etica e uso responsabile

L'etica non è stata trattata come un'aggiunta astratta, ma come un pilastro centrale di tutte le attività del workshop. Basandosi sul quadro dell'UNESCO e sul focus di LIFEComp sulla responsabilità, collaborazione e pensiero critico, il progetto AI4YW ha introdotto una serie di strumenti riflessivi: I partecipanti hanno affrontato esempi come l'esperimento “Moral Machine” del MIT, discutendo di come l'IA potrebbe rafforzare o sfidare i bias sociali. In contesti collaborativi, hanno identificato situazioni nel lavoro con i giovani in cui l'IA potrebbe minare l'equità (ad esempio, il profiling automatizzato nei programmi di formazione professionale), e hanno co-creato linee guida per un uso responsabile. È stata sottolineata l'importanza della supervisione umana e del ruolo non sostitutivo dell'IA. L'IA è vista come un copilota—non come un sostituto—per il lavoro empatico, etico e relazionale dei professionisti giovanili. Ciò si allinea con i risultati del progetto pilota AI4YW, dove il 78% dei rispondenti ha affermato che le risorse OER li hanno aiutati a riconoscere il bias dell'IA e a promuovere la consapevolezza etica.

CAPITOLO 3

Conclusioni

Costruire un'IA etica richiede collaborazione multidisciplinare tra:

  • Sviluppatori e ingegneri, che comprendono la logica dei modelli;
  • Avvocati e legislatori, che definiscono il quadro normativo;
  • Sociologi ed eticisti, che valutano l'impatto sociale e culturale;
  • Utenti finali, che forniscono feedback reale sull'uso delle tecnologie.
L'etica non limita l'innovazione: la rende affidabile e socialmente accettabile, creando fiducia e 'competitività responsabile.' L'aspetto etico deve essere incorporato in ogni fase del ciclo di vita del sistema di IA secondo il principio di 'Etica by Design.'

DigiCompt 3.1. - Creazione di contenuti digitali