
L’integrazione dell’intelligenza artificiale nel contesto educativo e familiare: guida strategica per genitori e istituzioni
La rivoluzione dell’intelligenza artificiale (IA) non rappresenta soltanto un’accelerazione tecnologica, ma una trasformazione culturale e sociale profonda, sancita simbolicamente dall’assegnazione dei Premi Nobel del 2024 a pionieri del settore.[1] Questa transizione impone una riflessione urgente sul ruolo della famiglia e della scuola, nuclei fondamentali in cui si modella la consapevolezza delle nuove generazioni. L’attuale panorama normativo e pedagogico italiano si è arricchito di strumenti complessi, come le Linee Guida ministeriali del 2025, che mirano a trasformare l’IA da un rischio potenziale in un’opportunità di crescita inclusiva e personalizzata.[2, 3] Per i genitori, la sfida consiste nel superare la “paura tecnologica” attraverso l’acquisizione di una solida alfabetizzazione algoritmica, diventando mediatori critici capaci di guidare i figli tra i benefici della personalizzazione dell’apprendimento e le insidie della manipolazione digitale.[4, 5]
Il quadro normativo italiano e le linee guida del 2025
L’integrazione dell’IA nel sistema scolastico italiano ha raggiunto una maturità istituzionale con l’emanazione del Decreto Ministeriale n. 166 del 9 agosto 2025, che ha formalizzato le strategie per l’adozione di sistemi intelligenti nelle istituzioni educative.[6, 7] Queste linee guida non si configurano come un semplice manuale tecnico, ma come un framework etico e operativo volto a garantire che l’innovazione rispetti i valori costituzionali di equità e dignità umana.[8, 9] Il Ministero dell’Istruzione e del Merito (MIM) ha delineato un percorso di adozione graduale fondato su quattro pilastri fondamentali, che servono da bussola sia per i dirigenti scolastici sia per le famiglie coinvolte nei processi decisionali.[8]
I quattro pilastri del modello ministeriale
Il primo pilastro riguarda i principi di riferimento, che impongono un approccio antropocentrico. L’IA deve potenziare l’essere umano, non sostituirlo, mantenendo una coerenza con gli articoli 2 e 3 della Costituzione Italiana.[8, 9] Il secondo pilastro definisce i requisiti di base: etici, tecnici e normativi. In questo ambito, la trasparenza e la spiegabilità degli algoritmi sono essenziali per evitare che i sistemi di IA diventino “scatole nere” inaccessibili alla critica.[8] Il terzo pilastro è il framework operativo, che mette a disposizione delle scuole strumenti per identificare i bisogni prioritari, come la didattica personalizzata e il supporto all’inclusione per studenti con Bisogni Educativi Speciali (BES).[8, 10] Infine, il quarto pilastro riguarda la governance e il monitoraggio, facilitati da servizi digitali sulla piattaforma Unica, dove genitori e docenti possono consultare le sperimentazioni attive sul territorio.[7, 11]
| Pilastro del Modello MIM | Obiettivo Strategico | Destinatari Principali |
| Principi di Riferimento | Garantire l’uso etico e antropocentrico dell’IA.[8] | Intera comunità scolastica |
| Requisiti di Base | Assicurare trasparenza, sicurezza dei dati e robustezza tecnica.[8] | Fornitori e dirigenti |
| Framework Operativo | Offrire indicazioni pratiche per progetti didattici e amministrativi.[7, 8] | Docenti e famiglie |
| Monitoraggio e Governance | Valutare l’impatto e condividere le buone pratiche attraverso la piattaforma Unica.[7] | Ministero e stakeholder |
L’approccio basato sul rischio, derivato dall’AI Act europeo, classifica le applicazioni dell’IA in base al potenziale impatto sui diritti degli studenti.[11] I sistemi a “rischio alto”, come quelli utilizzati per la valutazione automatica degli apprendimenti o per le procedure di ammissione, richiedono verifiche rigorose e una sorveglianza umana costante per intercettare bias o errori discriminatori.[8, 11] Al contrario, strumenti a “rischio limitato”, come i chatbot informativi scolastici, richiedono principalmente obblighi di trasparenza, informando l’utente che sta interagendo con una macchina.[11]
Privacy e tutela dei minori nell’ecosistema algoritmico
La protezione dei dati personali dei minori rappresenta l’aspetto più critico per la sicurezza familiare. Il Garante per la protezione dei dati personali ha più volte sottolineato che i bambini sono soggetti vulnerabili che meritano una protezione specifica, poiché potrebbero essere meno consapevoli dei rischi legati al trattamento delle loro informazioni.[12] Nel contesto dell’IA, la raccolta massiva di dati per l’addestramento dei modelli linguistici (LLM) pone problemi di liceità del trattamento e di trasparenza.[13, 14]
Il diritto alla sovranità del dato educativo
Un requisito tecnico imprescindibile sancito dalle linee guida ministeriali è il diritto di non partecipazione.[8] Gli studenti e le loro famiglie devono poter decidere se i dati generati durante le attività didattiche (conversazioni con chatbot, esercizi svolti, prompt inseriti) possano essere utilizzati dai fornitori per l’addestramento dei sistemi di IA.[8, 9] Questo principio di “privacy by design” garantisce che l’innovazione tecnologica non avvenga a scapito della riservatezza dei minori. Le scuole sono tenute a fornire informative dettagliate ai sensi degli articoli 13 e 14 del GDPR, specificando quali algoritmi vengono utilizzati e con quali finalità.[9]
Rischi emergenti: il caso Replika e la verifica dell’età
Il provvedimento del Garante contro la piattaforma Replika ha evidenziato la pericolosità dei “compagni virtuali” progettati per creare dipendenza emotiva.[13] Tali sistemi, spesso sprovvisti di meccanismi efficaci di verifica dell’età, espongono i minori a contenuti non appropriati e a forme di manipolazione psicologica che sfruttano la loro fase evolutiva.[13, 14] È fondamentale che i genitori comprendano che i termini di servizio di molte piattaforme popolari, come ChatGPT, vietano l’uso ai minori di 13 anni.[15, 16] In assenza di filtri robusti, spetta agli adulti monitorare l’accesso e utilizzare strumenti di controllo parentale per bloccare applicazioni non idonee.[15, 17]
La sfida dello sharenting e del data scraping
La pratica dello “sharenting” — la condivisione costante di immagini e video dei figli sui social media — alimenta involontariamente i database utilizzati per l’addestramento delle IA.[14, 18] Il Garante ha recentemente messo in guardia contro l’uso di dati personali e immagini da parte di aziende come Meta per il training dei propri sistemi, a meno che gli utenti non esercitino attivamente il diritto di opposizione.[14] Per i genitori, proteggere l’immagine del minore significa tutelare la sua identità futura da possibili manipolazioni o usi non autorizzati in ambito di intelligenza artificiale generativa.[15, 19]
Pedagogia dell’IA: manuali e strategie per l’educazione domestica
L’alfabetizzazione all’IA (AI literacy) è definita come l’insieme di competenze che consente agli individui di valutare criticamente le tecnologie, comunicare efficacemente con esse e utilizzarle come strumenti di crescita in ambito lavorativo e domestico.[4] Guide pratiche come quelle offerte dalla Fastweb Digital Academy e da Rizzoli Education forniscono ai genitori una base metodologica per trasformare l’IA in un alleato dello studio.[1, 5]
L’arte del prompting e il pensiero critico
Uno degli insegnamenti cardine presenti nei manuali per genitori riguarda la scrittura di istruzioni chiare (prompt) per ottenere risultati utili dall’IA. È consigliabile evitare domande vaghe e utilizzare comandi diretti come “Spiega”, “Descrivi” o “Elabora”, eliminando i convenevoli superflui.[1] Tuttavia, l’efficienza tecnica deve essere accompagnata dal pensiero critico. I ragazzi devono imparare a verificare le informazioni fornite, poiché l’IA può generare “allucinazioni” — risultati errati presentati con tono autorevole.[1, 5, 15]
| Strategia di Sicurezza (Qustodio) | Descrizione Operativa | Obiettivo Educativo |
| Esplorare i Controlli Parentali | Collegare l’account adulto a quello del minore per gestire la cronologia.[15] | Monitoraggio della sicurezza |
| Verificare l’Età di Utilizzo | Bloccare l’accesso sotto i 13 anni se non previsto dai termini d’uso.[15] | Rispetto normativo e tutela |
| Incoraggiare l’Uso Condiviso | Utilizzare lo strumento insieme per discutere i contenuti generati.[15] | Co-apprendimento e dialogo |
| Insegnare il Pensiero Critico | Analizzare la creatività e l’accuratezza delle risposte insieme.[15] | Sviluppo dell’autonomia cognitiva |
| Gestione Emotiva | Rassicurare il minore sulla disponibilità di un adulto reale per supporto.[15] | Prevenzione isolamento virtuale |
| Tenersi Informati | Seguire gli aggiornamenti sulle nuove funzioni delle piattaforme.[15] | Consapevolezza tecnologica |
Attività pratiche e gioco-esperienze
L’apprendimento dell’IA può essere integrato nella routine quotidiana attraverso attività che rendono tangibili concetti astratti come algoritmi e dati.[20, 21]
1. Caccia al Tesoro Algoritmica: Genitori e figli possono collaborare con un chatbot per generare indovinelli e prove su misura, ambientati negli spazi domestici o in giardino.[20]
2. Laboratori di Storytelling: Iniziare la scrittura di una favola (es. un bambino che ama i dinosauri nello spazio) e chiedere all’IA di suggerire svolte narrative, discutendo poi insieme la logica delle proposte.[20, 21]
3. Tutor Personaggi Storici: Utilizzare piattaforme come Minerva AI per simulare dialoghi con figure storiche (Einstein, Giulio Cesare), rendendo lo studio della storia e delle scienze un’esperienza interattiva e coinvolgente.[10]
4. Coding e Machine Learning: Piattaforme come Scratch permettono ai bambini di programmare giochi che reagiscono a comandi vocali o visivi, insegnando le basi del funzionamento delle reti neurali in modo ludico.[21, 22]
Sicurezza avanzata: Deepfake, Voice Cloning e Sextortion
L’evoluzione della IA generativa ha introdotto minacce che richiedono una vigilanza costante e una comunicazione aperta in famiglia. I deepfake, ovvero immagini o video manipolati che sovrappongono il volto di una persona a un contesto differente, possono essere utilizzati per forme gravi di Peer Victimization o per la creazione di materiale pedopornografico sintetico.[19, 23]
La meccanica dei Deepfake e i segnali di allarme
I genitori devono istruire i figli a riconoscere le anomalie tecniche che spesso tradiscono l’origine artificiale di un contenuto. Tra queste, si annoverano la mancata sincronizzazione dell’audio con i movimenti labiali, ombreggiature incoerenti sul volto, o movimenti che appaiono “innaturali” o troppo fluidi.[23, 24, 25] È fondamentale spiegare che bastano poche foto o pochi secondi di audio registrato per permettere a un malintenzionato di clonare la voce o l’immagine di un minore.[23, 26]
Truffe basate sulla clonazione vocale
Una minaccia emergente riguarda le chiamate truffaldine in cui l’IA imita la voce di un figlio o di un nipote per chiedere denaro in situazioni di finta emergenza.[26] Gli esperti consigliano di stabilire una “password familiare” — una parola segreta nota solo ai membri del nucleo — da utilizzare in caso di chiamate sospette che richiedono azioni urgenti.[26] Questa misura di sicurezza analogica si rivela spesso la più efficace contro le sofisticazioni algoritmiche.
Protezione dalla Sextortion e dai comportamenti a rischio
L’IA può essere utilizzata per creare situazioni di ricatto (sextortion) partendo da immagini innocue manipolate da app di “nudificazione”.[19, 27] I manuali di Save the Children e del NCMEC sottolineano l’importanza di educare i minori al rispetto della propria immagine e di quella altrui, spiegando che la creazione o la condivisione di immagini intime manipolate non è solo immorale ma illegale.[19, 28] I genitori devono agire come “upstanders”, incoraggiando i figli a segnalare contenuti sospetti e a non alimentare la diffusione di materiale manipolato.[19, 24]
Strumenti tecnici e software di Parental Control
Mentre l’educazione rimane il pilastro fondamentale, gli strumenti tecnologici possono offrire un supporto operativo per gestire la complessità dei dispositivi moderni. La scelta del software o del dispositivo deve essere commisurata all’età e al grado di autonomia del minore.[29]
Analisi comparativa dei software di sicurezza
I pacchetti di sicurezza offerti da produttori come Norton e Kaspersky integrano ormai funzionalità specifiche per la protezione dei minori nell’ambiente digitale, offrendo tracciamento GPS, monitoraggio dei social media e gestione del tempo di utilizzo.[17]
| Software / Servizio | Caratteristiche Principali | Numero Dispositivi | Target Ideale |
| Norton Family | Monitoraggio video, Dark Web Monitoring, protezione VPN.[17] | Fino a 10 | Famiglie numerose con più device |
| Kaspersky Safe Kids | Analisi app, rapporti su YouTube, pianificazione oraria.[17] | Singolo o Multi | Monitoraggio accurato del tempo |
| Qustodio | Blocco app IA, filtraggio web avanzato, gestione cronologia.[15, 25] | Multi-piattaforma | Gestione specifica di app e siti |
| Google Family Link | Approvazione installazioni, geolocalizzazione, limiti di tempo.[16, 25] | Nativi Android | Integrazione gratuita con ecosistema Google |
Dispositivi hardware per l’infanzia (6-12 anni)
Per i bambini in età scolare, la scelta del primo dispositivo è cruciale. Gli smartwatch per bambini offrono un compromesso tra indipendenza e sicurezza, permettendo chiamate verso numeri autorizzati e localizzazione GPS senza le distrazioni di uno smartphone completo.[30] Nel mercato dei tablet, prodotti come il “Mio Tab” di Lisciani o il “Clempad” di Clementoni offrono interfacce protette con contenuti educativi pre-selezionati, minimizzando il rischio di esposizione a IA non moderate.[29, 31]
| Marca Tablet | Caratteristiche del Modello Educativo | Plus per i Genitori |
| Lisciani (Mio Tab) | Tablet con IA educativa integrata (L.I.A.), oltre 300 app.[31] | Design resistente, bumper in silicone |
| Clementoni | Applicazioni per lo sviluppo cognitivo e la creatività.[29] | Materiali atossici, top di gamma per contenuti |
| Apple (iPad) | Kids Mode e controlli parentali avanzati nell’App Store.[29] | Longevità, vastità di app educative professionali |
| Samsung (Galaxy Tab) | Interfaccia Samsung Kids Mode per navigazione sicura.[29] | Buona durata batteria, display di alta qualità |
Il ruolo delle Associazioni Genitori e della comunità scolastica
I genitori non sono soli in questa transizione digitale. Organismi come l’AGE (Associazione Italiana Genitori) e il MOIGE offrono supporto informativo e rappresentanza presso le istituzioni scolastiche.[32, 33, 34] La partecipazione ai tavoli di confronto e ai Forum delle Associazioni (FoPAGS) permette alle famiglie di influenzare le politiche scolastiche sull’IA, garantendo che l’introduzione di queste tecnologie non sia subita ma governata.[34]
Vademecum e risorse associative
L’AGE ha elaborato vademecum specifici per i rappresentanti dei genitori nei consigli d’istituto, fornendo gli strumenti normativi per intervenire sui Piani Triennali dell’Offerta Formativa (PTOF).[33, 35] Queste guide aiutano i genitori a comprendere quando e come possono esprimersi su temi cruciali come l’adozione di software per la valutazione o il monitoraggio degli studenti, assicurando che il Collegio dei docenti e il Consiglio d’istituto operino in trasparenza.[35] Allo stesso modo, Save the Children mette a disposizione manuali scaricabili che spiegano i diritti dei bambini nell’ambiente digitale, collegandoli alla Convenzione ONU sui diritti dell’infanzia.[36, 37]
Verso il futuro: AI Wearable, Bio-monitoraggio ed Etica
Il futuro prossimo vedrà l’ingresso nella quotidianità di dispositivi IA “sempre attivi” (wearable), come occhiali intelligenti dotati di fotocamere e microfoni che elaborano ciò che l’utente vede e sente.[26] Per i bambini, questo solleva questioni di confine tra vita online e offline: indossare occhiali AI a scuola potrebbe registrare conversazioni private o lezioni senza il consenso esplicito, portando a nuove forme di sorveglianza tra pari.[26]
Rilevazione delle emozioni e privacy biometrica
Sistemi emergenti promettono di rilevare i livelli di attenzione o le emozioni degli studenti analizzando la mimica facciale o il battito cardiaco.[26, 38] Sebbene tali tecnologie siano presentate come strumenti per migliorare l’apprendimento adattivo, esse comportano rischi elevati di intrusioni nella sfera psicologica del minore. False letture degli algoritmi potrebbero portare a trattamenti ingiusti o imbarazzo sociale, aumentando l’ansia da monitoraggio costante.[26] I genitori e i dirigenti scolastici dovranno essere pronti a valutare l’impatto di queste tecnologie sui diritti fondamentali prima di qualsiasi implementazione sperimentale.[8]
Conclusioni e Raccomandazioni Strategiche
L’integrazione dell’IA nel contesto familiare richiede un passaggio dalla “genitorialità di controllo” alla “genitorialità di mediazione”. La sola restrizione tecnica è destinata a fallire di fronte alla pervasività degli algoritmi. La risposta risiede in un’educazione digitale consapevole che valorizzi l’IA come strumento di crescita, senza mai sacrificare lo sforzo intellettuale, il pensiero autonomo e la relazione umana.[18, 38, 39]
Si raccomanda alle famiglie di:
• Mantenere un dialogo aperto e costante, costruendo un ambiente in cui il minore si senta sicuro nel condividere dubbi o esperienze negative online.[15, 24, 40]
• Educare alla “skepticism” digitale, insegnando a non accettare passivamente le risposte delle macchine e a cercare sempre una verifica delle fonti reali.[15, 38, 41]
• Partecipare attivamente alla vita scolastica, monitorando come l’IA viene integrata nel percorso formativo e verificando il rispetto delle normative sulla privacy.[8, 11, 42]
• Promuovere un equilibrio sano tra digitale e analogico, riscoprendo l’importanza della manualità, della natura e delle relazioni fisiche per uno sviluppo cognitivo armonioso.[26, 39, 41]
L’intelligenza artificiale non deve essere vista come una minaccia ineluttabile, ma come una frontiera che, se governata con i principi dell’etica e della centralità umana, potrà offrire alle nuove generazioni possibilità di apprendimento e creazione finora inimmaginabili.[7, 8, 43]
——————————————————————————–
1. Intelligenza artificiale: istruzioni per l’uso! •AI nella didattica della storia – Rizzoli Education, https://www.rizzolieducation.it/content/uploads/2025/02/Estratto_AI_guide.pdf
2. introduzione dell’intelligenza artificiale – leopoldo ii di lorena, https://isisleopoldo2dilorena.edu.it/wp-content/uploads/sites/1051/Manuale-operativo-IA.pdf?x67730
3. Educare con l’Intelligenza Artificiale: le Linee Guida AI 2025 per un apprendimento inclusivo e innovativo – Scuola futura, https://scuolafutura.pubblica.istruzione.it/educare-con-l-intelligenza-artificiale-le-linee-guida-ai-2025-per-un-apprendimento-inclusivo-e-innovativo
4. Educazione e Intelligenza Artificiale – Roma TrE-Press, https://romatrepress.uniroma3.it/wp-content/uploads/2023/11/eeia-frag.pdf
5. AI e Bambini – Guida pratica per i genitori | Fastweb Digital Academy, https://www.fastwebdigital.academy/corsi-online/ai-e-bambini-guida-pratica-i-genitori
6. MIM-Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche, https://www.icvillanovam.edu.it/mim-linee-guida-per-lintroduzione-dellintelligenza-artificiale-nelle-istituzioni-scolastiche/
7. Linee guida IA – UNICA, https://unica.istruzione.gov.it/portale/it/linee-guida-ia
8. L’Intelligenza Artificiale a Scuola: le nuove linee guida MIM – ASNOR, https://asnor.it/it-schede-1287-intelligenza_artificiale_a_scuola_linee_guida
9. Linee guida per l’introduzione dell’Intelligenza Artificiale nelle … – ANP, https://www.anp.it/wp-content/uploads/2022/11/ANP__Linee_guida_AI_MIM.pdf
10. Minerva Education: Strumenti AI per Insegnanti, https://minervaeducationai.it/
11. L’intelligenza artificiale entra nelle scuole italiane: ecco le linee guida del Ministero, https://www.forumpa.it/temi-verticali/scuola-istruzione-ricerca/lintelligenza-artificiale-entra-nelle-scuole-italiane-ecco-le-linee-guida-del-ministero/
12. Minori – Garante Privacy, https://www.garanteprivacy.it/temi/minori
13. Intelligenza artificiale e privacy: verifica età per Garante italiano – Iusgate, https://www.iusgate.com/intelligenza-artificiale-e-garante-privacy-attenti-a-dati-ed-eta/
14. COMUNICATO STAMPA – Intelligenza artificiale, Garante privacy: Da fine, https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10125702
15. ChatGPT è sicuro per i ragazzi? Una guida per genitori | Qustodio, https://www.qustodio.com/it/blog/what-is-chatgpt-is-it-safe/
16. Una guida all’intelligenza artificiale (AI) per i genitori | Questioni di …, https://www.internetmatters.org/it/resources/parent-guide-to-artificial-intelligence-ai-tools/
17. App educative per l’infanzia: le migliori e come proteggere i minori con il parental control, https://www.agendadigitale.eu/cultura-digitale/app-per-i-piu-piccoli-quali-sono-le-piu-usate-e-come-capire-se-sono-sicure/
18. Educazione Digitale | Save the Children, https://www.savethechildren.it/cosa-facciamo/campagne/educazione-digitale
19. AI & Child Safety Online: A Guide for Parents and Caregivers – MissingKids.org, https://www.missingkids.org/content/dam/netsmartz/downloadable/tipsheets/ai-and-child-safety-online-guide-parents_caregiver.pdf
20. ChatGPT in famiglia: 40 usi pratici per casa, scuola e tempo libero – Plume, https://plumer.it/chatgpt-in-famiglia/
21. Guida facile all’IA per bambini curiosi. Esempi pratici e consigli – Nostrofiglio.it, https://www.nostrofiglio.it/bambino/guida-facile-ia-per-bambini-curiosi
22. Le 10 migliori app di IA sicure per bambini su iOS (chat vocale e generazione di immagini) – Basato sulla mia ricerca – Reddit, https://www.reddit.com/r/ParentingTech/comments/1nrqhoj/top_10_safe_ai_apps_for_kids_on_ios_voice_chat/?tl=it
23. How To Teach Your Kids About Deepfakes | McAfee Blog, https://www.mcafee.com/blogs/tips-tricks/how-to-teach-your-kids-about-deepfakes/
24. Artificial intelligence safety tips for parents – NSPCC, https://www.nspcc.org.uk/about-us/news-opinion/2025/artificial-intelligence-safety-tips-for-parents/
25. Parent Guide: How To Talk With Your Child About AI, Deepfakes & Online Safety – YES, https://justsayyes.org/parent-guide-ai-deepfakes-online-safety/
26. AI Risks to Children: A Comprehensive Guide for Parents & Educators, https://www.safeaiforchildren.org/ai-risks-to-children-full-guide/
27. L’IA spoglia i bambini: la nuova frontiera della pedofilia passa per chatbot e deepfake, https://www.insalutenews.it/in-salute/lia-spoglia-i-bambini-la-nuova-frontiera-della-pedofilia-passa-per-chatbot-e-deepfake/
28. Essere Genitori nell’Era Digitale – Save the Children, https://s3-www.savethechildren.it/public/2025-03/Essere_Genitori_nell_Era-Digitale_stc.pdf
29. Migliori tablet per bambini piccoli e dai 6 anni – MediaWorld, https://www.mediaworld.it/it/content/speciali/guide-acquisto/migliori-tablet-bambini-guida
30. Smartwatch per bambini: migliori modelli – My-personaltrainer.it, https://www.my-personaltrainer.it/allenamento/smartwatch-per-bambini.html
31. Robot per Bambini e Giocattoli Interattivi – Toys Center, https://www.toyscenter.it/categoria-prodotto/giocattoli/giochi-educativi/tablet-e-giochi-interattivi/
32. Intelligenza Artificiale e genitori: opportunità o minaccia? – Incontro con MOIGE, https://www.museodelrisparmio.it/intelligenza-artificiale-e-genitori-opportunita-o-minaccia-incontro-con-moige/
33. A scuola sicuri con il vademecum dell’Age – Prima Brescia, https://primabrescia.it/cronaca/a-scuola-sicuri-con-il-vademecum-dellage/
34. VADEMECUM PER GENITORI ELETTI NEGLI ORGANISMI RAPPRESENTATIVI DELLA SCUOLA – icvillanterio, https://www.icvillanterio.edu.it/wordpress/sitovecchio/wp-content/uploads/2016/11/FoPAGS-vademecum-per-i-genitori.pdf
35. Vademecum del Consiglio d’Istituto – AGe Toscana Aps, https://agetoscana.it/vademecum-del-consiglio-distituto/
36. I diritti dei bambini spiegati ai bambini | Save the Children, https://www.savethechildren.it/blog-notizie/i-diritti-dei-bambini-spiegati-ai-bambini
37. GUIDA PRATICA ALLA GENITORIALITÀ POSITIVA Come costruire un buon rapporto genitori-figli – Save the Children, https://s3.savethechildren.it/public/files/uploads/pubblicazioni/guida-pratica-alla-genitorialita-positiva-come-costruire-un-buon-rapporto-genitori-figli.pdf
38. Parent Guide to AI in Schools: K–12 Policy & Digital Literacy – Education Briefs, https://www.thethinkacademy.com/blog/edubriefs-parent-guide-to-ai-in-schools-k-12-policy-and-digital-literacy/
39. L’intelligenza artificiale è utile al cervello dei nostri figli? Ascoltiamo i consigli di Paolo Crepet, https://bambiniegenitori.it/intelligenza-artificiale-cervello-figli-paolo-crepet/
40. Navigating the Digital Realm: A Parent’s Guide to Discussing AI Deepfakes with Kids, https://natterhub.com/blog/navigating-the-digital-realm-a-parents-guide-to-discussing-ai-deepfakes-with-kids
41. A Parents’ Guide to Navigating the Risks of Generative AI – BBB National Programs, https://bbbprograms.org/media/insights/blog/parents-guide-ai
42. Vademecum per i Genitori nella Scuola – UCIIM, https://uciim.it/lombardia/wp-content/uploads/sites/3/2019/01/Vademecum-per-i-Genitori-nella-Scuola-1.pdf
43. Linee guida sull’intelligenza artificiale per i bambini, https://www.unicef.ch/it/media/5842/download
Devi effettuare l'accesso per postare un commento.