Approfondimenti

Guida UNESCO sull’Intelligenza Artificiale nell’Educazione e Ricerca

L’UNESCO, l’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura, ha pubblicato la sua prima guida globale sull’utilizzo dell’Intelligenza Artificiale generativa nell’ambito educativo e della ricerca.

Gli strumenti di IA generativa, si sono diffusi e stanno diffondendo con una velocità tale da rendere complesso l’adattamento della legislazione.
Stefania Giannini, vicedirettrice generale per l’istruzione, intervistata da Reuters, ha affermato: “Stiamo lottando per allineare la velocità di trasformazione del sistema educativo alla velocità del cambiamento nel progresso tecnologico e all’avanzamento di questi modelli di apprendimento automatico”.

L’UNESCO, con la guida “Guidance for generative AI in education and research” mira a sostenere i paesi nell’attuare azioni immediate, pianificare politiche a lungo termine e sviluppare capacità per garantire un approccio incentrato sull’essere umano nell’utilizzo di queste nuove tecnologie.

In particolare, le sfide maggiormente critiche riguardano:

  • il valore e ruolo pedagogico dei sistemi di Intelligenza Artificiale generativa nei contesti educativi e formativi e l’impatto sulla relazione docente-discente;
  • il tema dei dati e della sensibilizzazione rispetto all’importanza che ricoprono, determinando in che misura i dati dei discenti e degli insegnanti possono essere raccolti e utilizzati eticamente allo scopo di sviluppare soluzioni e applicazioni specifiche;
  • garantire che questi sistemi non compromettano in nessun modo i diritti degli studenti, né depotenzino il ruolo del docente.

L’UNESCO ha delineato 8 misure specifiche per guidare le politiche sull’utilizzo dell’Intelligenza Artificiale generativa in ambito educativo e di ricerca. Familiarizzare con queste direttive è essenziale per sviluppare un approccio critico, permettendoci di orientare in modo più informato le nostre azioni e strategie verso questi strumenti.

All’elenco abbiamo aggiunto un nono punto dedicato alla regolamentazione, elemento fondamentale e in linea con l’obiettivo della guida: indirizzare le politiche con un approccio a lungo termine. Questo punto specifica le azioni che possono essere intraprese da quattro attori principali: le agenzie governative, i fornitori di strumenti di IA, le istituzioni e gli utenti finali. Sebbene molte delle azioni indicate necessitino di un approccio transnazionale, è essenziale considerarle sempre alla luce del contesto locale, tenendo conto dei sistemi educativi e formativi specifici del paese e dei quadri normativi già in vigore.

8+1 misure e linee guida secondo l’UNESCO:

Promuovere inclusione, equità, diversità linguistica e culturale

È essenziale assicurarsi che gli strumenti di Intelligenza Artificiale siano accessibili e promuovano equità, pluralismo linguistico e culturale. Il punto di partenza è assicurare l’accesso universale a Internet e rafforzare le competenze digitali. È altresì importante stabilire standard che obblighino i fornitori ad integrare dati in diverse lingue, specialmente quelle locali o indigene, per evitare che le lingue minoritarie siano oscurate o discriminate.

Proteggere l’azione umana

Con l’evoluzione della Intelligenza Artificiale, emerge il pericolo di compromissione dell’autonomia e delle capacità dell’uomo. L’IA dovrebbe ampliare il pensiero umano, non sostituirsi ad esso. Per salvaguardare l’essenza umana nella creazione e uso dell’IA generativa, la guida raccomanda: garantire che i discenti abbiano interazioni sociali e che l’utilizzo di questi sistemi non sostituisca le esperienze di apprendimento tradizionali; coinvolgere insegnanti e discenti nella valutazione dell’IA, promuovendo una visione critica; garantire che decisioni cruciali o rischiose siano sotto responsabilità umana, evitando la totale delega a questi strumenti.

Monitorare e convalidare

È essenziale che i sistemi di Intelligenza Artificiale utilizzati nell’ambito dell’educazione e della ricerca siano sviluppati eticamente. Una volta implementati, devono essere costantemente monitorati e validati per assicurarsi che gli output prodotti siano pedagogicamente validi, adatti all’età e alle capacità degli studenti e in linea con principi educativi riconosciuti.

Sviluppare competenze legate all’Intelligenza Artificiale

All’inizio del 2022, solo 15 paesi avevano implementato o stavano sviluppando programmi scolastici o formativi sull’Intelligenza Artificiale approvati dal governo. Data la rapidissima diffusione dell’IA, e in particolare dell’IA generativa, comprenderne gli aspetti umani e tecnologici è diventato essenziale. Le iniziative principali in questa direzione dovrebbero comprendere: programmi sull’IA nelle scuole che affrontino tanto le questioni etiche quanto la comprensione degli algoritmi; la promozione della parità di genere nel settore delle competenze avanzate in IA, e la creazione di programmi per adulti e anziani per permettere loro di acquisire nuove competenze e adattarsi ai mutamenti.

Sviluppare le competenze di insegnanti e ricercatori nell’uso corretto dell’IA generativa

Nel 2023, solo 7 paesi (Cina, Finlandia, Georgia, Qatar, Spagna, Thailandia e Turchia) avevano sviluppato o stavano sviluppando programmi di formazione sull’Intelligenza Artificiale per i docenti. Ad oggi, la maggior parte dei docenti non ha accesso a una formazione strutturata sull’uso dell’IA nell’istruzione. Per tale motivo, è necessario: creare linee guida che assistano insegnanti e ricercatori nell’utilizzo di questi strumenti; definire le competenze che gli insegnanti dovrebbero possedere per utilizzare efficacemente l’IA e sviluppare contenuti basati su di essa; aggiornare e integrare le competenze relative all’IA nei programmi di formazione in servizio e pre-servizio per i docenti.

Promuovere la pluralità di opinioni e l’espressione delle idee

Gli strumenti di Intelligenza Artificiale, come ad esempio ChatGPT, generano risposte basandosi su modelli linguistici probabilistici, senza realmente comprendere il significato dei prompt e delle risposte che elaborano. Questi strumenti tendono a riflettere visioni predominanti, oscurando spesso opinioni divergenti e minoritarie. Di conseguenza, non dovrebbero essere considerati fonti autorevoli. Gli utenti, nel maneggiare dati e informazioni provenienti dall’IA generativa, dovrebbero mantenere un atteggiamento critico, riconoscendone le limitazioni e promuovendo un’analisi approfondita anche tra i propri discenti.

Testare i modelli a livello locale ed utilizzare un approccio “evidence base”

I modelli di Intelligenza Artificiale generativa tendono a riflettere prevalentemente le informazioni provenienti dal Nord del mondo, trascurando informazioni ed opinioni del Sud e delle comunità indigene. Per assicurare che questi strumenti rispondano alle esigenze delle comunità locali, è fondamentale adottare un approccio più strategico e critico nella loro progettazione e implementazione, incentivarne un uso basato sull’evidenza, sull’utilizzo di dati per un apprendimento maggiormente diversificato e valutare le loro implicazioni sia etiche che ambientali. Inoltre, è essenziale stabilire criteri per valutarne l’impatto nell’istruzione e nel sostegno alla diversità linguistica e culturale.

Esaminare le implicazioni a lungo termine adottando un approccio interdisciplinare

Per un utilizzo davvero efficace ed etico dell’Intelligenza Artificiale generativa in ambito formativo e di ricerca, è essenziale adottare un approccio interdisciplinare. Coinvolgere esperti di vari settori permette di valutare le implicazioni a lungo termine dell’IA su aspetti come apprendimento, ricerca e dinamiche sociali. Gli specialisti dovrebbero poi essere in grado di fornire indicazioni per aggiornare normative e politiche riguardanti l’IA generativa nel contesto educativo e di ricerca.

Regolamentazione dell’Intelligenza Artificiale generativa

La regolamentazione è necessaria per risolvere le criticità evidenziate e per sfruttare positivamente tutti i vantaggi che questa rivoluzione potrebbe portare.
Prima della massiccia diffusione di ChatGPT, i diversi governi stavano adattando e aggiornando i quadri normativi in tema di raccolta e uso dei dati e di adozione di sistemi di Intelligenza Artificiale nei diversi settori. A partire da novembre 2022, sono state adottate risposte diverse: dal divieto dell’uso di questi strumenti, alla valutazione di come aggiornare la legislazione o quali nuove norme creare.

Per la definizione di un nuovo orizzonte di sviluppo è necessario considerare alcuni elementi chiave per la regolamentazione della Intelligenza Artificiale generativa.

  • Il primo è dato dalle Agenzie governative. Alla base della definizione delle loro attività ci deve essere un approccio intergovernativo che risulta fondamentale per coordinare la progettazione e l’attuazione di nuove norme.
    Tra le azioni raccomandate troviamo: l’allineamento del quadro normativo globale con gli specifici contesti nazionali, la definizione di principi e processi per valutare l’efficacia e la sicurezza dei sistemi di IA prima dell’implementazione e durante l’uso, la protezione della privacy anche con nuove norme o con aggiornamento di quelle esistenti.
  • Il secondo elemento chiave riguarda i fornitori di strumenti di Intelligenza Artificiale generativa che includono sia le organizzazioni sia i singoli responsabili dello sviluppo e della distribuzione di questi strumenti. Questi sono tenuti al rispetto dei principi etici specificati nelle norme, e hanno una serie di responsabilità tra cui fornire dati trasparenti su fonti e metodi di generazione output e cooperare con le agenzie di regolamentazione per facilitare il monitoraggio e l’identificazione di usi illeciti.
  • Il terzo elemento sono le istituzioni, educative e accademiche, che sono responsabili dell’adozione di strumenti Intelligenza Artificiale generativa. Per questa categoria, si raccomandano azioni quali: fare audit degli algoritmi, dei dati e degli output tramite meccanismi di monitoraggio e definire restrizioni in base all’età degli utenti.
  • Infine, l’ultimo elemento chiave è costituito dai singoli utenti, i quali devono avere consapevolezza dei termini di servizio, utilizzare gli strumenti in modo etico e responsabile, e segnalare usi illeciti.
Scritto da: Arianna Meroni e Camilla Zan il 9 Novembre 2023

Potrebbe interessarti anche

© Copyright 2024 Amicucci Formazione | P.IVA 01405830439 | Cap. Soc.: Euro 100.000,00 (i.v.) | C.C.I.A.A. (Macerata) | R.E.A. (149815) | Privacy policy | Cookie policy | Etica e compliance