Approfondimenti

INTELLIGENZA ARTIFICIALE

Conversazioni – Marco Amicucci intervista Carlo Tasso dell’Università degli Studi di Udine

M. A.: Mi piacerebbe molto parlare con lei di intelligenza artificiale, un tema che spesso non viene affrontato da chi si occupa di e-learning, nonostante negli ultimi anni abbia avuto uno sviluppo interessante. Qual è la direzione che sta prendendo la ricerca riguardo questo tema?

C. T.:[…] L’intelligenza artificiale è una disciplina che è nata sin dai primi anni della storia dell’informatica. C’erano aziende, ad esempio l’IBM, che avevano costruito una base solida per i loro business, nel mondo dell’organizzazione, ma usavano applicazioni che si basavano sull’archiviazione di grosse masse di dati e su elaborazioni che potevano essere più o meno sofisticate. L’informatica non era ancora interattiva ma lavorava sui dati che macinava per produrre dei risultati. Nella seconda metà degli anni cinquanta qualcuno iniziò a pensare che, oltre a un approccio Number crunching, ci potesse essere un utilizzo del calcolatore che andasse verso la simulazione, cercando di affrontare in maniera simulativo – emulativa delle funzionalità che tradizionalmente erano state considerate esclusive della mente umana: capacità cognitive, come la comprensione del linguaggio naturale e l’analisi dei testi. Negli anni della guerra fredda, il Ministero della Difesa Americana finanziava ricerche nel campo della traduzione automatica. Il successo non fu corrispondente all’impegno […] Non si trattava di mettere insieme dei pezzi tradotti parola per parola, non è così che si traduce, non è così che si fa per esprimersi correttamente in una lingua straniera ci si era resi conto che era importante analizzare il testo, non tanto per il suo aspetto superficiale, che potrebbe essere la morfologia o la sintassi, ma anche per la semantica. Ciò che si faceva in quegli anni nell’ambito dell’e-learning, era proprio andare ad affrontare tematiche come lo studio delle lingue piuttosto che lo studio dell’aritmetica. Si percepiva un netto scollamento tra l’approccio tradizionale, che precostituiva e proponeva domande con risposte già cablate, e l’esigenza di cercare e di costruire un modello più intelligente. […]

M. A.: Ci aiuti un po’ ad usare la fantasia, ci aiuti a fantasticare su una possibile applicazione futura di queste tecnologie nel campo dell’educazione, perché ovviamente è qualcosa su cui stiamo lavorando, quindi le chiedo, dove ci porterà? Quale utilità avremo con molta probabilità?

C.T.: Io le rispondo soprattutto per quello che è il mio campo di competenza. Da quando è nato il web, abbiamo adottato queste tecniche di analisi semantica del testo, cercando di analizzare quali sono i concetti, per costruire sistemi personalizzati nel campo della ricerca d’informazioni. Il web è nato nei primi anni novanta, esplodendo in maniera ancora più eclatante agli inizi del duemila nella seconda metà degli anni novanta si capiva già che la massa d’informazioni, la qualità e i contenuti fossero interessanti. In qualche modo erano presenti delle interfacce automatiche, per cercare le informazioni relative al tema di interesse dei singoli utenti, ponendo attenzione, attraverso questi strumenti automatici, alle effettive esigenze informative altrimenti sarebbe stato umanamente impossibile riuscire a controllare tutte le informazioni che nascono o sono pubblicate sulla rete. […] Sappiamo tutti che quando i non professionisti di informatica cercano le informazioni nel web, la precisione tipica che c’è in una risposta ottenuta, dopo aver inserito nel motore di ricerca due o tre parole chiave, è del quindici – venti per cento. Le parole, in quanto sequenze di lettere o stringhe di caratteri, che usiamo nel linguaggio, nello scrivere, nel parlare fra di noi, hanno spesso più significati, sono polisemiche a seconda del contesto o dei discorsi in cui sono contenute, hanno una valenza di significato piuttosto che un’altra. L’esempio che faccio sempre ai miei studenti è la parola “tasso”, che da sola vuol dire tante cose, da un poeta a un concetto economico, cose assolutamente diverse tra loro. Se io non le contestualizzo, non riuscirò ad essere preciso nel restituire i risultati che mi interessano. Quindi cosa bisogna fare? Bisogna aumentare la quantità d’informazione che l’utente fornisce, l’analisi del significato e quello dei documenti. Non basta fare un confronto di parole chiave, bisogna ragionare in un’ottica di identificazione e ragionamento sui significati. Noi abbiamo lavorato a queste problematiche, ancora stiamo lavorando su queste problematiche, con un accento che è quello di cercare informazioni. Devo dire che nell’ambito di un processo educativo, quando uno studente sta imparando degli argomenti e si ritrova di fronte un learning object, piuttosto che ad una pagina di un documento, sono poche le informazioni che riguardano l’argomento. C’è l’intero web che potrebbe essere un back-up di ulteriori risorse per imparare, nella misura in cui lo studente sappia cercarle. […]

M. A.: Il contenuto fornito al discente viene personalizzato grazie a un software che riesce a comprendere quello che si sta studiando in quel momento?

C.T.: L’idea è che se io o lei dovessimo studiare un argomento, ponendo attenzione ad aspetti diversi dello stesso, il nostro estrattore di concetti produrrà soluzioni leggermente diverse, personalizzando il seguito dell’interazione, perché è partito da due prospettive differenti: se lei parla delle montagne del Friuli Venezia Giulia, analizzando gli aspetti economici, e io quelli sociodemografici, a lei interesserà l’enogastronomia o la selvicoltura, mentre io metterò in evidenza altri aspetti dello stesso concetto, quindi verranno fuori dei profili di interesse e dei risultati diversi.

M. A.: Quando parliamo di intelligenza artificiale, immaginiamo una disciplina che si concentra solo sull’analisi semantica? O ci sono anche molte altre discipline coinvolte? 

C.T.: L’intelligenza artificiale, definita come l’ho definita all’inizio del mio intervento, è una disciplina dell’informatica che cerca di analizzare, costruire e replicare, anche in un’ottica sperimentale, delle funzionalità ritenute “intelligenti”, come le nostre capacità cognitive (analisi del linguaggio, ragionamento) come i segnali che arrivano dai nostri sensi (vista, udito, tatto) come la capacità di costruire e di capire l’ambiente (movimento, manipolazione, interpretazione delle immagini e visione artificiale).[…] Negli ultimi anni tutto questo ha portato a una maggiore applicazione, dunque interessi: sono state intraviste opportunità, e di conseguenza investimenti e risultati. Stiamo entrando in questo mondo, in cui le tecniche tradizionali sono utilizzate in un contesto di big data, producendo dei risultati di impatto per tutti noi. Chissà quante cose che noi viviamo oggigiorno sono il risultato di un’analisi big data? Chi lo sa, per esempio, se il contratto che mia figlia vuole firmare con una tale compagnia telefonica, non sia nato da un’analisi big data? […]

M. A.: Una cosa che sarebbe interessante capire è questa: dato che non stiamo parlando di una disciplina in grado di fornire un software o di svolgere delle funzioni applicabili a qualsiasi scenario tecnologico, si immagina un futuro in cui ci saranno delle soluzioni preconfezionate di intelligenza artificiale?

C.T.: Ci sono ora vari framework (offerti open source) che consentono di svolgere operazioni di classificazione automatica dei testi e di individuare classi di argomenti servono per costruire sistemi che si basano su questi moduli di base. Nel mondo della visione, il fatto di avere sensori accoppiati ad algoritmi e a reti neurali sul cip di una telecamera, per riconoscere le cose che vengono richieste alla macchina, è il risultato di un’istruzione, ad esempio: dato il modo x di una persona di passare per un certo punto y, la telecamera segnali la prossima volta in cui x si verifica. Oppure si può anche immaginare un sistema che classifichi il contenuto di un’analisi sensoriale, attraverso un fascio di luce istruito a riconoscere diverse sostanze di un alimento, rilevandone la percentuale. Il risultato sarà un training fatto con gli strumenti del Machine Learning. Adesso c’è un grande fiorire di start up, di iniziative specifiche, di sistemi di raccomandazione in ambito turistico. Ci sono moduli già inseriti nelle applicazioni che usiamo. Comprare un pacchetto o un sistema chiuso, chiavi in mano, direi che non rientra nella casistica. […]

Staff skilla

Scritto da: Staff skilla il 31 Marzo 2016

Potrebbe interessarti anche

© Copyright 2024 Amicucci Formazione | P.IVA 01405830439 | Cap. Soc.: Euro 100.000,00 (i.v.) | C.C.I.A.A. (Macerata) | R.E.A. (149815) | Privacy policy | Cookie policy | Etica e compliance