Want to create interactive content? It’s easy in Genially!

Get started free

L’INTELLIGENZA ARTIFICIALE

PAOLO TASSINI

Created on September 26, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Transcript

L’INTELLIGENZA ARTIFICIALE

Paolo Tassini
Cos’è un’intelligenza artificiale?

Se applichiamo la definizione generica di intelligenza, il confine tra “intelligenza artificiale” e “intelligenza” diventa molto labile. Possiamo allora dire che qualsiasi sistema creato dagli umani e dotato della capacità di percepire, comprendere, prevedere e agire per ottenere uno scopo è una intelligenza artificiale. Quasi sempre, ma non necessariamente, deriva da un sistema informatico. Essendo creata dagli umani, solitamente siamo noi (o, meglio, gli sviluppatori) a definire quale sia il suo scopo. Per brevità chiameremo le intelligenze artificiali con la sigla “IA” (o, in inglese, “AI”). Alcuni esempi, limitati ma già in grado di svolgere il loro compito, possiamo trovarli negli algoritmi dei social e dei motori di ricerca, nelle automobili a guida autonoma, in alcuni robot e droni oltre a sistemi di analisi di supporto a diversi rami specialistici come la medina o la giustizia.

Come impara un’intelligenza artificiale?

TCi sono tre modi, oggi, per addestrare un’intelligenza artificiale a ottenere il suo scopo. Il primo è “non supervisionato” e prevede che l’IA “esplori” autonomamente dei grandi insiemi di dati e trovi il modo di comprenderli. Questo è il metodo più lento, all’inizio, ma che offre poi enormi potenzialità ed è utile perché permette all’IA di fare scoperte (o individuare schemi comportamentali) che potrebbero sfuggire alla mente umana. Un secondo modo è quello “supervisionato”: alla macchina vengono forniti degli insiemi specifici di dati e viene istruita su come gestirli e cosa cercare. Questo metodo arriva prima a dei risultati, ma è limitato dal contributo umano. È utile per creare degli “strumenti” in grado di svolgere più in fretta e con meno errori (e senza influenza emotiva) alcuni compiti come individuare celle cancerose o riconoscere i visi. Il terzo è basato sul “rinforzo”, o sull’analisi delle conseguenze delle decisioni. Alla macchina non viene fornito uno set di istruzioni, ma viene “premiata” o “punita” con rinforzi positivi o negativi a seconda del risultato ottenuto. Questo è il metodo più utilizzato per ottenere IA in grado di ottimizzare i processi (qualsiasi processo: dalla resa di un pacchetto azionario alla scelta di una terapia contro una malattia). Ovviamente, si possono usare tecniche miste di apprendimento che sfruttino uno o più di questi metodi.

Il funzionamento di un’IA è trasparente?

No. Gli algoritmi (ossia i programmi informatici) utilizzati per le intelligenze artificiali sono complessissimi e si basano sulle cosiddette reti neurali, ovvero processi che non seguono una linearità (come accade con i programmi informatici più semplici) ma imitano invece la struttura interconnessa e complessa del cervello umano. Il vantaggio è una potenza maggiore e, soprattutto, la capacità delle IA di apprendere e di migliorarsi. Lo svantaggio è che i loro “processi mentali” possono risultare del tutto incomprensibili sia agli utenti finali sia agli sviluppatori. In alcuni casi, questi ultimi possono intervenire sul codice soltanto osservando i risultati finali. IA che in un ambiente di addestramento si comportano alla perfezione, una volta all’opera possono dimostrare di perseguire risultati diversi da quelli desiderati, oppure di utilizzare metodi non convenzionali. Molte IA vengono sperimentate nei videogiochi, e succede che a volte ottengano il risultato (per esempio, guadagnare punti) compiendo azioni per noi assurde (ma stranamente efficaci).

Le intelligenze artificiali di oggi

'Dopo un approccio molto generico, spostiamo la nostra attenzione di alcune IA che esistono e che già lavorano attorno a noi. Alcune sono attive da anni e sono ormai così radicate nella nostra vita quotidiana che non ci accorgiamo nemmeno che ci sono. Altre, come i generatori di arte e di testi, sono venute alla ribalta negli ultimi tempi e sembrano lì lì per rivoluzionare il nostro modo di approcciarci al lavoro creativo. Oppure no? Gli aiutanti di smartphone e motori di ricerca vogliono davvero aiutarci? Digitiamo una parola nel campo di ricerca di Google e subito ci viene fornito un elenco di “proposte”. Sono basate sulle ricerche più “gettonate” dagli utenti del servizio? Non solo: tengono anche conto di cosa abbiamo ricercato nei giorni precedenti e sono quindi “su misura” per noi. Altri siti di commercio elettronico, o di servizi musicali, ci propongono offerte e play-list che a volte sembrano davvero riconoscere i nostri gusti. I social, poi, arrivano a studiare ogni nostro contributo e ogni nostro comportamento all’interno del social stesso (per esempio quanti millisecondi passiamo a guardare una certa foto prima di passare oltre). Lo scopo “ufficiale” è quello di offrici una “esperienza migliore”, o “contenuti adeguati alle nostre aspettative” o “proposte interessanti”. È tutto vero, ma è altrettanto vero che raccogliere tutte queste informazioni comportamentali su di noi è particolarmente vantaggioso per bersagliarci poi con pubblicità particolarmente mirate. Interessante, a questo riguardo, è il film/documentario The Social Dilemma, disponibile su Netflix.

Un’Intelligenza Artificiale può essere il dottore perfetto?

Al momento, le IA sono in grado di analizzare enormi quantità di dati medici riuscendo così a individuare schemi e correlazioni che sfuggirebbero alla maggior parte delle menti umane. Questo è molto utile nel campo della ricerca. Sono inoltre in grado di riconoscere attraverso diversi metodi di diagnostica la presenza, per esempio, di cellule cancerose. Il problema è che, in questo ambito, sono pericolosi sia i falsi negativi (scambiare per sano un malato), sia i falsi positivi (scambiare per malato un sano). Per questo motivo ci si sta orientando verso un sistema misto di diagnostica, con le IA che analizzano le immagini e un dottore umano che prende le decisioni finali sui casi più dubbi.

Nel futuro prossimo le illustrazioni saranno generate solo da Intelligenze artificiali?

Negli ultimi tempi il mondo creativo è stato scosso dall’invasione di Intelligenze Artificiali in grado di generare opere artistiche e illustrazioni. Il futuro dei creativi umani è segnato? Su quello a lungo termine non ci si può esprimere, ma al momento gli artisti non corrono ancora pericoli di estinzione. Le IA che generano arte non “creano” ma si limitano a riprendere elementi da un database di immagini. Inoltre la scelta non è effettuata sugli aspetti visivi ma sulle descrizioni testuali che sono state abbinate alle immagini di partenza. Ipotizziamo di richiedere l’immagine di un cane. L’intelligenza artificiale non conosce il concetto dell’animale, ma sa che le immagini catalogate come rappresentanti dei cani possiedono certi elementi comuni, e sono questi elementi che vengono utilizzati per creare l’immagine richiesta. Il risultato quindi può presentare dei cani incompleti, o “sbagliati”. Riuscire a ottenere un’immagine che rispecchi i nostri desideri e che non presenti alcun difetto è difficile e richiede molti tentativi. D’altro canto, la varietà di immagini generabili in tempi ridottissimi è immensa. L’intelligenza artificiale artistica, oggi, va quindi considerata come una fonte di spunti per gli artisti, o il generatore di un’immagine di partenza che richiederà però un intervento da parte di un artista umano. III PARTE – Le intelligenze artificiali generali del futuro Le intelligenze artificiali sono già tra di noi. Ma sono strumenti specifici, capaci di svolgere una sola funzione e con un “raggio d’azione” limitato. Questo non ci garantisce però che possano creare danni, se usate male o al di fuori del loro campo. Per esempio: un’auto a guida autonoma probabilmente non potrà mai “conquistare il mondo”, ma di certo può causare un incidente. È però allo studio tutto un altro genere di intelligenze artificiali, quelle cosiddette “generali” o “forti” (l’acronimo più usato è quello in inglese: A.G.I.). Queste, nell’obbiettivo degli sviluppatori, potranno “pensare” liberamente e intervenire su diversi aspetti del mondo che li circonda. Molte delle IA odierne, come quelle dedicate alla creazione dei testi, servono come base di sviluppo per le AGI. Le nostre ultime cinque domande sono dedicate a loro.

Un’Intelligenza Artificiale Generale sarà come quella umana?

Molto probabilmente no. L’intelligenza umana, che già ci sembra godere di enorme diversità legata all’individualità delle persone, in realtà rappresenta solo una serie di variazioni (anche grandi) basate però su un solo “modo di pensare”, quello appunto umano. Ma sarebbe sbagliato, e miope, pensare che si tratti dell’unico modo possibile. Un’IA Generale (detta solitamente AGI, dall’acronimo inglese) molto probabilmente sfrutterebbe schemi di “pensiero” molto diversi e a noi del tutto incomprensibili. Noi potremo valutare le sue azioni e reazioni, ma quasi sicuramente non potremo capire come siano state prese le decisioni. Questo è un fenomeno che già si riscontra nelle IA specifiche e più limitate (e quindi più facilmente studiabili): i loro processi decisionali ci possono apparire assurdi, eppure i risultati ottenuti rispondono (spesso) all’ottenimento dello scopo desiderato.

Ci sono dei pericoli nello sviluppo di un’Intelligenza Artificiale Generale?

Potenzialmente sì. Sarà di fondamentale importanza definire bene il suo scopo primario, poiché possiamo presupporre che una certa sicurezza che una AGI si opporrà a modifiche. Facciamo un esempio: se all’attivazione viene impostato lo scopo “A” e dal suo comportamento ci rendiamo conto di esserci sbagliati, potremmo cercare di modificare lo scopo in “B”. Ma l’AGI cercherà di ostacolare il cambiamento, poiché si rende conto che se nel futuro punterà a “B” significa che non otterrà più “A” e questo è contrario alla sua attuale “mentalità”, che è appunto di raggiungere “A”. La scelta degli scopi è un aspetto molto critico, anche perché le intelligenze artificiali ragioneranno in modo molto diverso dal nostro; quindi aspetti che noi diamo per scontati potrebbero non esserlo affatto per loro.

Siamo destinati a venire conquistati dalle Intelligenze Artificiali?

Non necessariamente. I rischi che corriamo nello sviluppo di algoritmi “pensanti” che potrebbero non avere il nostro benessere in cima alle loro priorità è serio e ben conosciuto. Per questo motivo, gli studiosi e gli sviluppatori continuano a verificare il comportamento delle IA attualmente esistenti (e relativamente innocue) per capire come raggiungano i loro risultati e, soprattutto, per imparare a fornire obbiettivi chiari (e privi di dannosi effetti collaterali) e ad addestrare le IA in modo che il loro comportamento sia sempre più allineato ai nostri desideri.