editoria
intelligenza artificiale
scuola
insegnanti
featured
Pubblicato online il nostro articolo "Hacking IA" scritto per il n. 25 de La
Ricerca Loescher.
"Un testo generato da un LLM può essere stupefacente. Eppure, a uno sguardo più
attento, non di rado si scoprono “errori” surreali, affermazioni deliranti,
derive semantiche. Vengono chiamate “allucinazioni” della macchina (termine
quanto mai scorretto). Il professore attento e lo studente scrupoloso possono
individuare queste derive e sistemarle, ma è facile che l’attenzione dell’umano
se ne faccia sfuggire qualcuna. Gradualmente queste “deviazioni”, deliri delle
macchine, potrebbero diventare dati di base per nuovi allenamenti dei futuri
sistemi, oltre a essere spacciate come informazioni; potrebbero quindi
modificare l’infosfera in un modo tale che non sarà più possibile distinguere il
vero dal falso, o comunque sarà difficilissimo, richiederà tempi lunghi, analisi
minuziose, grande potenza di calcolo e sistemi forensi sempre più complessi.
Dalle stelle della creatività umana alle stalle di una lotta tra macchine, fra
quelle che delirano e quelle dovrebbero individuare i deliri, con umani
inebetiti che cercano vanamente di destreggiarsi, di imbrogliare e arrabattare
domande per condizionare sistemi che non comprendono.
Ma è stato mai veramente possibile distinguere il vero dal falso?"
Hacking IA: Una prospettiva hacker sull'Intelligenza Artificiale, articolo di
Agnese Trocchi e Carlo Milani dal numero 25 de "La Ricerca".
Qui il numero 25 de "La ricerca" in formato digitale