Un’altra distopia è possibile. Lettera semiseria di Sam Altman dal futuro : un
altro articolo di Stefano Borroni Barale dalla rubrica “Scatole oscure.
Intelligenza artificiale e altre tecnologie del dominio.
Nella Silicon Valley sono convinti che le intelligenze artificiali generative
(come ChatGPT) diventeranno presto più intelligenti dell’uomo e cominceranno a
seguire fini propri. Stefano Borroni Barale immagina un'altra distopia
fantascientifica, ma dagli esiti politicamente imprevedibili. Leggi il breve
racconto qui:
https://altreconomia.it/unaltra-distopia-e-possibile-lettera-semiseria-di-sam-altman-dal-futuro/
Tag - intelligenza artificiale
Il 31 maggio 2024 siamo stati invitati presso il Dipartimento di Architettura
dell’Università degli Studi di Napoli Federico II per il seminario WHAT IF AI
was used to promote active citizenship?
Il seminario fa parte di un ciclo di 4 incontri coordinati da Sabrina Sacco
incentrati sull’esplorazione di scenari alternativi legati a Intelligenza
Artificiale (IA), Valori Collettivi e Processi Decisionali.
Iscrizioni qui
Pubblicato online il nostro articolo "Hacking IA" scritto per il n. 25 de La
Ricerca Loescher.
"Un testo generato da un LLM può essere stupefacente. Eppure, a uno sguardo più
attento, non di rado si scoprono “errori” surreali, affermazioni deliranti,
derive semantiche. Vengono chiamate “allucinazioni” della macchina (termine
quanto mai scorretto). Il professore attento e lo studente scrupoloso possono
individuare queste derive e sistemarle, ma è facile che l’attenzione dell’umano
se ne faccia sfuggire qualcuna. Gradualmente queste “deviazioni”, deliri delle
macchine, potrebbero diventare dati di base per nuovi allenamenti dei futuri
sistemi, oltre a essere spacciate come informazioni; potrebbero quindi
modificare l’infosfera in un modo tale che non sarà più possibile distinguere il
vero dal falso, o comunque sarà difficilissimo, richiederà tempi lunghi, analisi
minuziose, grande potenza di calcolo e sistemi forensi sempre più complessi.
Dalle stelle della creatività umana alle stalle di una lotta tra macchine, fra
quelle che delirano e quelle dovrebbero individuare i deliri, con umani
inebetiti che cercano vanamente di destreggiarsi, di imbrogliare e arrabattare
domande per condizionare sistemi che non comprendono.
Ma è stato mai veramente possibile distinguere il vero dal falso?"
Hacking IA: Una prospettiva hacker sull'Intelligenza Artificiale, articolo di
Agnese Trocchi e Carlo Milani dal numero 25 de "La Ricerca".
Qui il numero 25 de "La ricerca" in formato digitale
Siamo felici di segnalare l'uscita in Francia di Que faire de l'intelligence
artificielle? di Vivien García, edito da Rivages.
Vivien García in Que faire de l'intelligence artificielle? ripercorre la nascita
del progetto dell'IA e la sua evoluzione fino ai giorni nostri. Esamina i suoi
principali approcci e alcuni dei risultati che hanno generato e non si limita al
solo discorso tecnico ma si propone di instaurare un dialogo tra i suoi concetti
chiave (algoritmi, reti neurali, sistemi esperti, modelli di fondazione, ecc.)
Per saperne di più qui l'articolo su Le Monde.
"Tecniche e Miti: le trappole dell'intelligenza artificiale" è un e-BOOK de Gli
Asini che vuole tracciare un percorso critico che metta in luce le problematiche
dell'hype che accompagna il machine learning. Per farlo è necessario indagare
l’IA da diversi punti di osservazione. Al numero abbiamo contribuito come
C.I.R.C.E. con l'articolo "Nuove intelligenze, vecchi pregiudizi."
Sull'Intelligenza Artificiale scrive la redazione: "In primo luogo proviamo a
smontarne i meccanismi, mettendo in discussione la stessa denominazione: si
tratta infatti di un apparato tecnologico che non è “intelligente” né
“artificiale”. Ma l’analisi teorica deve essere accompagnata da affondi e
carotaggi nella vita quotidiana, sempre più condizionata dall’uso dell’IA. Un
uso discriminatorio, che può arrivare a impedire l’accesso ai servizi pubblici
in base a valutazioni imponderabili legate al genere, all’orientamento sessuale,
all’appartenenza etnica, oppure a ostacolare il movimento dei migranti e a
precludere i loro diritti. Si tratta, in sostanza, di forme di limitazione non
dichiarate dei diritti umani e dei diritti di cittadinanza, affidate agli
automatismi di algoritmi."
Per saperne di più su come ottenere l'e-book:
https://gliasinirivista.org/27861-2/
È ora disponibile il n. 25 de La ricerca con un contributo di C.I.R.C.E dal
titolo "Hacking IA". La rivista è disponibile interamente online e il cartaceo è
in distribuzione nelle scuole secondarie di primo e di secondo grado.
È online il pdf integrale ed è in distribuzione il numero 25 de La ricerca,
“Uomini e bot”, in cui si ragiona sulle intelligenze artificiali, o «assistenti
artificiali ad attività cognitive mediante prestazioni che imitano quelle umane»
e basate su LLM, Large Language Models, ma anche sui programmi TTI,
Text-to-image, o Text-to-video.
Sono state coinvolte persone esperte in diversi settori, e guardando oltreoceano
nel dossier, e alle prospettive didattiche nella sezione scuola.
I contributi sono di Silvia Capodivacca, Stefania Cardinali, Simon Coghlan,
Francesco D'Isa, Erkan Er, Marco Guastavigna, Mohammad Khalil, Maurizio
Maglioni, Elvis Mazzoni, Carlo Milani, Tim Miller, Ubaldo Nicola, Jo Ann Oravec,
Eleonora Pantò, Jeannie Paterson, Grazia Pozzi, Elena Rausa, Mauro Reali, Enzo
Ruffaldi, Agnese Trocchi.
Qui il numero 25 de "La ricerca" in formato digitale
[/images/k/e/y/c/r/keycrime-d70b2edc.jpeg]
"INTELLIGENZA ARTIFICIALE": GIOVE, IL NUOVO SISTEMA DI POLIZIA PREDITTIVA
ITALIANO DI CUI SI SA POCHISSIMO
da Radio Onda d'Urto
Ascolta l'intervento di Jacopo
Your browser does not support the audio tag.
o vai alla fonte su Radio Onda d'Urto
Si sa ancora poco di Giove, il nuovo sistema di polizia predittiva italiano che
il Ministero dell’Interno vorrebbe dare in dotazione a tutte le questure
d’Italia.
Sviluppato dentro il Dipartimento di pubblica sicurezza del Ministero
dell’Interno – sulla base delle sperimentazioni portate avanti dal 2008 dalla
questura di Milano con il software KeyCrime – Giove si presenta come “un sistema
di elaborazione e analisi automatizzata per l’ausilio delle attività di
polizia”, come riporta Il Sole 24Ore, e sarebbe in grado di predire dove e
quando i reati di maggior impatto sociale, come molestie sessuali, furti in
abitazione e truffe agli anziani, potrebbero verificarsi nuovamente.
Uno scenario che richiama la fantascienza e che solleva dubbi e perplessità tra
gli addetti ai lavori, soprattutto per la comprovata incapacità attuale di
questi sistemi di trovare corrispondenze con la realtà e per la loro tendenza a
discriminare le persone in base all’etnia e alla provenienza geografica. Non
solo, ad aumentare la preoccupazione è il fatto che nulla sia ancora stato detto
circa alcuni aspetti fondamentali, come quali banche dati e dati verranno usati
per addestrare l’algoritmo, chi sarà il responsabile del trattamento dei dati e
se l’uso del sistema comporterà o meno arresti preventivi. Domande che hanno
spinto alcuni senatori a depositare, qualche giorno fa, un’interrogazione
parlamentare dedicata.
Uno scenario inquietante, insomma, che potrebbe materializzarsi se il sistema
otterrà il parere positivo del Garante della privacy.
ne ha parlato Jacopo su Radio Onda D'urto
Ascolta l'intervento di Jacopo
Your browser does not support the audio tag.
o vai alla fonte su Radio Onda d'Urto