Tag - intelligenza artificiale

intelligenza artificiale
scatole oscure
Un’altra distopia è possibile. Lettera semiseria di Sam Altman dal futuro : un altro articolo di Stefano Borroni Barale dalla rubrica “Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio. Nella Silicon Valley sono convinti che le intelligenze artificiali generative (come ChatGPT) diventeranno presto più intelligenti dell’uomo e cominceranno a seguire fini propri. Stefano Borroni Barale immagina un'altra distopia fantascientifica, ma dagli esiti politicamente imprevedibili. Leggi il breve racconto qui: https://altreconomia.it/unaltra-distopia-e-possibile-lettera-semiseria-di-sam-altman-dal-futuro/
September 8, 2024 / C.I.R.C.E.
ricercatori
eventi
intelligenza artificiale
Il 31 maggio 2024 siamo stati invitati presso il Dipartimento di Architettura dell’Università degli Studi di Napoli Federico II per il seminario WHAT IF AI was used to promote active citizenship? Il seminario fa parte di un ciclo di 4 incontri coordinati da Sabrina Sacco incentrati sull’esplorazione di scenari alternativi legati a Intelligenza Artificiale (IA), Valori Collettivi e Processi Decisionali. Iscrizioni qui
May 21, 2024 / C.I.R.C.E.
editoria
intelligenza artificiale
scuola
insegnanti
featured
Pubblicato online il nostro articolo "Hacking IA" scritto per il n. 25 de La Ricerca Loescher. "Un testo generato da un LLM può essere stupefacente. Eppure, a uno sguardo più attento, non di rado si scoprono “errori” surreali, affermazioni deliranti, derive semantiche. Vengono chiamate “allucinazioni” della macchina (termine quanto mai scorretto). Il professore attento e lo studente scrupoloso possono individuare queste derive e sistemarle, ma è facile che l’attenzione dell’umano se ne faccia sfuggire qualcuna. Gradualmente queste “deviazioni”, deliri delle macchine, potrebbero diventare dati di base per nuovi allenamenti dei futuri sistemi, oltre a essere spacciate come informazioni; potrebbero quindi modificare l’infosfera in un modo tale che non sarà più possibile distinguere il vero dal falso, o comunque sarà difficilissimo, richiederà tempi lunghi, analisi minuziose, grande potenza di calcolo e sistemi forensi sempre più complessi. Dalle stelle della creatività umana alle stalle di una lotta tra macchine, fra quelle che delirano e quelle dovrebbero individuare i deliri, con umani inebetiti che cercano vanamente di destreggiarsi, di imbrogliare e arrabattare domande per condizionare sistemi che non comprendono. Ma è stato mai veramente possibile distinguere il vero dal falso?" Hacking IA: Una prospettiva hacker sull'Intelligenza Artificiale, articolo di Agnese Trocchi e Carlo Milani dal numero 25 de "La Ricerca". Qui il numero 25 de "La ricerca" in formato digitale
May 2, 2024 / C.I.R.C.E.
editoria
filosofia
intelligenza artificiale
Siamo felici di segnalare l'uscita in Francia di Que faire de l'intelligence artificielle? di Vivien García, edito da Rivages. Vivien García in Que faire de l'intelligence artificielle? ripercorre la nascita del progetto dell'IA e la sua evoluzione fino ai giorni nostri. Esamina i suoi principali approcci e alcuni dei risultati che hanno generato e non si limita al solo discorso tecnico ma si propone di instaurare un dialogo tra i suoi concetti chiave (algoritmi, reti neurali, sistemi esperti, modelli di fondazione, ecc.) Per saperne di più qui l'articolo su Le Monde.
January 30, 2024 / C.I.R.C.E.
editoria
intelligenza artificiale
"Tecniche e Miti: le trappole dell'intelligenza artificiale" è un e-BOOK de Gli Asini che vuole tracciare un percorso critico che metta in luce le problematiche dell'hype che accompagna il machine learning. Per farlo è necessario indagare l’IA da diversi punti di osservazione. Al numero abbiamo contribuito come C.I.R.C.E. con l'articolo "Nuove intelligenze, vecchi pregiudizi." Sull'Intelligenza Artificiale scrive la redazione: "In primo luogo proviamo a smontarne i meccanismi, mettendo in discussione la stessa denominazione: si tratta infatti di un apparato tecnologico che non è “intelligente” né “artificiale”. Ma l’analisi teorica deve essere accompagnata da affondi e carotaggi nella vita quotidiana, sempre più condizionata dall’uso dell’IA. Un uso discriminatorio, che può arrivare a impedire l’accesso ai servizi pubblici in base a valutazioni imponderabili legate al genere, all’orientamento sessuale, all’appartenenza etnica, oppure a ostacolare il movimento dei migranti e a precludere i loro diritti. Si tratta, in sostanza, di forme di limitazione non dichiarate dei diritti umani e dei diritti di cittadinanza, affidate agli automatismi di algoritmi." Per saperne di più su come ottenere l'e-book: https://gliasinirivista.org/27861-2/
December 15, 2023 / C.I.R.C.E.
editoria
intelligenza artificiale
scuola
insegnanti
È ora disponibile il n. 25 de La ricerca con un contributo di C.I.R.C.E dal titolo "Hacking IA". La rivista è disponibile interamente online e il cartaceo è in distribuzione nelle scuole secondarie di primo e di secondo grado. È online il pdf integrale ed è in distribuzione il numero 25 de La ricerca, “Uomini e bot”, in cui si ragiona sulle intelligenze artificiali, o «assistenti artificiali ad attività cognitive mediante prestazioni che imitano quelle umane» e basate su LLM, Large Language Models, ma anche sui programmi TTI, Text-to-image, o Text-to-video. Sono state coinvolte persone esperte in diversi settori, e guardando oltreoceano nel dossier, e alle prospettive didattiche nella sezione scuola. I contributi sono di Silvia Capodivacca, Stefania Cardinali, Simon Coghlan, Francesco D'Isa, Erkan Er, Marco Guastavigna, Mohammad Khalil, Maurizio Maglioni, Elvis Mazzoni, Carlo Milani, Tim Miller, Ubaldo Nicola, Jo Ann Oravec, Eleonora Pantò, Jeannie Paterson, Grazia Pozzi, Elena Rausa, Mauro Reali, Enzo Ruffaldi, Agnese Trocchi. Qui il numero 25 de "La ricerca" in formato digitale
December 15, 2023 / C.I.R.C.E.
internet
attivisti
radio
intelligenza artificiale
[/images/k/e/y/c/r/keycrime-d70b2edc.jpeg] "INTELLIGENZA ARTIFICIALE": GIOVE, IL NUOVO SISTEMA DI POLIZIA PREDITTIVA ITALIANO DI CUI SI SA POCHISSIMO da Radio Onda d'Urto Ascolta l'intervento di Jacopo Your browser does not support the audio tag. o vai alla fonte su Radio Onda d'Urto Si sa ancora poco di Giove, il nuovo sistema di polizia predittiva italiano che il Ministero dell’Interno vorrebbe dare in dotazione a tutte le questure d’Italia. Sviluppato dentro il Dipartimento di pubblica sicurezza del Ministero dell’Interno – sulla base delle sperimentazioni portate avanti dal 2008 dalla questura di Milano con il software KeyCrime – Giove si presenta come “un sistema di elaborazione e analisi automatizzata per l’ausilio delle attività di polizia”, come riporta Il Sole 24Ore, e sarebbe in grado di predire dove e quando i reati di maggior impatto sociale, come molestie sessuali, furti in abitazione e truffe agli anziani, potrebbero verificarsi nuovamente. Uno scenario che richiama la fantascienza e che solleva dubbi e perplessità tra gli addetti ai lavori, soprattutto per la comprovata incapacità attuale di questi sistemi di trovare corrispondenze con la realtà e per la loro tendenza a discriminare le persone in base all’etnia e alla provenienza geografica. Non solo, ad aumentare la preoccupazione è il fatto che nulla sia ancora stato detto circa alcuni aspetti fondamentali, come quali banche dati e dati verranno usati per addestrare l’algoritmo, chi sarà il responsabile del trattamento dei dati e se l’uso del sistema comporterà o meno arresti preventivi. Domande che hanno spinto alcuni senatori a depositare, qualche giorno fa, un’interrogazione parlamentare dedicata. Uno scenario inquietante, insomma, che potrebbe materializzarsi se il sistema otterrà il parere positivo del Garante della privacy. ne ha parlato Jacopo su Radio Onda D'urto Ascolta l'intervento di Jacopo Your browser does not support the audio tag. o vai alla fonte su Radio Onda d'Urto
June 9, 2023 / C.I.R.C.E.