Le discussioni sull'Intelligenza Artificiale sono all'ordine del giorno e pervadono i settori più disparati. Dal 13 marzo, per la prima volta nella storia, esiste una legge votata dal Parlamento dell'Unione Europea: l'AI Act. La normativa è volta a tutelare i diritti fondamentali e la dignità delle persone in correlazione ai rischi derivati dallo sviluppo delle nuove tecnologie dell'IA.
L'AI Act è il primo regolamento mondiale sull'intelligenza artificiale ed è stato siglato dai paesi membri dell'UE per normare l'utilizzo dell'Intelligenza Artificiale generativa, cioè quella volta a "creare" da zero prodotti, testi, immagini e così via partendo da un database su cui viene addestrata. Dovranno sottostare all'AI Act sia fornitori che beneficiari dell'AI: i prodotti "vagliati" saranno identificabili con un marchio di conformità europeo e correlato di documentazioni specifiche.
Le leggi verranno applicate su larga scala, sia al pubblico che al privato all'interno dell'UE, ma non solo: qualsiasi uso esterno all'UE dell'intelligenza artificiale che ha però un mercato nell'Unione Europea o verrà usato su persone appartenenti all'UE, dovrà sottostare all'AI Act.
Il testo integrale dell'AI Act è disponibile online a questo link. Tuttavia la legge non sembra essere ancora valida dal momento che ancora deve essere tradotta in tutte le lingue dei paesi aderenti, adattato alle normative di ciascuno di essi (passaggio che necessita di un voto del Parlamento e il via libera del Consiglio UE).
L'AI Act divide i sistemi di intelligenza artificiale in categorie in base al rischio, cioè una divisione etica e basata sull'impatto che può avere l'uso dell'IA sulla vita dei cittadini. Per esempio nella categoria degli usi proibiti dell'AI ci sono situazioni come la manipolazione del comportamento umano, la categorizzazione biometrica su casi sensibili, la raccolta massiccia di volti dal web o il riconoscimento delle emozioni.
Saranno invece permessi gli usi a basso impatto come i filtri spam. Il regolamento però tiene d'occhio le general-purpose AI, come ChatGPT e OpenAI, chiedendo agli sviluppatori di essere trasparenti circa il materiale usato per l'addestramento dei modelli e interfacciarsi con l'UE in relazione alle leggi sul copyright. Molti artisti, infatti, si sono lamentati dell'uso improprio di opere altrui per la creazione di database di addestramento delle IA: immagini, testi, musiche, tutto viene dato in pasto all'IA senza badare alle proprietà intellettuali.
Dragos Tudorache ha dichiarato che l'AI Act è solo un punto di partenza di una nuova linea governativa che abbraccia la tecnologia.
Mentre la Cina ha vagliato una serie di leggi dedicate all'AI, gli Stati Uniti hanno visto il Presidente Joe Biden dichiarare un ordine esecutivo che imponeva a tutti gli sviluppatori di Intelligenza Artificiale di condividere i dati con il governo USA. Ma stando a Enza Iannopollo, analista, al momento l'AI Act è il primo e unico prontuario di requisiti per mitigare il rischio dell'Intelligenza Artificiale.
Fonti consultate:
BBC
Wired
Sole 4 ore
AI Act testo reso pubblico
L'AI Act è il primo regolamento mondiale sull'intelligenza artificiale ed è stato siglato dai paesi membri dell'UE per normare l'utilizzo dell'Intelligenza Artificiale generativa, cioè quella volta a "creare" da zero prodotti, testi, immagini e così via partendo da un database su cui viene addestrata. Dovranno sottostare all'AI Act sia fornitori che beneficiari dell'AI: i prodotti "vagliati" saranno identificabili con un marchio di conformità europeo e correlato di documentazioni specifiche.
Le leggi verranno applicate su larga scala, sia al pubblico che al privato all'interno dell'UE, ma non solo: qualsiasi uso esterno all'UE dell'intelligenza artificiale che ha però un mercato nell'Unione Europea o verrà usato su persone appartenenti all'UE, dovrà sottostare all'AI Act.
Il testo integrale dell'AI Act è disponibile online a questo link. Tuttavia la legge non sembra essere ancora valida dal momento che ancora deve essere tradotta in tutte le lingue dei paesi aderenti, adattato alle normative di ciascuno di essi (passaggio che necessita di un voto del Parlamento e il via libera del Consiglio UE).
L'AI Act divide i sistemi di intelligenza artificiale in categorie in base al rischio, cioè una divisione etica e basata sull'impatto che può avere l'uso dell'IA sulla vita dei cittadini. Per esempio nella categoria degli usi proibiti dell'AI ci sono situazioni come la manipolazione del comportamento umano, la categorizzazione biometrica su casi sensibili, la raccolta massiccia di volti dal web o il riconoscimento delle emozioni.
Saranno invece permessi gli usi a basso impatto come i filtri spam. Il regolamento però tiene d'occhio le general-purpose AI, come ChatGPT e OpenAI, chiedendo agli sviluppatori di essere trasparenti circa il materiale usato per l'addestramento dei modelli e interfacciarsi con l'UE in relazione alle leggi sul copyright. Molti artisti, infatti, si sono lamentati dell'uso improprio di opere altrui per la creazione di database di addestramento delle IA: immagini, testi, musiche, tutto viene dato in pasto all'IA senza badare alle proprietà intellettuali.
Dragos Tudorache ha dichiarato che l'AI Act è solo un punto di partenza di una nuova linea governativa che abbraccia la tecnologia.
Mentre la Cina ha vagliato una serie di leggi dedicate all'AI, gli Stati Uniti hanno visto il Presidente Joe Biden dichiarare un ordine esecutivo che imponeva a tutti gli sviluppatori di Intelligenza Artificiale di condividere i dati con il governo USA. Ma stando a Enza Iannopollo, analista, al momento l'AI Act è il primo e unico prontuario di requisiti per mitigare il rischio dell'Intelligenza Artificiale.
Fonti consultate:
BBC
Wired
Sole 4 ore
AI Act testo reso pubblico
Importantissimo.
Mi dispiace inquietarti di più ma non è futuro, è presente. Russia e Cina sono già così, cerca social scoring.
Noi occidente stiamo prendendo spunto, basta che ti soffermi a vedere quante telecamere ad alta definizione sono installate in tutte le città per renderti conto che la cosa è più grave di quanto sembri.
Fortuna che l'Europa stia facendo qualcosa ma come abbiamo visto in passato fatta la legge trovato l'inganno.
😅
Già così chatgpt è fenomale. Con la versione a pagamento ho provato a caricare vari documenti (più di 500 pagine) e riesce ad estrarmi in 5 secondi le informazioni che mi servono.
Ho provato anche a fare varie domande a trabochetto e piano piano sta migliorando, se all'inizio ci cascava ora non succede quasi più.
Fenomale.
Credo sia giusto iniziare a mettere dei paletti, non si sa mai dove certe nuove tecnologie possano andare a parare o derivare.
Scherzi a parte, come già detto da altri, questa tecnologia deve essere regolamentata, altri in futuro un suo pessimo uso potrebbe creare danni, anche (speriamo di no) gravi.
Domanda: qualcuno crede davvero che gli altri Stati (Cina in primis) adotteranno simili "regole" e rispetteranno quelle Europee? Ma siamo seri?
Posto che già adesso molti LLM sono bloccati da regole etiche assurde.
A me sembra che i legislatori si siano guardati troppo Terminator 2 e non abbiano capito che cosa gli LLM possono e non possono fare.
E che gli LLM non sono AI, sono solo sistemi che rigurgitano informazioni una volta ricevute altre informazioni.
Qualcuno ha citato le tre leggi della robotica di Asimov: beh, sono un espediente letterario, ma la fondazione alla base è reale - un modello (e quindi anche un LLM) non può andare "oltre" il modo in cui il modello stesso è stato progettato.
Le regole ci devono essere per proteggere le persone oneste e per bene da questa gentaglia.
Purtroppo non viviamo in un mondo ideale.
Le aziende non stanno puntando sull'intelligenza artificiale per farci un favore, lo fanno per guadagnare sia soldi che potere e per poter licenziare più gente possibile, come già hanno fatto.
Guardate cosa sta succedendo in ambito traduzione, tra le testate giornalistiche, nel mondo dell'arte... ed è solo questione di tempo prima che tocchino anche altre posizioni di lavoro. Non parliamo poi del problema privacy.
Persino quello che scrivete qui verrà usato dall'IA senza il vostro permesso e senza che nessuno vi paghi un centesimo.
L'IA potrebbe essere utile in ambito medico, di ricerca e in vari settori, ma se credete che sia quello l'interesse principale siete degli illusi.
Vogliono fare soldi col minimo sforzo e controllare ogni aspetto delle vostre vite.
Le persone serie sanno che lo Stato/EU non ha alcun monopolio di moralità, in quanto composto di persone fallibili quanto chiunque altro (e le assurde direttive uscite in questi anni in Europa sono un chiaro esempio di ciò).
E che la soluzione è rendere meno conveniente i comportamenti illegali, non cercare di legiferare manco fossimo nella Russia comunista.
Qualcuno ricorda le grida manzionane? Stessa cosa.
Anche perché queste "regole" non serviranno a nulla, perché l'innovazione e l'impresa si muovono molto più velocemente degli Euroburocrati (come la Vestager che la concorrenza manco sa che cosa sia).
E quale sarebbe il problema di fare soldi?
Veramente questo lo vuole fare l'Unione Europea e anche molti Stati nel mondo.
QUoto.
Oliver Stone quando girò Snowden fu più chiaro di Snowden stesso. Il controllo non è roba di oggi ma obbiettivo di sempre e le nuove tecnologie hanno facilitato questo aspetto. Ho citato il film di Stone perché gli eventi narrati nel film, nel libro , arrivano ad essere svelati dopo un tot di anni. QUindi la gente è venuta a sapere di certe "situazioni" dopo. E solo per fughe di notizie.
Se oggi a noi è concesso sapere questo sulla AI e derivati, figuriamoci il non detto a quale stadio avanzato è. Il livello è mostruoso. Fuori controllo. C'è da preoccuparsi eccome ma non tutti. Perché i giovani sono e i prossimi saranno "abitutati" a certi sistemi. Sarà la norma. Quello che oggi ci sembra alieno, per loro sarà normale. Controllati, indottrinati, manipolati. Non gliene potrà fregar di meno...
Gli Stati e L'UE non sono innocenti, ma è un altro discorso.
Qui si parla di uno strumento che se non regolamentato porterà disoccupazione, sfruttamento illecito dei contenuti altrui, gravissimi problemi di privacy ed utilizzo dei propri dati.
Ormai nessuna legge risolverà del tutto il problema, perché è uno strumento troppo potente in mano a chi vuole solo fare cassa o comandare e se ne frega se per farlo ne dovrà abusare, che sia Stato o azienda, ma è sciocco non vedere il problema o remare contro un minimo di tentativo di dire "No cazzo, non potete usarlo per queste cose".
Ci sono le analisi costi benefici? (il minimo che mi aspetterei con regolamenti del genere) Ovviamente no, perché l'EU ben si guarda dal dire che regolamenti del genere (come il New Green Deal ha ampiamente dimostrato) porteranno molti problemi e zero benefici reali.
Le "regole" devono essere fatte in modo che si disincentivi la condotta illecita. Di contrasto se sono come quelle europee, cavillose, burocratiche, che danneggiano chi produce ricchezza (che non e' lo Stato) allora l'incentivo a delinquere è sicuramente maggiore.
Ma chi ha parlato di moralità? Si parla di (cyber)sicurezza, di protezione della privacy e delle categorie a rischio.
Non si può creare una giungla cyber informatica in barba alla civiltà ed al buon senso in nome del progresso.
Come tutte le scienze, innovazioni e scoperte vanno provate e verificate perché siano sicure.
Chiedere che non ci siano regolamenti è un po' come chiedere che la morfina diventi un farmaco da banco.
Regolamentare non vuol dire soffocare ma rendere sicuro per tutti.
Dipende. Le autorità statunitensi tendono a legiferare quando c'è evidenza di problemi, mentre quelle europee lo fanno in base alla probabilità che si verifichino. Questo principio di precauzione evidentemente soffoca non poco l’innovazione.
Se è per questo le autorità Statunitensi non se ne fregano un accidente dei rischi finché non è troppo tardi.
Infatti non hanno neanche la metà delle leggi che tutelano la nostra privacy qui, e fanno un po' quello che vogliono con i tuoi dati.
Se oggi puoi chiedere a qualunque sito di rimuovere le tue informazioni personali lo devi proprio a queste leggi, che servono a questo e non a soffocare l'innovazione.
Preferisco innovare con i giusti tempi e responsabilmente, non avere tutto subito al costo dei miei diritti calpestati.
Ma chi decide cosa è giungla e cosa no? Se lo Stato almeno si attenesse criteri minimi (chessò, quelli enunciati da Adam Smith) potrei anche capire, ma qui si sta cercando, sulla base di "forse", "magari", di imbavagliare un'opportunità di investimenti non da poco, con la scusa del "bene comune" (che non esiste).
Si chiama rapporto costo-beneficio.
Ma anche se fosse così, l'UE sta esattamente facendo l'opposto con le sue altre iniziative (New Green Deal o la follia del Next Generation EU), per cui come ci si può fidare di un organismo che non segue il rapporto costo beneficio oppure non lo prende manco in considerazione?
Sicuro, basta vedere come è andata in Italia negli ultimi quarant'anni.
Il principio alla base del GDPR ha molto senso. L'applicazione, invece, è una porcheria.
Il problema non è l'IA, siamo noi.
Per quello che mi riguarda i regolamenti non mi devono proteggere dall'IA (che anzi mi affascina non poco) ma dagli esseri umani che la userebbero a scopi criminali.
Ma questo vale anche per chi governa. Sono fallibili uguali. QUindi, perché dovrebbero avere un potere di supremazia oltre al minimo sindacale? Ribadisco, l'EU ha collezionato follie e continua a farle, ignora i rapporti costi benefici, ecc.
L'innovazione si fa tenendo le regole al minimo. Non creando castelli di carta assurdi che 1) non proteggono per niente 2) favoriscono corruzione, clientelismi e malavita 3) danneggiano chi fa andare avanti la baracca.
In questi anni abbiamo cercato di regolare l'universo, e i risultati sono sotto gli occhi di tutti: deindustrializzazione, crisi energetica, crisi della rappresentanza. Per gli LLM (che non sono AI) bisognerebbe fare l'opposto.
La regolamentazione direi che ci sta, poi vedremo come evolverà.
Devi eseguire l'accesso per lasciare un commento.