Fino adesso la differenza fra un computer e l'uomo si è sempre basata sulla capacità umana di creare qualcosa di artistico: sia esso un poema o un dipinto, la scintilla della creatività sembra essere una prerogativa dell'homo sapiens. Ma con l'avvento delle intelligenze artificiali, ogni giorno leggiamo notizie di nuovi progressi, di computer e robot che imparano dall'ambiente esterno e riescono ad interagire con le persone e ad interpretare le loro emozioni.
Dopo aver annunciato al Comiket di agosto 2017 l'apertura del sito Makegirls.moe per creare la propria ragazza anime ideale, lo studente cinese Yanghua Jin dell'università Fudan, è andato oltre e durante un seminario tenutosi a Tokyo lo scorso marzo ha presentato un programma di intelligenza artificiale che riesce a creare anime partendo da una foto.
Usando il Deep Learning, un metodo di apprendimento analitico, il programma, per ogni tentativo di disegno, analizza i suoi successi e i suoi fallimenti e impara da essi, in modo che la sua capacità di creare una versione anime di una persona partendo da una foto andrà sempre migliorando.
Jin ha introdotto il concetto di Generative Adversarial Networks (GAN): due reti dette generatore e discriminatore che collaborano fra di loro. Il generatore produce immagini anime partendo da una foto, avendo come riferimento un archivio di disegni da cui attingere per decidere il colore dei capelli o degli occhi, se i capelli sono lunghi o corti e se la bocca è aperta o chiusa. Una volta completato un primo disegno lo passa al discriminatore che confronta quindi le immagini che il generatore ha prodotto con il suo database per determinare se l'immagine è nuova e originale oppure frutto di un collage mal riuscito.
Le due reti imparano dai loro errori, il generatore sta gradualmente migliorando la produzione delle immagini, mentre il discriminatore diventa più bravo nel giudicare se le immagini sono belle oppure no. Agli inizi i risultati lasciavano alquanto a desiderare, i volti erano spesso deformi ma in un lasso di tempo relativamente breve, le immagini sono diventate molto più realistiche, tanto che ad occhio nudo si sarebbe fatto fatica a capire se l'immagine fosse stata disegnata a mano o al computer. Considerando che questo è solo il progetto di uno studente universitario, il potenziale che si può intravedere è decisamente notevole.
Su internet la notizia è stata commentata in maniera abbastanza positiva:
"Il miglioramento è così rapido, all'inizio sembravano mostri, ma ora ..."
"Quindi i computer possono creare immagini. Quanto tempo ci vorrà per scrivere e disegnare manga?"
"Whoa, quelle ragazze moe generate al computer sono davvero carine."
"Quanto ci vorrà prima che il computer ci prenda gusto e inizi a produrre hentai?"
Servirà ancora la creatività umana o fra qualche decina di anni farà tutto una AI?
Fonte consultata:
SoraNews
Dopo aver annunciato al Comiket di agosto 2017 l'apertura del sito Makegirls.moe per creare la propria ragazza anime ideale, lo studente cinese Yanghua Jin dell'università Fudan, è andato oltre e durante un seminario tenutosi a Tokyo lo scorso marzo ha presentato un programma di intelligenza artificiale che riesce a creare anime partendo da una foto.
Usando il Deep Learning, un metodo di apprendimento analitico, il programma, per ogni tentativo di disegno, analizza i suoi successi e i suoi fallimenti e impara da essi, in modo che la sua capacità di creare una versione anime di una persona partendo da una foto andrà sempre migliorando.
Jin ha introdotto il concetto di Generative Adversarial Networks (GAN): due reti dette generatore e discriminatore che collaborano fra di loro. Il generatore produce immagini anime partendo da una foto, avendo come riferimento un archivio di disegni da cui attingere per decidere il colore dei capelli o degli occhi, se i capelli sono lunghi o corti e se la bocca è aperta o chiusa. Una volta completato un primo disegno lo passa al discriminatore che confronta quindi le immagini che il generatore ha prodotto con il suo database per determinare se l'immagine è nuova e originale oppure frutto di un collage mal riuscito.
Le due reti imparano dai loro errori, il generatore sta gradualmente migliorando la produzione delle immagini, mentre il discriminatore diventa più bravo nel giudicare se le immagini sono belle oppure no. Agli inizi i risultati lasciavano alquanto a desiderare, i volti erano spesso deformi ma in un lasso di tempo relativamente breve, le immagini sono diventate molto più realistiche, tanto che ad occhio nudo si sarebbe fatto fatica a capire se l'immagine fosse stata disegnata a mano o al computer. Considerando che questo è solo il progetto di uno studente universitario, il potenziale che si può intravedere è decisamente notevole.
Su internet la notizia è stata commentata in maniera abbastanza positiva:
"Il miglioramento è così rapido, all'inizio sembravano mostri, ma ora ..."
"Quindi i computer possono creare immagini. Quanto tempo ci vorrà per scrivere e disegnare manga?"
"Whoa, quelle ragazze moe generate al computer sono davvero carine."
"Quanto ci vorrà prima che il computer ci prenda gusto e inizi a produrre hentai?"
Servirà ancora la creatività umana o fra qualche decina di anni farà tutto una AI?
Fonte consultata:
SoraNews
Suppongo di sì, i robot vengono già inseriti in molti campi, non passerà molto tempo prima che invadano anche quello dell'animazione (occidentale o orientale che sia).
Il reddito universale lo faranno nel villaggio dei puffi o in svizzera! nella gran parte del mondo semplicemente una fetta di popolazione risprofonderà nella miseria. L'unica fortuna è che l'IA ancora non esiste, questo è solo rudimentale machine lerning.
Ho analizzato due poesie di 小冰 assieme alla mia insegnante di cinese. Il problema é che sono piene di errori grammaticali! Ad oggi non possono essere considerate arte, sono solamente il frutto di una serie di 0 e 1 creati spontaneamente da una macchina. Ogni verso sembra un pezzo di un quadro differente (magari anche colorato male), che porta ad una visione d'insieme confusa e sconnessa. Per quanto mi riguarda, oggi l'arte appartiene ancora all'uomo perché solo l'uomo è in grado di darle un senso (gli errori di xiaobing non sono giustificati). In futuro inutile dire che non lo so e sapere che ora esistono macchine che un giorno potrebbero sostituire i disegnatori o addirittura gli scrittori mi spaventa. Ma non penso che una sostituzione definitiva avverrà mai: solo una persona può avere quel fattore determinante chiamato "stile" e, a meno che qualche casa editrice non voglia tentare il suicidio abbattendo ogni tratto distintivo dei vari creatori, le macchine non avranno vita facile in questo settore.
A onor di cronaca il "reddito universale" è stato oggetto di votazione in Svizzera poco meno di due anni fa ed è stato affossato con il 76,9% di contrari.
https://www.bk.admin.ch/ch/i/pore/va/20160605/det601.html
Grazie mille. Non mi sembra che 小冰 abbia molti errori grammaticali, ma a volte non faccia senso davvero. Ho detto che non posso distinguere i poemi composti da 小冰, forse è perche non mi sono abituato a capire i poemi. Lo so e lo spero che l'arte sia una cosa che appartenga di sempre agli esseri umani, tuttavia temo che l'arte diventi un pregiudizio retrospettivo un giorno.
"The Next Rembrandt", in cui è nato questo:
Cercatelo su youtube se siete interessanti.
Scherzi a parte, questo articolo è molto interessante! Nonostante la capacità di migliorarsi di questi sistemi, credo che non si sostituiranno facilmente al disegno umano ed alle tecniche attuali, altrimenti sarebbe già accaduto. Per quanto un programma sia comodo e veloce, non avrà mai quel tocco in più che caratterizza un lavoro umano.
Ipnotico...
Questo programma sceglie in base a dei preset (quindi più che disegnare compone), e "impara" a "comporre bene" sulla base di machine learning (che però non significa che la macchina impara davvero qualcosa, significa semplicemente che il programma memorizza i propri errori per evitare di ripeterli... questioni complesse in cui siamo ancora all'inizio).
Insomma siamo lontani dalla creatività umana (i giornalisti come loro solito, non essendo del campo, esagerano un po').
PS. Aggiungo... Anche i programmi sono frutto dell'ingegno umano e sono prodotti artistici. Quindi anche nel caso fantascientifico in cui i computer riuscissero a disegnare anime, chi lo fa sarebbe in realtà il programmatore che ha creato quell'AI in grado di disegnare.
Dove devo firmare per prendere parte al progetto?
Immagino che per gli hentai useranno solamente foto di ragazze occidentali XD
È un male essere lontani dalla creatività umana? Di certo le macchine non riusciranno prima di moltissimi anni a creare qualcosa di innovativo ma il rimescolamento è qualcosa che esiste anche in versione "umana" in ogni campo. Basti partire dal presupposto che il 90% degli anime siano praticamente fotocopie di altri già esistenti, stile grafico diverso, storia che prende pezzi da mille altri allo scopo di produrre qualcosa di diverso, ecc.
Si ritorna ad una domanda che ci si pone già oggi sul mercato degli anime attuale fatto da persone vere: è veramente possibile innovare?
Forse non riusciranno a sfornare un nuovo evangelion ma già sistemarsi nella media sarebbe una gran cosa. Avremo una ulteriore abbondanza di anime "solo" belli e si riserverà agli studi d'animazione fatti da persone vere il compito di fare roba di nicchia per i palati più sopraffini.
Questo lavoro preliminare attuale è comunque qualcosa non da poco che potrebbe sostituire facilmente le produzioni in rotoscoping e semplificare notevolmente la creazione di anime assumendo un cast di attori piuttosto che uno di disegnatori.
Queste tecniche hanno anche molto senso in campo di grafica 3D, anzichè usare attori veri possono anche ripiegare su modelli 3D approssimati e darli in pasto a questa IA.
Anche per i manga più "tranquilli" la cosa è fattibile. Qualunque ragazzino potrà andare in giro a fare fotografie e sfornare un manga semplicemente inventando la storia senza avere alcuna capacità artistica (al massimo gli serve registica)
Insomma ci sono molteplici casi in cui questa cosa ha molto senso, anche fosse solo come fase preliminare su cui lavorarci successivamente con rifiniture a mano.
Resta comunque da vedere quanto lavoro dovranno fare per dare consistenza alle immagini in movimento. Per quelle statiche è relativamente facile ed un paio di striature su un cavallo non è tutta sta gran roba visto l'obiettivo che si pongono.
Comunque per quel (pochissimo) che so di machine learning, non penso che un processo di questo tipo possa creare qualcosa di davvero creativo.
Guarda... il fatto è questo:
ad oggi siamo così lontani che è pura fantascienza aspettarsi che un computer produca il peggior anime fotocopia uscito negli ultimi anni.
Non è questione di innovare... è proprio questione di produrre.... I computer non sanno pensare, quel che gli viene fatto fare è tutta una serie di operazioni che danno risultati simili a quelli ottenuti dagli esseri umani, se passando per strade diverse da quelle del ragionamento umano.
Al momento si lavora più che altro sul risultato ed è questo il vero limite.
Le macchine producono solo sulla base di input umani, imparano sulla base di condizioni e feedback dati dagli umani, sono in pratica solo strumenti (tipo la matita) molto avanzati... da sole non potrebbero fare proprio nulla.
Per gli esseri umani imparare ad imitare e comporre un disegno significa poterlo usare in contesti diversi e creare qualcosa.
Le macchine non sono versatili da questo punto di vista, un programma che trasforma facce reali in disegni anime con un certo stile non può adattarsi a fare altro.
Non può creare disegni con uno stile differente, non può creare animazioni per quel tipo di disegno, non può neanche disegnare il resto del corpo (per dire una cosa banale), non può scrivere le battute dei personaggi, non può disegnare e scegliere gli sfondi ecc....
Per fare tutto il resto bisogna creare tutta una serie di altri programmi... e tutta questa serie di altri programmi si può creare solo con l'aiuto di vari artisti che lavorino insieme ai programmatori per arrivare alla creazione di uno strumento che sarà in grado alla fine di produrre un solo tipo di anime.
Insomma... è più probabile che, come in ambito videogiochi, nascano degli "engine" che si occupano della parte tecnica (che nei videogiochi equivale alla gestione della fisica) per poi lasciare la creazione del prodotto vero e proprio agli esseri umani... Strumenti che insomma semplificheranno la vita dei creatori ma che non si sostituiranno ad essi.
In realtà la tecnologia attuale di intelligenza artificiale è molto avanzata e non dissimile da ragionamenti umani. Ci sono investimenti su larga scala sia lato software che (sopratutto!) lato hardware sotto questo campo che attualmente è in pieno sviluppo.
Le macchine attualmente sono in grado di ragionare e produrre risultati autonomamente dati soltanto degli stimoli ed un'obiettivo ben preciso senza bisogno di dati umani, vedasi i bot che giocano a dota o che riescono a muovere esseri di forme indefinite. Oggetti umanoidi che si muovono in maniera stramba ma estremamente funzionale. E queste sono cose che esistono e funzionano da moltissimi anni. (primo risultato di esempio che ho trovato https://youtu.be/gn4nRCC9TwQ ) Il livello attuale è elevatissimo e limitato probabilmente soltanto dall'hardware (si vedrà con i computer quantistici cosa si potrà e non potrà fare per ottimizzare questo ambito) che necessita di mesi di "allenamento" per imparare a fare cose basilari e quindi per produrre qualcosa ci vorrebbe un periodo di tempo infinito.
Il motivo per cui gli diamo in pasto dati umani è molto semplice: dargli un'obiettivo.
Le macchine sono già in grado di produrre cose autonomamente, tuttavia non è bello buttare corrente a caso, ciò che devono produrre è qualcosa che piaccia a noi umani e su questo non cè e non ci sarà mai modo se non quello di insegnargli dandogli in pasto cose reali.
Tutte queste tecniche che stanno inventando servono solo per accorciare le tempistiche e dargli una mano su come indirizzarsi. Dopotutto la più grande differenza tra una macchina ed un'uomo è principalmente il nostro bagaglio di memorie di milioni di anni che chiamiamo istinto. Ciò che gli serve è semplicemente quello, il problema è che non è così facile da descrivere ad una macchina cosa esso sia.
Cosa certa su cui concordano praticamente tutti in questo campo è che quando meno te lo aspetti ad un certo punto ci sarà un balzo quasi istantaneo. Non ha quindi nemmeno senso parlare di tempistiche lunghe solo perchè "sembra" che i risultati attuali siano ancora lontani dall'obiettivo finale.
Un conto è un'AI che gioca a Dota (quella te la posso creare pure io). Un conto è un'AI in grado di creare un'anime. Siamo su due livelli completamente differenti.
La realtà è che Siri e gli altri assistenti vocali ancora riescono a rispondere solo a frasi predefinite.
La realtà è che tutte le varie AI non si adattano a comportamenti imprevisti (tanto che recentemente un'AI di tesla ha investito un pedone, e tesla ha dovuto ricordare ogni 15 secondi all'utente di tenere le mani sul volante).
La realtà è che c'è ancora un sacco di strada da fare e, anche se c'è stato un salto enorme, è avvenuto solo in specifiche situazioni (esempio le AI che giocano a scacchi... dove l'adattabilità non è prerequisito perché esistono metodi per prevedere se una mossa è corretta o sbagliata e metodi per far sì che l'AI possa avere un feedback automatico positivo o negativo), non in generale.
Poi credi quel che ti pare, personalmente (essendo del settore) non credo alla fantascienza... se esistessero AI così avanzate per me sarebbe tutto di guadagnato (programmerei un artista e lascerei il lavoro che non sono in grado di fare: modelli 3D, musica, disegni, al programma.... o magari lascerei fare il programma stesso all'AI), sfortunatamente non esiste nulla di simile (anzi pure programmare è un lavoro d'artigianato).
Devi eseguire l'accesso per lasciare un commento.