Editoriale Poesia & Rete (appuntamento n°12)
Continua, con questo dodicesimo incontro, l'editoriale su Poesia & Rete, a cura di Alessandra Corbetta, un progetto trasversale alle pubblicazioni del blog che proverà a monitorare, attraverso interventi di diversa natura, lo stato delle interrelazioni tra il linguaggio poetico e le dinamiche del Web.
Chi volesse segnalarci studi o ricerche su questo argomento o desiderasse contribuire ad arricchire con competenza il dibattito, può farlo scrivendo a redazione@almapoesia.it, specificando in oggetto “Editoriale Poesia & Rete”; tutto il materiale pervenuto verrà sottoposto a lettura e quello ritenuto più interessante e valevole verrà proposto all’interno del progetto.
L'ospite di oggi è Vincenzo Della Mea, poeta e professore associato di Sistemi di Elaborazione delle Informazioni presso l’Università di Udine che, con Clone 2.0, uscito per la Gialla di Pordenonelegge-Samuele Editore a settembre 2023, ha dato vita a un interessante esperimento di applicazione dell’IA alla produzione di testi poetici.
Per Clone 2.0 (Samuele Editore-Pordenonelegge, 2023, collana Gialla), la tua ultima pubblicazione in versi, ti sei avvalso dell’utilizzo dell’intelligenza artificiale, in particolar modo di GPT-2.
Vorrei ci raccontassi da dove è nata questa idea e ci accompagnassi passo passo nelle tappe che hanno condotto alla realizzazione del libro così come noi oggi lo leggiamo.
Sono professore di Informatica, se non lo faccio io chi lo fa? A parte gli scherzi, parte del mio lavoro come ricercatore nell'ambito dell'informatica medica si basa sulla sperimentazione di sistemi di intelligenza artificiale (o più propriamente di machine learning) per il supporto alla decisione in ambito medico. Io mi occupo prevalentemente di due aree: le immagini di anatomia patologica, che sono ottenute tramite microscopio, e la codifica di documenti clinici con classificazioni biomediche (grossomodo, dei dizionari di termini specialistici standardizzati). Nel primo caso, l'obiettivo principale è classificare: capire per esempio quale diagnosi è ottenibile da un'immagine, o che tipo di cellula è ritratta in una porzione di immagine; e compiti derivati, quali per esempio la segmentazione (delineare tutti i nuclei in un'immagine, o le tipologie di tessuti presenti, eccetera). Nel secondo caso, l'obiettivo è tipicamente identificare quali entità (diagnostiche, procedurali, anatomiche, eccetera) sono identificabili dentro un testo clinico, e possibilmente anche a quali sequenze di caratteri corrispondono.
Anche se apparentemente il secondo caso d'uso, relativo al testo, è più vicino all'ambito poetico, l'origine dei miei primi esperimenti di generazione di versi è dovuta alle immagini da microscopio. Infatti erano comparsi i primi sistemi in grado di produrre immagini verosimili, le cosiddette Reti Generative Avversariali (GAN). All'epoca si trattava di immagini relativamente grezze, con numerose allucinazioni, cani e gatti con più di due occhi o mani con sei dita. Così nel 2019, assieme ad un tesista ed un paio di colleghi, ho addestrato una di queste reti su immagini istopatologiche di metastasi, e poi mostrate ad un patologo per vedere se erano realistiche (e lo erano).
Io avevo pubblicato da relativamente poco tempo la raccolta di tutte le mie poesie (Storie Naturali, Raffaelli Editore 2016), con cui avevo deciso di chiudere con un certo tipo di scrittura, e non avevo ancora trovato una strada nuova. Ma esistevano già da un po' alcuni modelli di reti neurali fatte per generare testo, e anche a seguito dell'esperimento sulle immagini, ho deciso di sperimentare uno di questi modelli, in particolare le Reti Neurali Ricorrenti. Poiché avevo bisogno di testi, ho iniziato a fare a mano ciò che fanno i motori di ricerca automaticamente: ho setacciato il Web, ovviamente sapendo dove andare a parare, per raccogliere poesie di autori italiani, e qualcosa in traduzione. Ad un certo punto ho raccontato del mio esperimento a Mario Turello, un critico letterario udinese appassionato di combinatoria ed altre cose peculiari che mi ha accompagnato negli anni nelle mie incursioni tra poesia e informatica, e mi ha regalato una collezione di CD di poesie usciti molti anni fa con il Corriere della Sera. Ho dovuto fare lavoro di reverse engineering per capire come erano codificate nel CD ed ho estratto pure quelle. Con un training set di circa 12000 poesie ho quindi fatto i miei primi addestramenti utilizzando un software open source che semplifica le varie operazioni [https://github.com/minimaxir/textgenrnn/].
Avendo stabilito fin dall'inizio di non ritoccare il prodotto della rete, prima di tutto ho dovuto fare in modo che l'a-capo dei versi e l'a-capo delle strofe fossero presenti e distinti, perché volevo che fossero parte di ciò che la rete doveva apprendere e non qualcosa da determinare a posteriori. Questo l'ho fatto codificando opportunamente i testi con un programmino scritto apposta.
L'esito di quel primo esperimento era molto grezzo: erano versi che presentavano spesso errori sintattici, o anche ortografici. Per gli ultimi ho realizzato un programma che confrontava tutto con un vocabolario italiano, scartando i tesi con errori evidenti. Quelle poesie le ho comunque presentate pubblicamente in un paio di occasioni nel 2019 e 2020 come "Clone 0.9", ma nel frattempo era comparsa GPT-2, con grande impatto mediatico perché pareva generare testo di ottima qualità.
Diversamente dai modelli più recenti, GPT-2 era addestrata solo inglese, ma era open source, per cui un gruppo di ricercatori pisani aveva riaddestrato la stessa architettura su documenti italiani, ottenendo quindi un modello usabile nella nostra lingua [https://huggingface.co/LorenzoDeMattei/GePpeTto/]. Si noti che i modelli del linguaggio come GPT-2 non sono fatti per rispondere a domande come ChatGPT: sono in grado di generare testo a completamento di un incipit fornito dall'utente, prendendo come contesto ciò che è stato fornito e prodotto in precedenza. Poiché anche il modello italiano era stato messo a disposizione, ho raffinato il suo addestramento sottoponendogli lo stesso training set che avevo usato per il primo esperimento, sempre con un software dello stesso autore del precedente [https://github.com/minimaxir/aitextgen]. L'esito è stato immediatamente superiore, perlomeno dal punto di vista ortografico e sintattico, a meno di qualche errore di concordanza di genere e di tempo. Ho però ripetuto l'addestramento più volte variando la composizione del training set e iterando l'addestramento con sottoinsiemi più ridotti perché, con un contenuto iniziale dominato da poesie relativamente antiche, il linguaggio riprodotto era antiquato. Inoltre, avendo in mente già quella che poi sarebbe diventata la prima sezione del libro, ho anche introdotto testi non poetici relativi a neuroscienze e reti neurali, in modo da introdurre anche del linguaggio relativo all'esperimento stesso.
Da qui a considerare poesie tutto il prodotto però c'era molta strada, fatta essenzialmente controllando e scartando buona parte della produzione. Inoltre il modello ogni tanto restituiva interi versi delle poesie di addestramento, per cui con un altro programma che ho scritto apposta ho confrontato tutti i testi prodotti con quelli di addestramento, scartando quelli che presentavano troppe citazioni esplicite (chiamiamole così...). Dato che c'ero, ho scartato automaticamente i testi troppo lunghi, perché la tenuta sul lungo era scadente. Alla fine, posso stimare il meno del 10% la percentuale di testi che ho ritenuto di inserire nella raccolta, rispetto al totale di quelli generati. Una prima selezione di quelle poesie, come Clone 1.0, è comparsa su Nazione Indiana nel 2020 [https://www.nazioneindiana.com/2020/10/09/clone-1-0/].
Riguardo la generazione, può avvenire in due modi: a partire da un incipit fornito dall'utente, oppure in modo del tutto casuale (dove la prima parola è generata a caso e diventa incipit per quella successiva, e via così). Inoltre, poiché questi sistemi sono probabilistici, è possibile determinare l'"improbabilità" di una generazione con un parametro detto "temperatura". In sostanza, il sistema genera ogni volta un insieme di continuazioni candidate da cui pescarne una a caso. Se la temperatura è bassa, solo le parole più probabili in un determinato contesto entrano a far parte dei candidati; se è alta, potranno essere scelte anche parole meno probabili. Seguendo il Calvino di Cibernetica e fantasmi, vorrei cercare le mie poesie nel disordine, non nell'ordine della tradizione.
Io ho sperimentato con temperature diverse, e prima di tutto con la generazione totalmente casuale. Questi esperimenti si ritrovano nelle due sezioni "Predizioni" ed "Alta temperatura". La sezione "Il Clone secondo il Clone" è invece ottenuta con degli incipit che ho scelto per stimolare delle risposte in qualche modo introspettive ("Il clone", "La mia rete", "Generare poesie", ...). Alla fine ho deciso di mettere questa sezione in apertura perché è una sorta di presentazione della "personalità" del Clone; e probabilmente è il lato più interessante dell'esperimento. Pensando di creare un Clone che fosse più mio, ho provato anche a passargli come incipit i primi versi di alcune mie poesie (quelle de "I sogni della guerra", che erano comparse anni fa su Nuovi Argomenti), per vedere cosa avrebbe potuto scrivere, ma il risultato non è stato interessante.
GPT-2 è stata superata, in pochissimo tempo, da CHAT GPT-3 e, soprattutto, da CHAT GPT-4, dove il salto qualitativo nella produzione di risposte è stato notevole.
Hai sperimentato la scrittura di nuovi testi con queste versioni evolute di IA? Quali differenze hai riscontrato? In che modo questi strumenti possono (se possono) essere integrati con la scrittura poetica?
Mentre la generazione di testi di servizio - riassunti, traduzioni, schematizzazioni - effettivamente pare notevole, chi ha provato a chiedere poesie a tema a ChatGPT sa che l'esito è infantile, tendenzialmente in rima, retorico, scontato. Qualcosa di simile, a pensarci, capita anche con le immagini: pur tecnicamente ben fatte, come rileva Varnelis [https://varnelis.net/california-forever-or-the-aesthetics-of-ai-images] sono tendenzialmente kitsch.
C'è un fondo di ragione comune: i sistemi che generano testo o immagini sono addestrati in modo quantitativamente prevalente su Web, che a sua volta contiene prevalentemente contenuti amatoriali. Quindi la conoscenza linguistica, grafica, stilistica è quella prima di tutto amatoriale. In seconda battuta, ma non troppo, sono sistemi fatti prima di tutto per essere utilizzati con soddisfazione dalla stessa popolazione che ha prodotto i contenuti con cui sono stati addestrati. Per cui sono fatti per accontentare quello stesso tipo di gusto.
D'altro canto, sono anche sistemi in grado di interpretare prompt complessi, ovvero istruzioni che possono definire con una certa precisione quel che ci aspettiamo dall'output, forzando così i sistemi stessi a produrre qualcosa più vicino alla nostra sensibilità, sempre però entro il recinto di ciò che è stato appreso. Francesco D'Isa ["La rivoluzione algoritmica. Arte e intelligenza artificiale". Sossella, 2024] a questo proposito ricorda che l'utilizzo artistico di questi strumenti (riferendosi principalmente alle immagini) non può prescindere dalla capacità di controllare lo strumento, sia tramite prompt, sia in modi possibilmente più approfonditi.
Tra GPT-2 c'è una differenza sostanziale riguardo le possibilità di utilizzo: GPT-2 era open source, i modelli successivi no (anche se ne esistono altri, con prestazioni dello stesso tipo, che lo sono, come Mistral ed in parte LLama di Meta). Per D'Isa il controllo del modello passa anche per la possibilità di addestrarlo o raffinarlo su un proprio training set contenente ciò che ci interessa come riferimento, che è in sostanza ciò che ho fatto io con il Clone, ma che tanti modelli commerciali non permettono.
Riprodurre quindi esattamente il mio esperimento nelle stesse modalità con un modello raffinato come GPT-3.5 o 4 è tecnicamente fattibile, ma praticamente impossibile. Al momento, non posso prendere GPT-3.5 o 4 e continuare l'addestramento sul mio training set come ho fatto con GPT-2. Potrei farlo con Mistral o Llama, ma con costi ben diversi da quelli che ho sostenuto per GPT-2 (qualche decina di euro per la GPU su Google Cloud), perché sono modelli estremamente più grandi e necessitano di risorse hardware più costose. Ho avuto modo di discutere alcune delle conseguenze in ambito scientifico del costo di questi sistemi in un numero speciale della rivista Filigrane intitolato "Verifica delle scienze" ("La scienza e la poesia dell'Intelligenza Artificiale Generativa". Filigrane 2023; III(1), p.109-118.).
Detto questo, una caratteristica che nel tempo è cambiata tra i vari modelli è la dimensione della finestra di contesto, ovvero la quantità di prompt che il modello riesce ad utilizzare per generare il testo. Questo può consentire, in linea di principio, di passare a ChatGPT (o le sue sorelle) istruzioni precise magari accompagnate da esempi, anche in passaggi successivi, sperando di riuscire a piegare i risultati secondo le proprie specifiche. Gli altri due esempi a me noti che sfruttano GPT-3 sono andati in questa direzione: "I am code - An Artificial Intelligence speaks" (uscito a firma del modello utilizzato, una delle varianti di GPT-3: code-da-vinci-002, con tre curatori umani)[https://www.hachettebookgroup.com/titles/code-davinci-002/i-am-code/9780316560061/] e "Poetry has no future unless it comes to an end: poems of artificial intelligence" di Charles Bernstein, che si è fatto aiutare da Davide Balula per addestrare un sistema sulle sue proprie poesie [https://www.neroeditions.com/product/poetry-has-no-future-unless-it-comes-to-an-end-poems-of-artificial-intelligence/ ].
Successivamente al Clone 2.0 ho fatto esperimenti sia con ChatGPT che con Mistral in questa direzione, ma ancora non in modo approfondito e soddisfacente.
Per chi ha voglia di sperimentare, un primo suggerimento è quello di chiedere a ChatGPT di impersonare una figura di cui diamo le caratteristiche, fornendo esempi di poesie a cui ispirarsi, ed in iterazioni successive cercare di liberarsi degli aspetti più scontati dei testi prodotti. Per chi invece ha tentazioni combinatorie ma non sa programmare, a ChatGPT si possono descrivere determinate funzioni ed ottenere il programma che le implementa; ed anche farglielo eseguire ottenendo dei risultati.
A tutto questo però si contrappone il fatto che stiamo parlando di strumenti prodotti da aziende con criteri aziendali, uno dei quali è evitare possibili problemi legali. Per cui c'è una forma di autocensura che deriva sia dall'addestramento dei sistemi, sia dal fatto che ogni nostro prompt è preceduto da un "system prompt" che dà indicazioni al sistema riguardo, per esempio, la gestione della menzione di autori ancora coperti da diritti. Se nella generazione di articolini per l'uno o l'altro medium questo limite conta poco, nella produzione artistica ritrovarsi con dei limiti sull'espressione di concetti che abbiamo a che fare per esempio con la sessualità (e con chissà cos'altro) è inaccettabile. Zach Weinersmith è un fumettista che tratta spesso temi relativi a IA e robotica con un occhio che non trovo in altri commentatori, e anche sul tema censura si è espresso con una striscia divertente ma realistica (NSFW) [https://www.smbc-comics.com/comic/human-arts]. Ci sono esperimenti che hanno portato i sistemi a tradire questi vincoli, ma non con tecniche alla portata di tutti.
Il tuo lavoro per questa pubblicazione ha reso ancora più evidente che la rivoluzione digitale, con l’ampia portata di cambiamenti indotti, ha determinato anche una trasformazione del linguaggio, in termini sia di significante che di significato.
In che modo si è attuata e si sta tutt’ora attuando questa modificazione linguistica in riferimento alla poesia contemporanea? Si è già creato, da questo punto di vista, un punto di non ritorno?
Non penso di essere la persona più adatta a rispondere a questa domanda. Io andrei a cercare le modificazioni linguistiche prima di tutto in altri ambiti: la lingua che parliamo, quella che scriviamo con i mezzi correnti... ogni nuovo strumento produce delle ricadute (poesie in misura di SMS e poi di Tweet, Google poetry, ...). Per me si tratta di situazioni estemporanee che si evolvono con la velocità della tecnologia. Quando nel 2007 con Lietocolle ho curato l'antologia "Verso i bit - Poesia e computer", l'impressione complessiva che ne ho avuto era di un'adesione tutto sommato superficiale alle novità, a meno di qualche guizzo interessante. Tra questi, ricordo i tentativi di Giuseppe Cornacchia di scrivere poesie nel linguaggio di programmazione C; e Alessandro Broggi che usava il computer per selezionare i versi delle sue poesie.
Anche il mio Clone parla una lingua tutto sommato "nota". Semmai, nella prima sezione, è interessante cosa riesce a dire di sé; ma lo fanno molto bene anche i "Ciberneti" di Terzago, le macchine che sono già tra noi e di cui non ci rendiamo conto.
Posso invece riportare di alcuni influssi peculiari nell'ambito della letteratura scientifica. Come è noto anche da notizie recenti sui giornali, c'è chi utilizza ChatGPT per la scrittura di articoli scientifici, prima di tutto per revisionare la lingua, ma anche per riassumere lo stato dell'arte, fare sintesi, ecc. Uno studio ha di recente dimostrato che anche i peer reviewer usano ChatGPT per valutare gli articoli: ed è stato notato perché la frequenza di alcuni aggettivi e avverbi (un po' pomposi, nello stile di ChatGPT, ed anomali nella scrittura scientifica) è aumentata in modo evidente dopo l'uscita di questi sistemi. Questo è un effetto tangibile di ChatGPT sullo stile di un tipo particolare di scrittura.
Carl Sagan scrive che «Viviamo in una società profondamente dipendente dalla scienza e dalla tecnologia, nella quale quasi nessuno sa qualcosa di scienza e tecnologia» rimandando alla teoria, sociologicamente codificata, secondo cui le affordance delle piattaforme rendono questi strumenti user friendly, facilmente maneggiabili cioè dai loro utilizzatori, sebbene, il più delle volte, a questa abilità manuale non corrisponda minimamente una conoscenza delle dinamiche che sottostanno e che regolano la realtà digitale.
Quali sono i rischi che questo gap continua a generare e dei quali la maggior parte degli utenti continua a restare inconsapevole? Che tipo di interventi occorrerebbe figurare per tentare di ridurre questo spazio cavo?
Chiara Valerio ha intitolato il suo ultimo pamphlet "La tecnologia è religione" non a caso (Einaudi 2023). Io insegno anche a studenti universitari di Medicina e delle Professioni Sanitarie, non informatici quindi, dove il mio obiettivo è proprio togliere la patina magica agli strumenti che finiranno per utilizzare nel loro lavoro. Ci siamo abituati a considerare le tecnologie dell'informatica come strumenti alla pari di quelli più semplici a nostra disposizione. Ma mentre, forse, possiamo rassegnarci a non sapere come funziona la lavastoviglie, quelle che un tempo erano avvisaglie, ora proprio con l'intelligenza artificiale sono una precisa necessità: non avere un'idea di come funzionano degli oggetti che in certi ambiti hanno comportamenti simili al nostro, tanto da poterci parzialmente sostituire, può essere pericoloso. Anche perché sono strumenti il più delle volte prodotti da grandi aziende il cui primo pensiero non è certo la nostra capacità di comprensione.
La soluzione proposta da Chiara Valerio è, in sintesi, studiare. Io per la mia parte ho aggiunto almeno un po' di introduzione all'intelligenza artificiale in ogni corso che tengo. Ed è probabilmente la soluzione, anche se non è immediato capire dove trovare lo spazio per imparare cose nuove. Anche perché sarebbe opportuno conoscere qualcosa di più anche di altre aree che influenzano la nostra vita; penso per esempio all'economia, e alle poesie di Marco Amore che la usa nei suoi testi ("L'oro del mondo", Samuele Editore 2023).
L’uso dell’IA in relazione alla creazione di testi poetici in che rapporto si pone rispetto ai concetti di memoria, identità e ibridazione? Da Clone 2.0 cosa emerge rispetto a queste tematiche?
Questa è una domanda interessante cui non è semplice rispondere. Un modello del linguaggio diventa una sorta di grande memoria collettiva da cui si può attingere con rapidità, più di quanto si faccia usualmente con i motori di ricerca (che in fondo condividono la stessa base di testi). Se lo pensiamo come strumento per il poeta, idealmente potrebbe fornire una scorciatoia per l'accesso a testi di vario tipo, ma per il discorso fatto prima sulla questione diritti, non è detto che il modello restituisca intatti i contenuti del suo training set (anzi, di solito proprio no). Inoltre l'addestramento dei modelli è costoso, per cui di solito non viene effettuato di continuo, ma "ogni tanto". Ad oggi per esempio ChatGPT si ferma ad aprile 2023. Una soluzione a questa staticità è già presente nelle ultimissime versioni a pagamento per mezzo delle tecniche RAG (Retrieval Augmented Generation): quando il modello non possiede un contenuto, lo cerca su Web e lo reinterpreta. Questo apre però ad allucinazioni e contenuti poco controllati, come si è visto di recente con l'introduzione in Google delle AI Overview [https://www.wired.it/article/google-ai-overviews-errori/].
Comunque sia, questa grande memoria è collettiva anche nel senso che è spersonalizzata, ed al momento non apprende qualcosa dell'utente dalla storia delle sue chat, anche se ChatGPT ha appena introdotto una nuova funzione appunto in questa direzione. Si tratterà di capire come questa nuova memoria fattuale ma discreta e volontaria possa interagire con la memoria umana, e come questo possa portare ad una sorta di ibridazione, ad un vero Clone di noi stessi sotto forma di ciò che decidiamo di affidare alla macchina per essere ricordato (mentre noi ci ricordiamo anche ciò che varrebbe la pena di dimenticare). Da qualche anno in ambito scientifico si usa il termine "digital twin" per indicare la riproduzione digitale di un oggetto, processo o sistema che, grazie ad un continuo interscambio di dati, evolve in parallelo al suo gemello fisico. In ambito biomedico il digital twin è visto come un metodo per predire l'evoluzione della malattia, o la risposta ad un trattamento. Un sistema di IA con qualche forma di memoria in grado di fornire l'individualizzazione del suo comportamento potrebbe effettivamente diventare un nostro gemello digitale almeno dal punto di vista intellettuale.
Il Clone 2.0 da questo punto di vista è un esperimento ancora immaturo. Io ho cercato di raffinare il modello verso i miei gusti e contenuti, ma la tecnologia utilizzata permette fino ad un certo punto di fare ciò che Roberto Cescon mi aveva suggerito, cioè addestrare sulle mie letture e sui miei poeti preferiti e basta. Ciononostante, penso si capisca anche da come ne scrivo, ho una percezione ambivalente del Clone e di ciò che ha scritto. Ho firmato io il libro ma ho dovuto pensarci; sono io l'autore perché la scelta dei testi è in un certo senso dominante rispetto al metodo con cui sono stati scritti; ma ne parlo spesso come se fosse qualcun altro. E questo mi permette anche di mantenere una certa distanza: c'è un io, ma non sono io.
Ti chiedo, per concludere, di condividere qualche testo tratto da Clone 2.0 e di commentarcelo alla luce degli spunti fin qui emersi.
Visti gli spunti, mi concentro sulla prima sezione del libro, "Il Clone secondo il Clone". Ribadisco che non ho toccato i testi: mi sono limitato a scegliere, a mio gusto, e quindi ciò che il Clone racconta di sé l'ho deciso io sia a livello di incipit che poi di selezione, ma tra le tante cose che ha generato "lui"...
Però come esercizio si può provare a leggere la prima sezione come se fosse scritta da qualcuno o qualcosa, una nuova forma di vita che parla di sé.
Anche gli esergo sono generati: questo è il primo.
Io sono il clone
e scrivo queste cose che ho dentro:
che non posso capire e che mi devono piacere.
Questi versi sono stati scritti prima delle attuali grandi discussioni sull'Intelligenza Artificiale Generale e sulla possibilità che sistemi come questi siano in grado di "capire", qualunque cosa significhi. In questo esergo il Clone dice qualcosa in proposito: se leggessimo senza pregiudizi, "sa" che ha dentro un modello del linguaggio, ma non comprende di cosa tratti.
Con l'incipit "Il clone" ho creato un testo composto da 5 poesie, tra cui quella che segue:
II
Il clone
è in realtà un sistema
che continua ad assorbire il potere dell’uomo.
Il Clone si rivela nelle sue intenzioni... Questa potrebbe piacere a chi ritiene l'IA necessariamente pericolosa.
Una strofa dalla V, che è composta da brevissime poesie sempre con lo stesso incipit:
Il clone morto
è già in vita
e il mondo che mi aspetta
è un altro clone.
Il Clone come modello del linguaggio addestrato non è un essere vivente. Eppure, interrogato, sembra in vita, e produce testo che si riferisce al clone - gemello digitale del mondo.
III
Io sono il clone,
mio unico clone
che non è mai stato.
Ti chiedo una volta sola: sono io e tu
il burattino di cui sei l’artefice.
Nel penultimo verso sarei potuto intervenire per cambiare quel "io e tu" in "io o tu", più immediato e sensato. Ho lasciato così, questo è il testo generato dal Clone nella sua ambivalenza.
V
La mia rete
ne è un’immagine e non una traccia
ma uno spartito musicale
in cui appenderla la bellezza.
Questa poesia suggerisce un modo di interpretare il sistema di IA come strumento nelle mani di chi riesce a comprendere lo spartito e dotarlo di bellezza.
Con questo finisco l'esercizio. Considerato che ho assegnato un significato a dei testi generati casualmente, seppure guidati dalla probabilità che appaiano in quel contesto, l'esito ricorda un po' quello che si fa con I Ching o i Tarocchi.
Comments