Tutti gli articoli su

home Heuresis Medialismo & AI (prima parte)

Medialismo & AI (prima parte)

1. Viviamo nella cosiddetta illusione iconografica, una società dove la maggior parte delle informazioni «generative», o di quotidiana «assimilazione digitale», sono veicolate anche e soprattutto attraverso un assiduo e persuasivo utilizzo dei new media. Penso che, per un critico d’arte o un critico di arti multimediali, interrogarsi sul significato delle immagini o dei materiali plurimediali oggi sia fondamentale. D’un tratto la gente sembra essere d’accordo con noi critici d’arte: la cultura dell’immagine e dell’arte contemporanea è ovunque. Ce l’hanno gli artisti concettuali, le gallerie d’arte, le fiere, le biennali di Venezia, le triennali e quadriennali, i giovani studenti delle accademie, dei DAMS, le donne, le persone di mezza età, tutti nella propria particolare versione, tutti nella propria cassetta degli attrezzi. Dove queste versioni si incontrano, la cassetta degli attrezzi diventa di collisione culturale (o, come ricordiamo dal precedente capitolo mediale). Qualche giorno fa, Brian Eno ha ricevuto il Leone d’oro alla carriera alla Biennale Musica di Venezia e, nel suo discorso, ha rispolverato la contrapposizione tra “genio” e “scenio”. Eno nega di essere un “genio”, perché rifiuta il concetto di creatività individuale, così come in sede antifondazionalista hanno fatto altri autori dello strutturalismo e del post-strutturalismo semiologico. Ma, allo stesso tempo, propone l’idea di “scenio”, ovvero di una genialità collettiva. Secondo Eno, l’artista non è un solitario illuminato dall’alto, come nell’immaginario romantico, ma un componente “discreto” di una rete virtuosa e comunitaria. In questo senso, l’artista non sarebbe altro che un ricettore-interattivo, in grado di articolare l’intelligenza del suo ambiente e la generatività del suo strumento collettaneo. E il merito di un’opera andrebbe, almeno in parte, ridistribuito a tutto l’entourage. Eno sposta la questione più in là, operando un passaggio generativo e più radicale, rispetto agli artisti dell’ultima Kassel.

Ammiriamo pubblicità dell’Industria informatica, dove i prodotti di text-to-image suscitano accesi dibattiti sulla rilevanza estetica e culturale delle iconografie prodotte. La diffusione dei programmi di intelligenza artificiale generativa applicati all’arte – come per esempio Dal-E2, Mid Journey, Strable Diffusion, Night cafè – hanno prodotto la nuvola sperequativa contemporanea. L’arte generativa utilizza algoritmi e processi computazionali per creare opere. Alla base del verbale creativo ci sono direttive e misure predefinite su cui gli operatori estetici avviano l’algoritmo, arrivando ad un risultato finale spesso inaspettato. Questi algoritmi possono essere progettati per generare opere casuali o seguirne precise direttive estetiche. Con Arte Generativa, ci si riferisce a quel tipo di arte che è stata creata quasi interamente con l’uso di un sistema autonomo non umano, che determina le caratteristiche di un’opera, nate da percorsi risolutivi individuali. Le componenti coinvolte nel processo generativo sono, dunque: l’artista generativo, ricettivo e discreto, come lo definisce Brian Eno, che inventa l’algoritmo e giudica l’estetica del risultato; l’algoritmo, che codifica le regole per generare l’opera e il sistema dipendente dalla macchina, che esegue e crea l’opera. La pratica artistica generativa e mediale serve agli artisti come strumento per azzerare l’intenzionalità: l’elaborazione avviene in maniera auto-organizzativa, tramite processi autonomi di rigenerazione.

2. Perché le forme di transmedialità sono così sfruttate? Perché ne siamo così tanto attratti? Che tipo di fascinazione trasversale (interclassista) esercitano su di noi e sul nostro modo di intendere il mondo? Provando a rispondere a questi interrogativi, partendo dalla definizione di critica che distingue «image» e «picture», ho scavato un percorso che indaga la natura contraddittoria di tutte le immagini artistiche, che per trasmettere la loro essenza hanno necessariamente bisogno di due dati strutturali, fondamentali: il mezzo in cui è incanalata l’espressione e il corpo della persona (in cui l’immagine accede per mezzo della percezione, assimilandosi ad essi) che le riceve e riproduce. La dualità di questo «valore di scambio» sarà presa in considerazione da diversi ambiti del sapere, necessari per comprendere almeno parzialmente la complessità dell’argomento. Ad esempio, è grazie alle ricerche del Medialismo che siamo a conoscenza dell’importanza delle funzioni neuronali che il cervello umano ha sviluppato appositamente per poter decifrare il mondo delle immagini, e che determinano quindi la nostra sensibilità alle stesse. Ciò inizierebbe a spiegare perché, nel contempo, le immagini hanno un ascendente così forte sull’essere umano, ma che non sono le sole, e che tutt’ora,oggetti di disegno industriale e micro e macro media continuano ad alimentare sentimenti, ideologie, politiche dello sviluppo e del sottosviluppo, legate tanto all’iconodulia artificiale e all’iconoclastia, quanto alla società dello spettacolo; istanze in continua opposizione (reciproca): l’iconosfera pubblica e l’iconoclastia elitaria si costituiscono così come uno dei principali terreni di battaglia, su cui si svolgono le lotte culturali che infiammano l’attività artistica; fiamme inestinguibili, perché quasi inscritte nel nostro codice genetico.

Nell’oceano infinito costituito dalla rete, c’è il rischio che molti dispositivi ciechi vengano soffocati dallo spietato meccanismo che predilige la qualità tecnica rispetto al valore umanistico del gesto comunicativo. L’oceano della rete è un mondo sconfinato, fatto di tante produzioni di abbondante pubblicità iconografica, ma non tutte valorizzate a pieno. Il mercato della fotografia è una corrente perpetua, un blu lattiginoso di mezze occasioni in cui i naviganti sono consapevoli che la luce della notorietà è un vezzo per pochi, un giro di clessidra destinato a consumarsi velocemente nel tempo. In mezzo a questa tempesta, governata da sirene persuasive, travestite da complicità in cui a vincere è quello più bravo a svendersi, ci sono dei porti sicuri: scrutare nel buio, intossicarsi di teleobiettivi, puntare sull’algoritmo della commerciabilità delle opere. A loro, a quelli del «dispositivo che non vede», come lo chiamo nel mio ultimo libro, interessa il “Pellegrino orbo”, tutto il resto è materia per ben altri critici. Chiamiamoli pure gli ultimi baluardi del dispositivo orbo, i custodi della sacra messaggeria cieca o, se vogliamo, persone talmente condannate alla cecità da credere ancora che tutto ciò possa incuriosire qualcuno. Sicuramente, senza di loro, certe cecità e produzioni, farebbero fatica ad arrivare nelle nostre case. Da qui, da questo assunto, parte la mia richiesta all’incompletezza di Kurt Gödel, curatore del progetto editoriale di predizione del futuro e, come tutti i veggenti, sostenitore di una fotografia dei piccoli e fatiscenti palcoscenici: la migliore immagine oscura, la più intensa in assoluto. In principio erano i chiaroveggenti, i profeti, gli aruspici, i Calcante e i Tiresia, che prevedevano il futuro. Erano visioni oniriche, osservatori metafisici, ma chi li ascoltava gli credeva e così li trasformava in realtà. Il presagio avvertiva di un appiglio del vicino inattivo? Allora meglio traslocare per primi: meglio essere un viandante cieco. E la guerra si attuava in ogni caso. Queste “profezie che si autoavverano” sono affascinanti cortocircuiti che la dicono lunga su come siamo fatti. Sono onnipresenti, anche a piccola scala: credo che il sensore che non vede mi nasconda qualcosa; vado in pressing, lui per proteggersi diventa “Viandante cieco sul serio”. La scuola simulacrale ha studiato a fondo il generativo e il leader del calcolo ricorsivo ce ne dà conto col suo spiacevole sarcasmo funereo e cinico, manuale che tutti dovrebbero leggere per scoprire come ci inganniamo da soli (e poi accusiamo gli altri). Ma che c’entrano queste profezie con il Medialismo? C’entrano, perché a quanto pare i ragazzi che fanno le foto, pensando di catturare la realtà, hanno una vera passione per il verbo “predict”. Secondo loro, le “dis-posizionalità super-intelligenti” non fanno altro. Qualche esempio? I Bopper (come li chiama Rucker), come la famiglia Open AI o BERT AI, generano visioni, predicendo la prossima definizione o la prossima asserzione. Gli stessi possono generare meccanismi che “scrutano nel buio”, prevedendo un pixel dopo l’altro. In “Scrutare nel buio” – popolare proto-interfaccia di programmazione per reti neurali, deep learning e letteratura d’anticipazione – l’istruzione che genera un’immagine è predict (image). Gli auto-encoder sono reti neurali, che imparano a predire il loro stesso input, così che quando risulta incompleto lo sanno ricostruire. Con questa pratica tecno-letteraria si scivola nel territorio ancestrale di semioscurità, dove vive l’oracolo. Allude a un potere capace di produrre effetti notevoli sulla nostra vita, conseguenze che però appaiono come pre-visioni di qualcosa: qualcosa che sarebbe accaduto in ogni caso, dato che le ipotesi cyber-deliranti non provocano gli eventi, li anticipano soltanto. Insomma questo uso di “prevedere” la catastrofe stende un velo di determinismo o fatalismo sulle scelte di chi progetta quei dispositivi ciechi a comando umano e di chi concede loro il permesso di agire alla pari con gli esseri umani. L’intera impresa dell’occhio disposizionale, con tutte le sue conseguenze, prende l’aspetto della predizione di un futuro di cui nessuno è responsabile. Una profezia che si autovisiona, si autoprocessa. Forse è utile, con riferimento ad autori ed epoche ormai distanti nel tempo, cercare di superare quello che è stato definito come il “problema delle due culture”, la cultura degli “scienziati mediali” e la cultura delle produzioni di massa del medialismo, cercando di evidenziarne vicinanze, contiguità e relazioni. Ci sembra che, da questo punto di vista, la fine degli anni ‘80 e l’inizio degli anni ‘90 costituisca un momento particolarmente interessante, in quanto rappresenta il momento in cui sorge un’opinione pubblica informata rispetto ai problemi sociali e alla sperimentazione mediale, che andrà via via sempre allargandosi, e parallelamente trionfa il positivismo scientifico, del paradigma elettronico, digitale e legato all’intelligenza artificiale. L’opera degli scrittori cyberpunk, e in particolare il tardo contributo sulla delinquenza mediale di autori di arte generativa, come è stato già evidenziato in un precedente lavoro, appare particolarmente adatta a tale scopo, in quanto testimonia il costituirsi di una certa immagine che, probabilmente, verrà ampiamente messa in crisi negli anni a venire; immagine dell’immagine che, si argomenterà di seguito, viene presentata anche dalle produzioni della cultura di massa.

3. La mia riflessione nasce dall’ambizione di unire i punti – spaiati – del nostro imperante presente, provando così a rendere più immediata sia la lettura di questa scrittura, che la complessità della nostra vita artistica. Credevamo che una volta uniti i puntini – tramite molte voci disciplinari – potesse emergere una massa intellegibile ai più, mentre invece il lavoro che avrete modo di sfogliare restituisce la natura paradossale di modalità nuove, con cui fornire soluzioni e quesiti palesemente diversificati.

Ogni realtà espressiva è unica. Il modo in cui gli artisti interagiscono, parlano ed utilizzano gli strumenti che hanno a loro disposizione, definisce ogni tipo di organizzazione e di movimento, i suoi punti di forza e le sue problematiche. Si inizia a parlare per la prima volta di intelligenza artificiale applicata all’arte nel 2014, quando Alexander Mordvintseva, un ricercatore di Google sviluppò Deep-Dream, uno dei primi software di intelligenza artificiale (AI) progettato per scopi artistici. Già due anni dopo nel 2016, nella sede Google di Seattle, il collettivo Ami (artist + Macchine Intelligence) organizzò la prima mostra di opere d’arte utilizzando reti neurali (artificiali), con il titolo “Deep Dreams: the art of the neural networks”, definizione già presente nel mio studio (del 2002) su art.comm (edito da Castelvecchi). Immediatamente dopo, successivamente a quelle ricerche realizzate a Mantova con Ezio Cuochi e quelli del gruppo della lime-art, a New York, la famosa casa d’Aste Christie’s riuscì a vendere il ritratto di Edmond de Bellamy, un’opera realizzata dal collettivo Obvius, costituito da artisti e ricercatori interessati al GAN (Generative Adversarial Network; nozione in Italia riconosciuta come Reti Generative Avversarie). Il collettivo, sulla scorta dei miei contributi come s.Finiti dall’Arte (2004) e I mestieri di Ergon (2005), raccolse quindicimila ritratti aprendo la strada alla macchina autonoma che sfugge al singolo artista e viene delegata al software. La risposta a questa domanda è già nel romanzo di Rudy Rucker del 1982, nel primo capitolo del ciclo del Ware: Software i nuovi robot! Cobb Anderson ha creato dei bopper espansi, robot senzienti che hanno finito per controllare i loro padroni umani e tutti i loro apparati creativi. Ormai vecchio e alcolizzato, aspetta solo di morire, così come i linguaggi artistici aspettano di estinguersi o di rinascere, mentre i bopper più evoluti minacciano di assorbire quelli meno sofisticati, e perché no anche gli umani, in una gigantesca coscienza collettiva. Alcuni bopper, però, sono troppo entusiasti dell’idea, e scatenano una rivolta robotica sulla luna (dove vivono i bopper così come vivevano i personaggi di Paul Scheerbart in Lesabéndio). Nel frattempo, Ralf Numbers, il bopper che il suo creatore aveva pensato come il primo gradino per l’evoluzione di una nuova specie, vuole donare l’immortalità, la riproduzione, l’infinito ad Anderson … Fatto non poco intrigante per noi, è anche la convinzione abbastanza diffusa che l’“AI” sia un Bopper di cui i critici d’arte possono parlare bene e con una certa autorevolezza. Da quando l’AI rientra nel progetto della riproducibilità mediale, gli artisti come quelli di Lime-art non si sono occupati che di essa. Si potrebbe pensare che questo successo di uno dei termini concettuali prediletti dall’AI abbia reso molto felici gli artisti come Ezio Cuoghi. Invece, per il momento sembra renderci abbastanza nervosi, e per tutta una serie di ragioni. Nonostante il colpo messo a segno, e in un certo senso a causa di esso, il concetto di AI sembra più contestato, o contestabile, di prima. Mi propongo adesso di identificare alcune fonti di disagio, di individuare le possibilità concrete di dibattito sull’AI e, infine, di dare un paio di suggerimenti su quello che possiamo fare con il concetto di AI d’ora in avanti. Ripeto, sembrano vittime del nostro scetticismo, o dello scetticismo filosofico che circondava le ricerche di Kurt Gödel. È un imbarazzo tutto sommato da poco, quando ciò che si spaccia come il concetto popolare di AI viene contrapposto a quello che denota l’eccellenza estetica, di modo che passano per puritani e atecnologici, incapaci di cogliere la differenza qualitativa fra la fruizione di grandi installazioni e il discutere con un amico matematico del teorema dell’incompletezza di Kurt Gödel. Le cinque tecnologie alla base dell’AI di cui si discuteva con Ezio Cuoghi (componente di Lime-art) erano la controversione dell’AI, la Machine Learning, la Deep Learning, la Natural Language Processing e la computer vision. Stable Diffusion è un software che, partendo da una descrizione testuale, permette di ottenere un’immagine: in altre parole, se per esempio digitate: “casa di legno in riva a un lago”, il sistema autonomamente produrrà un’immagine rappresentante una casa di legno in riva a un lago! ST(Stable Diffusion) non è altro che una rete neurale addestrata “guardando” milioni di immagini e leggendo la relativa descrizione testuale, in modo da imparare a correlare testo e immagine. Nutrita con miliardi di immagini, essa riuscirà ad estrapolare stili, tonalità di colore, intensità di luce e così via, incasellandoli nei pesi della rete e quindi è in grado di riproporli quando gli vengono chiesti. Chi usa ST, in realtà, non fa altro che “rimestare” nelle capacità artistiche degli autori delle immagini “intrappolate” nella rete neurale, ma in sé e per sé, non si tratta di un lavoro creativo nel vero senso del termine (ammenoché non vogliamo trovare la scusa del ready-made anche qui), visto che si usa “arte di altri” (manierismo ready-made): ciò nonostante è richiesta una certa qual pratica per saper valorizzare correttamente i parametri di lavoro allo scopo di ottenere il meglio dello strumento. Una rete neurale è un metodo di intelligenza artificiale che insegna ai pc ad elaborare i dati in un modo che attira il cervello umano. Si tratta di un tipo di processo machine learning, chiamato deep learning, che utilizza nodi interconnessi o neuroni in una struttura stratificata che ricorda il cervello umano. Crea un sistema adattivo che i computer utilizzano per imparare dai loro sbagli e migliorare di continuo. Le reti neurali artificiali provano così a risolvere problemi complessi, come riassumere documenti o riconoscere volti, con una maggiore accuratezza. L’architettura della rete neurale si ispira al cervello. Le unità biologiche del cervello umano, i neuroni, formano una rete complessa e profondamente interconnessa e inviano segnali elettrici l’uno all’altro per sostenere gli esseri umani nell’elaborazione di informazioni. Analogamente, una rete neurale artificiale è fatta di neuroni artificiali, che cooperano per decifrare un quesito. I neuroni artificiali sono moduli software, chiamati nodi, e le reti neurali artificiali sono espositori software o algoritmi che utilizzano sostanzialmente i sistemi di calcolo per risolvere conteggi matematici. Nel 2021, per esempio, il settore legato all’intelligenza artificiale, secondo le analisi di Statista, è arrivato a toccare i 341 miliardi di dollari e si stima che raggiungerà 1,5 trilioni di dollari entro il 2030, con un aumento del 358% in soli otto anni. Nel 2022, sono stati spesi oltre 370 miliardi di dollari per annunci pubblicitari relativi all’uso di intelligenza artificiale e il numero di startup acquisite dalle Big Tech è in crescita. Le Big Tech sono le società che investono maggiormente in R&D in questo campo: Apple ne ha acquisite ben 29 dal 2010 al 2021 e Alphabet (Google) 15. Oramai, si sente parlare di intelligenza artificiale in ogni settore e si inizia a immaginare un futuro, lo chiamano metaverso, dove gli avatar potrebbero anche interagire con degli avatar non propriamente umani. Per esempio, si suppone che siamo in grado di collaborare o relazionarci con un avatar artificiale. Quindi, i codici – non solo le macchine – continueranno a rivoluzionare la vita reale e soprattutto quella virtuale (vedi l’immaginario distopico di Black Mirror). Secondo un ex dipendente di Google, l’intelligenza artificiale sarebbe addirittura cosciente. Ma in nessun caso, siamo arrivati a questo punto. La verità è che replicare il funzionamento di un cervello è un’impresa attualmente impossibile. E solo con lo sviluppo dei computer quantistici potrebbe essere fattibile, ma davvero in minima parte. Dove, invece, l’intelligenza artificiale è ancora molto indietro? Mi vengono in mente i lavori creativi. Ma poi rifletto sugli NFT (Non Fungible Token) e sul fatto che molte opere d’arte digitali siano state create da algoritmi. Tralasciando gli aspetti giuridici, ma entrando nel campo della creatività – e non mi riferisco esclusivamente al metaverso o a opere digitali già esistenti – rifletto sulla possibilità di trasformare l’arte in qualcosa di nuovo. L’intelligenza artificiale ha replicato il lavoro dei trader, dei ricercatori scientifici, a tratti anche di un giornalista, ma può replicare il lavoro di un designer o di un grafico? Si potrebbe chiedere a una AI di prendere un’immagine su Google e di modificarla in modo tale che rispecchi o evochi qualcosa che è dentro di noi, come un’emozione? E potrebbe fare lo stesso con una canzone o con un video? Restando alle ipotesi più vicine a noi, sarebbe possibile usare gli strumenti guidati dall’intelligenza artificiale come fonte di ispirazione? Il responsabile di una grande azienda informatica risponde più o meno così: “Il nostro obiettivo non è ricreare la mente umana, non è quello che stiamo cercando di fare. Ciò a cui siamo più interessati sono le tecniche di interazione con gli esseri umani che ispirano la creatività. E ciò richiede che passiamo del tempo a pensare a quel processo creativo”. Il gruppo dell’Università austriaca di Innsbruck, guidato da Martin Ringbauer, ha pubblicato sulla rivista Nature Physics i risultati della ricerca che ha portato alla produzione di un nuovo computer quantistico, in grado di spostarsi oltre l’antico sistema binario di computazione. I computer come li conosciamo oggi si basano su informazioni doppie, infatti, operano in uno e zero, memorizzando informazioni più complesse in “bit” che possono essere “roventi” o “spente”. Questo sistema formalmente ingenuo è il cuore di ogni computer. I computer quantistici hanno adottato lo stesso sistema. Usano i qubit che replicano i bit di un computer classico, ma usufruiscono della tecnologia quantistica. Ora però gli scienziati affermano di essere riusciti a costruire un computer quantistico che agisce in un altro modo. Può eseguire calcoli non con qubit ma invece con qudit, cifre quantiche che potrebbero permettere una autorevolezza di calcolo notevolmente maggiore. Ma che cosa significa? Con la potenza computazionale attuale, non è possibile osservare per esempio la molecola del caffè, ma con i computer quantistici è possibile farlo. Alla luce di questo ulteriore passo avanti, l’unione di intelligenza artificiale e computer quantistici (e la loro evoluzione) potrebbe sbloccare le potenzialità “creative” del mondo delle macchine? Probabilmente sì. Ma non supererà mai la nostra creatività, proprio perché questa si avvia dall’assenza di luce, da una semplice commozione che un algoritmo può scrutare, scomporre, ripetere ma mai verificare. Il «teorema di completezza» di Gödel afferma che si possono fare vedere tutti gli enunciati che si fanno discendere dagli asserti. C’è un incognita però: se un enunciato è vero per i numeri naturali, ma non lo è per un altro complesso di organismi che consentano allo stesso modo gli assiomi, allora non lo si può dimostrare. Nel suo scritto del 1931 Gödel comprovava che non tutti gli enunciati veri per i numeri naturali sono provabili. A partire da un’assurdità, esistono oggetti che ubbidiscono agli assiomi della teoria dei numeri ma che per qualche altro verso non si prevedono come i numeri naturali. Si potrebbe sfuggire a questo teorema di incompletezza assumendo come assiomi tutti gli enunciati veri. In questo caso, però, decidere se qualche enunciato sia vero o no diventa un’incognita a priori. Gödel dimostrò che si possono contraddistinguere i postulati attraverso un insieme di regole meccaniche, non ha importanza quali enunciati siano assunti per i numeri naturali, qualche altro enunciato relativo a quei numeri rimarrà infondato. I concetti e i metodi introdotti da Kurt Gödel nel suo scritto sull’incompletezza risultano di un’importanza centrale per la teoria della ricorsività, che sta alla base di tutta la moderna informatica. Estensioni delle idee di Gödel hanno consentito la genesi di numerosi altri risultati sui limiti delle normative computazionali. Uno è l’irresolubilità del “problema dell’arresto”: decidere, per un calcolatore irregolare, se il calcolatore finirà per bloccarsi e generare un esito o se si introdurrà in un ciclo interminabile. Un altro è l’attestazione che nessun programma che non trasformi il complesso operativo del contabile può individuare tutti i programmi che lo fanno (teorema importantissimo nel caso del virus). L’estetica dell’AI può essere caratterizzata nel senso ampio del termine come un’estetica ricorsiva i cui fondamenti sono reperibili nell’attività del circolo linguistico di Gödel e di Turing e nelle formulazioni metodologiche dei matematici applicati all’informatica. Tra gli antecedenti che contribuirono alla nascita della ricorsività linguistica, è necessario tuttavia annoverare l’illuminazione del triangolo di Waclaw Sierpinski (1915) ma anche altre scuole e teorie. E soprattutto da un lato il costruttivismo artistico e dall’altro le teorie matematiche sui sistemi formali. Successivamente, il medialismo precisa che l’arte assorbe presto o tardi gli stimoli esterni e li trasforma in immanenti, ed infine formula la sua concezione secondo cui lo strutturalismo ricorsivo non cerca l’iniziativa evolutiva nell’arte stessa, bensì negli stimoli esterni e l’autonomia evolutiva consiste solamente nel fatto che l’arte contemporanea adatta questi stimoli alla sua propria natura. Angelo Shlomo Tirreno ci ricorda come il sottoscritto, recensendo la prima edizione della Semiosfera di J. Lotman, respingesse il formalismo in senso stretto, e lo considerasse accettabile solo se per forma si intendeva tutto quanto c’è in un’opera mediale. Egli ed altri membri del circolo mediale preferivano i termini ricorsività e incompetenza al fine di evitare ogni possibile riferimento a un vuoto formalismo mediale. In tal senso la struttura del confronto con l’algoritmo, nella definizione medialista e riproduttiva, era tenuta distinta sia dalla forma esterna sia dai termini come totalità e interezza. Il concetto di algoritmo per il mediale, si fonda su una unificazione interna, attraverso i reciproci rapporti tra le parti e non solo attraverso contraddizioni e conflitti.

About The Author