JORGE LUIS MARZO
Lo chiamerò Mr. Motorhead, visto che si è presentato con una maglietta con il noto logo heavy. Avrà poco più di 30 anni. È un programmatore autonomo e offre i suoi servizi a diverse compagnie telefoniche, ospedaliere, e piattaforme online. Ho un appuntamento con lui a pranzo perché mi spieghi alcune delle cose che fa con gli algoritmi e per sottoporgli un’idea che mi ronza in testa. Prima che portino il cibo mi racconta che ha appena programmato un codice di machine learning per un’azienda medica con l’obiettivo di prevedere quali pazienti avranno l’emicrania nei prossimi giorni. Mi vengono in mente le schede criminali di Cesare Lombroso, piene di volti emaciati, o le foto di Charcot con donne “isteriche”. Motorhead ha processato moltissime delle immagini che gli hanno fornito dei volti dei malati, e non so quante altre variabili. Quello che ha consegnato è un protocollo che stabilisce un pronostico: “sbaglia molto di rado”, mi dice. Gli chiedo una definizione chiara del machine learning. Mi conferma ciò che già sapevo: “Le sequenze di un codice informatico non sono più soltanto parole e testi, ma immagini. La capacità del software di leggere le immagini ha cambiato il modo di programmare e, inoltre, anche le operazioni associate alle immagini sono facilmente trasformabili in comandi”. E, più distaccato, aggiunge: “Chiamiamo machine learning il programma informatico che si nutre di un insieme di dati introdotti – immagini, per esempio – e che determina modelli con i quali realizzare pronostici in relazione a delle variabili prestabilite, vale a dire, in relazione a ciò che stiamo cercando. Esiste da molto tempo, ma ora i sistemi si sono velocizzati tantissimo”. Mentre arriva il piatto a tavola mi spiega anche, divertito, il passatempo che ha adottato ultimamente con altri amici programmatori: processare una serie di variabili del campionato di calcio in sistemi intelligenti e fare scommesse online sulle partite: “Ogni settimana guadagno un 50% dell’investimento. Non gioco molto. A fine mese arriverò a 250€ circa. È solo per divertirmi”. A questo punto gli espongo la mia idea: è plausibile la possibilità di predire uno stile artistico mediante algoritmi di apprendimento automatico? Mi ascolta con attenzione e dice: “Senza problemi. Dovresti soltanto darmi un dataset abbastanza grande [l’insieme di immagini di cui si alimenta e da cui impara il programma], che dovrebbe includere cose tipo un catalogo storico delle opere e degli artisti acquisite per le collezioni, le principali vendite delle gallerie d’arte, un elenco delle principali mostre di arte contemporanea nei musei, una lista dei premi più rilevanti, un sacco di copertine di riviste d’arte e dei loro principali articoli, e cose così”. Quando gli dico che la mia intenzione è quella di ideare una mostra con sistemi di intelligenza artificiale (IA) che giochino a determinare il futuro dell’arte, della moda, del design, ma che naturalmente dev’essere qualcosa di parodistico, perché non ci credo che degli algoritmi siano capaci di pronosticare una cosa del genere a venti o trent’anni, mi risponde: “Macché! Si può fare senza problemi. Mi serve soltanto un buon dataset”. Insisto: non vedo come sia possibile scrivere in codice un insieme così straordinariamente complesso e dinamico come i mutevoli fenomeni sociali, politici o economici che danno luogo alla produzione culturale ancor prima che questi si costituiscano. Sarebbe come scrivere il contesto e le condizioni stesse dell’atto creativo. La sua risposta è diafana: “Il programma non potrà dirti che cosa faranno gli artisti, ma quali stili e tendenze regneranno. Senza problema. Mi serve soltanto un buon dataset”.
La Biennale di Liverpool e il Whitney Museum of American Art hanno lanciato per il 2020 una proposta online intitolata The Next Biennial Should be Curated by a Machine. Il progetto si definisce come una ricerca dei rapporti tra curatela e IA e sulla possibilità di sviluppare un sistema capace di curare una mostra o un’intera biennale, basandosi sui principi che reggono gli attuali algoritmi. L’intenzione è quella di inserire dati di un vasto registro di processi di curatela e mostre per generare una serie di risposte espositive[1]. Ovviamente, il mio primo impulso è dire: Perché no? Alla fin fine, il processo della curatela è arbitrario quanto qualsiasi altra decisione in ambito estetico. Potremmo anche dire che la curatela di opere d’arte – vale a dire, formalizzare mostre tramite tematiche e opere concordi – può essere il risultato di ricerche profonde svolte con rigore accademico e cognizione di causa, ma alla fine neanche questa attività sfugge al fatto di essere costruita attorno all’interpretazione di modelli, perfino applicata a quei fenomeni che sembrano non avere similitudini o analogie. Pertanto, perché una macchina non avrebbe la stessa possibilità di interpretare i manufatti culturali sotto gli arcani della propria deduzione meccanica? Certamente le possono mancare variabili che considereremmo perentorie, ma non è la stessa ragione che spesso si adduce quando si critica una mostra, proprio quella che il curatore o la curatrice non hanno tenuto conto di qualcosa?
Perché, andiamo al sodo, non è stata la storia dell’arte lo studio di modelli nella rappresentazione? I suoi principi, maturati alla fine del Rinascimento – in Vasari, in Bellori – nacquero in base a delle genealogie costituite tramite la ricerca di modelli capaci di mettere in relazione motivi, geografie e biografie, con il fine di generare stili che potessero essere raccontati sotto forma di gallerie di pittura, gabinetti di curiosità, libri di iconografia. Perché dipingono così i fiorentini, o colà i veneziani? Perché lì marcano di più il disegno e là di più il colore? Cercarono modelli e li trovarono, perché volevano trovarli. Al tempo stesso, tutta la scuola storiografica moderna, da Aby Warburg ed Erwin Panofsky, professa una fede incrollabile nel modello, la mappa, l’atlante, il catalogo, l’albero genealogico. Ernst Gombrich, uno dei padrini più insigni degli studi iconografici, disse che “la nostra mente è talmente avida di significati che non smette di cercare e integrare, preda della sua brama insaziabile, pronta a divorare qualsiasi cosa possa soddisfare questa necessità una volta suscitata”. Il risultato non è altro che schemi iconologici – canoni – che servono da domini per la costruzione di racconti storici e culturali. Un’immensa parte della storia e della critica d’arte rimanda al modello, forse perché “arte è imporre un disegno all’esperienza, e il nostro godimento estetico sta nel riconoscere quel disegno”. E non lo dice uno storico, ma un matematico, Alfred Whitehead. Non dubitate, le scienze “esatte” condividono con le scienze iconologiche un corpo metodologico basato sull’esplorazione di modelli e deviazioni.
Detto ciò, bisogna fare una distinzione tra la scienza dei modelli applicata all’immagine. Dalle analisi ormai classiche di Panofsky possiamo distinguere tra iconografia e iconologia. La prima descrive e classifica le immagini; la seconda si occupa dell’interpretazione del significato e del senso di queste immagini in un contesto dato. L’iconologia è, pertanto, una scienza che sposa la storia del pensiero, della politica, della scienza e della trasmissione della cultura. Ritorniamo ora un momento a Mr. Motorhead e alla sua tesi sulla fattibilità di un pronostico algoritmico della futura storia dell’arte. Ammettiamo che sia possibile immaginare che un programma possa predire l’iconografia che si presenterà come rilevante in un futuro relativamente vicino. Tuttavia, è altrettanto immaginabile che possa prevedere un’iconologia, il tessuto storico-culturale che dà senso e rende possibile interpretare in ogni momento e spazio una produzione estetica? Non sarebbe la parodia – anacronistica, chiaro, perché non sappiamo cosa succederà da qui a trent’anni, ma, lo sappiamo già, non c’è nulla di nuovo sotto il sole – il meccanismo, forse l’unico, che potrebbe rendere fattibile una possibilità di senso per noi, nel nostro stare ed essere oggi?
Tutto questo ci porta a un problema fenomenologico. Se la determinazione di modelli è stata il filo conduttore di una parte importante della storia e della critica artistica, oggi l’IA, attraverso le sue molteplici applicazioni, promette di esplorare importanti trasformazioni e mutazioni nell’ambito dello studio delle immagini, sia di quelle considerate artistiche che dei manufatti visivi in generale, e tutto tramite modelli. In quest’ultimo ambito, sappiamo già che storia è: l’algoritmo ha determinato che tipo di immagini appaiono sulle nostre ricerche online grazie alla conoscenza immagazzinata della nostra cronologia; quali video accompagnano la nostra ultima incursione su YouTube; quali immagini considera che avranno più successo su Instagram o Facebook; ritocca istantaneamente le foto che scattiamo con il cellulare; falsifica incredibilmente bene discorsi di personaggi pubblici; o predice abbastanza verosimilmente che aspetto avremo da anziani o come eravamo quando avevamo tre anni. L’algoritmo cerca modelli dappertutto e per tutti i fenomeni e proietta come mai prima il mito razionalista della “esattezza” perfino nella finzione. L’algoritmo dice di essere capace di determinare il nostro orientamento sessuale con un 93% di successo – addirittura prima che il soggetto in questione conosca il proprio orientamento sessuale –; si sente sicuro di calcolare, semplicemente guardando alcuni nostri ritratti, se saremo una bella coppia; sanno ancor prima dello stesso richiedente di un mutuo o di un posto di lavoro se è solito essere sincero ai colloqui; produce telefoni intelligenti in cui si accende una spia rossa se viene individuato un modello di menzogna nella voce di chi parla; redige testi di canzoni, scrive sceneggiature per il cinema o compone le notizie in modo tale da garantire l’attenzione del pubblico; raccoglie milioni di impronte digitali delle milioni di persone che mostrano i palmi delle mani nelle foto che caricano sui social network. Siamo tutti un po’ allo sbando con questi argomenti. Ogni giorno si inventano qualcosa.
Ma che cosa fa oggi l’algoritmo nel dominio delle immagini storico-estetiche, vale a dire, nell’iconografia patrimoniale? Finisce partiture di brani musicali o dipinti a olio che i loro autori hanno lasciato incompleti; compone canzoni dei Beatles che la band “non è riuscita a fare”; ricostruisce i frammenti perduti di opere archeologiche; fa sorridere la gente che appare in vecchi film muti o mette la voce in perfetta sincronia con il movimento delle labbra. Ormai non serve più l’esperto capace di decifrare ciò che dice una persona guardando soltanto il labiale. È tutto automatico (o questo dice la macchina). Fra l’altro, mettendo la voce ad attori che dicevano cose qualsiasi nei film muti, consapevoli che nessuno li avrebbe uditi, i risultati saranno assolutamente affascinanti: guarderemmo film non surrealisti, di più. Ci sarà, allora, da rifondare una storia del cinema a partire, non tanto da ciò che non si volle filmare, bensì da quello che realmente si filmò? La storia del cinema tra il 1894 e il 1929 diventerà una storia documentaristica? Ma non lo era già, diceva Buñuel?
Queste potenti capacità del machine learning presentano questioni e problemi sul valore dell’obiettività (esiste l’obiettività senza contesto?), sulla pertinenza pubblica dei racconti (gli algoritmi pretendono di sapere di noi più di noi stessi), sulla funzione degli esperti (che ruolo hanno di fronte alle conclusioni visualizzate attraverso i dati), sulla capacità di comprensione (i programmatori spesso non sanno quale sia la logica interna degli algoritmi), o sugli effetti nei mercati culturali e nell’interpretazione sociale dei fenomeni (gli algoritmi sono istantanei, invisibili e onnipresenti, e sono alimentati costantemente dai dati forniti da utenti spensierati). Ma allo stesso tempo, offrono possibilità inedite per osservare alternative di indicizzazione, per produrre finzioni che riflettono i miti su cui tradizionalmente si sono basate le discipline storiografiche per proporre e convalidare genealogie.
In sostanza, stiamo dando alla luce una storia dell’arte pensata specificatamente per essere processata dagli algoritmi, costruita con un linguaggio intessuto con l’unico scopo che l’algoritmo possa interpretarlo e stabilire la sua diagnosi in totale pienezza? Immaginiamo un programma di IA tra trent’anni. Ci troviamo di fronte a un paradosso interessante. Grazie a tutti gli input immagazzinati, potrà ricostruire senza battere ciglio la (a quel punto) storia recente dell’arte proprio perché il dataset di un enorme Big Data è stato configurato per essere letto dalle macchine, con le loro logiche, per esempio, con complessi insiemi di tag che permettano di mettere in relazione le cose a livello iconologico. Se così fosse, potrebbe interpretare la produzione culturale precedente all’epoca in cui la storia dell’arte è stata scritta per le macchine con prospettive che potrebbero confutare il linguaggio stesso del dataset, per esempio, mettendo in dubbio l’idea stessa di genealogia? Dato che gli algoritmi si offrono per predire la realtà, che sia passata o futura, la realtà che alla fine accada e non coincida con il pronostico entrerà nella lista come “deviazione statistica”, vale a dire, liste di anomalie sempre condotte tramite standard. Che genere di genealogie potrebbe emettere questa macchina? Avranno qualcosa a che vedere con il complesso mondo che ha reso possibile quelle opere d’arte o rifletteranno solamente i criteri imposti alle macchine per cercare determinati modelli considerati “prevedibili”?
[1] https://www.e-flux.com/announcements/42952/the-next-documenta-should-be-curated-by-an-artist/
-——
JORGE LUIS MARZO
Le voy a llamar Mr. Motorhead, pues se presentó con una camiseta con el conocido logo heavy. Tendrá unos 30 y algo. Es programador independiente y ofrece sus servicios a diversas compañías telefónicas, hospitalarias, y plataformas online. He quedado con él para comer a fin de que me explique algunas de las cosas que hace con los algoritmos y para consultarle sobre una idea que me ronda en la cabeza. Antes de que traigan la comida me cuenta que acaba de programar un código de machine-learning para un empresa clínica con el objetivo de predecir qué pacientes tendrán migraña en los próximos días. Me vienen a la mente las fichas criminales de Cesare Lombroso, llenas de rostros macilentos, o las fotos de Charcot con mujeres “histéricas”. Motorhead ha procesado montones de imágenes que le cedieron de los rostros de los enfermos, y no sé cuántas variables más. Lo que él ha entregado es un protocolo que establece un pronóstico: “falla muy pocas veces”, me dice. Le pido una definición clara de lo que es el machine learning. Me confirma lo que ya sabía: “Las secuencias de un código informático ya no son solo palabras y textos, sino imágenes. La capacidad del software para leer las imágenes ha cambiado la forma de programar, y además, las operaciones asociadas a las imágenes también son fácilmente convertibles en comandos”. Y más displicente, añade: “Llamamos machine-learning al programa informático que se nutre de un conjunto de datos introducidos -imágenes, por ejemplo-, y que determina patrones con los que realizar pronósticos en relación a unas variables preestablecidas, es decir, en relación a aquello que estamos buscando. Hace mucho que esto existe, pero ahora los sistemas se han acelerado muchísimo”. Al llegar el plato a la mesa también me explica, divertido, el pasatiempo que ha adoptado últimamente con otros amigos programadores: procesar una serie de variables de la liga profesional de fútbol en sistemas inteligentes y hacer apuestas online en los partidos: “Cada semana gano un 50% de la inversión. No juego mucho. Al acabar el mes, habré sacado unos 250€. Es solo para divertirme”. Es entonces cuando le expongo mi idea: ¿sería posible la posibilidad de predecir un estilo artístico mediante algoritmos de aprendizaje automático? Me escucha atento y dice: “Sin problema. Sólo tendrías que darme un dataset bastante grande [el conjunto de imágenes del que se alimenta y aprende el programa], que debería incluir cosas como un catálogo histórico de las obras y artistas adquiridas para colecciones, las principales ventas de las galerías de arte, un elenco de las principales exposiciones de arte contemporáneo en los museos, una lista de los premios más relevantes, un montón de portadas de revistas de arte y de sus principales artículos, y cosas así”. Cuando le digo que mi intención pasa por idear una exposición con sistemas de inteligencia artificial (IA) que jueguen a determinar el futuro del arte, de la moda, del diseño, pero que naturalmente debe ser algo paródico, pues no me creo que unos algoritmos sean capaces de pronosticar algo parecido a 20 o 30 años, me responde: “¡Qué va! Se puede hacer sin problemas. Solo necesito un buen dataset”. Le insisto: no veo cómo es posible escribir en código un conjunto tan extraordinariamente complejo y dinámico como los mutantes fenómenos sociales, políticos o económicos que dan pie a la producción cultural antes mismo de que éstos se constituyan. Sería cómo escribir el contexto y las condiciones mismas del acto creativo. Su respuesta es diáfana: “El programa no podrá decirte qué es lo que harán los artistas, sino qué estilos y tendencias reinarán. Sin problema. Sólo necesito un buen dataset”.
La Biennal de Liverpool y el Whitney Museum of American Art han lanzado para 2020 una propuesta online titulada The Next Biennial Should be Curated by a Machine. El proyecto se define por ser una investigación de las relaciones entre comisariado e IA y sobre la posibilidad de desarrollar un sistema capaz de comisariar una exposición o toda una bienal, basándose en los principios que rigen los actuales algoritmos. La intención es insertar datos de un vasto registro de procesos curatoriales y exposiciones para generar una serie de propuestas exhibitivas[1]. Desde luego, mi primer impulso es decir: ¿Por qué no? Al final y al cabo, el proceso de comisariar es tan arbitrario como cualquier otra toma de decisión en el ámbito estético. Podremos también decir que comisariar obras de arte -esto es, formalizar exposiciones mediante temas y obras acordes- puede ser el resultado de investigaciones de calado llevadas a cabo con rigor académico y conocimiento de causa, pero finalmente esta actividad tampoco escapa al hecho de estar construida alrededor de la interpretación de patrones, incluso siendo aplicada a aquellos fenómenos que aparentan no tener similitudes o analogías. Así pues, ¿por qué una máquina no tendría la misma posibilidad de interpretar los artefactos culturales bajo los arcanos de su propia deducción mecánica? Ciertamente, le pueden faltar variables que consideraríamos perentorias, pero, ¿no es esa la razón que a menudo se esgrime cuando se critica una exposición, que precisamente el comisario o comisaria no ha tenido en cuenta algo?
Porque, vayamos al grano, ¿no ha sido la historia del arte el estudio de patrones en la representación? Sus principios, gestados a finales del Renacimiento -en Vasari, en Bellori-, nacieron en base a unas genealogías constituidas mediante la búsqueda de patrones capaces de relacionar motivos, geografías y biografías, a fin de generar estilos que pudieran ser relatados en forma de galerías de pintura, de gabinetes de curiosidades, de libros de iconografía. ¿Por qué pintan así los florentinos, o asá los venecianos? ¿Por qué allí marcan más el dibujo y allá más el color? Se buscaron patrones y los encontraron, porque querían encontrarlos. Al mismo tiempo, toda la escuela historiográfica moderna, desde Aby Warburg y Erwin Panosfky, profesa una fe inquebrantable en el modelo, en el mapa, el atlas, en el catálogo, en el árbol genealógico. Ernst Gombrich, uno de los padrinos más notables de los estudios iconográficos, dijo que «nuestra mente está tan ávida de significados que no para de buscar e integrar, en su afán insaciable, presta a devorar cualquier cosa que pueda satisfacer esta necesidad una vez suscitada». El resultado no es otro que esquemas iconológicos -cánones- que sirven de dominios para la construcción de relatos históricos y culturales. Una inmensa parte de la historia y de la crítica de arte se remite al patrón, quizá porque «el arte es la imposición de un patrón a la experiencia, y nuestro disfrute estético es el reconocimiento de un patrón». Y no lo dice un historiador, sino un matemático, Alfred Whitehead. No lo duden, las ciencias «exactas» comparten con las ciencias iconológicas un cuerpo metodológico basado en la exploración de patrones y desviaciones.
Dicho esto, hay que hacer una distinción en la ciencia de los patrones aplicada a la imagen. Desde los análisis ya clásicos de Panofsky podemos distinguir entre iconografía e iconología. La primera describe y clasifica las imágenes; la segunda se ocupa de la interpretación del significado y del sentido de estas imágenes en un contexto dado. La iconología es, por tanto, una ciencia que casa la historia del pensamiento, de la política, de la ciencia y de la transmisión de la cultura. Regresemos ahora un momento a Mr. Motorhead y a su tesis sobre la factibilidad de un pronóstico algorítmico de la futura historia del arte. Aceptemos que es posible imaginar que un programa pueda predecir la iconografía que se presentará como relevante en un futuro relativamente cercano. Sin embargo, ¿es igual de imaginable que pueda prever una iconología, el tejido histórico-cultural que da sentido y hace posible interpretar en cada momento y espacio una producción estética? ¿No sería ser la parodia -anacronista, claro, porque no sabemos lo que sucederá de aquí a 30 años, pero, ya lo sabemos, no hay nada nuevo bajo el sol- el mecanismo, acaso el único, que pueda hacer factible una posibilidad de sentido para nosotros, en nuestro estar y ser hoy?
Todo esto nos lleva a un problema fenomenológico. Si el establecimiento de patrones ha sido el hilo conductor de una parte importante de la historia y de la crítica artísticas, hoy la IA, a través de sus múltiples aplicaciones, promete explorar importantes transformaciones y mutaciones en el ámbito del estudio de las imágenes, tanto de las consideradas artísticas como de los artefactos visuales en general, y todo mediante patrones. En este último ámbito, ya conocemos de qué va esto: el algoritmo empezó determinando qué tipo de imágenes aparecen en nuestras consultas online gracias al conocimiento almacenado de nuestro historial de búsquedas; qué vídeos acompañan a nuestro último visionado en YouTube; qué imágenes considera que tendrán más éxito en Instagram o en Facebook; retocando instantáneamente las fotos que hacemos en el móvil; falseando alucinantemente bien discursos de personajes públicos; o prediciendo con bastante verosimilitud qué pinta tendremos de ancianos o cómo éramos cuando teníamos tres años. El algoritmo busca patrones en todas partes y para todos los fenómenos y proyecta como nunca antes el mito racionalista de la «exactitud» incluso en la ficción. El algoritmo dice ser capaz de determinar nuestra orientación sexual con un 93% de éxito -incluso antes de que el sujeto en cuestión sepa su orientación sexual-; se siente seguro de calcular, con sólo mirar unos cuantos retratos nuestros, si haremos buena pareja; saben antes que el propio solicitante de un crédito o de un puesto de trabajo si suele ser sincero en las entrevistas; opera teléfonos inteligentes en los que se enciende un piloto rojo si detecta un patrón de mentira en la voz del que habla; redacta letras de canciones, escribe guiones de cine o compone las noticias de forma que se asegura la atención de las audiencias; recoge millones de huellas dactilares de los millones de personas que enseñan las palmas de las manos en las fotos que suben a las redes sociales. Todos vamos a salto de mata con estos temas. Cada día se inventan algo.
Pero, ¿qué hace hoy el algoritmo en el dominio de las imágenes histórico-estéticas, esto es, en la iconografía patrimonial? Pues acaba partituras de piezas musicales o pinturas al óleo que sus autores dejaron sin terminar; compone canciones de los Beatles que la banda «no llegó a hacer»; reconstruye los fragmentos perdidos de obras arqueológicas; hace sonreír a la gente que aparece en antiguas películas mudas o les pone voz en perfecta sincronía con los movimientos de los labios. Ya no hace falta el experto capaz de descifrar lo que dice una persona con sólo mirar los gestos labiales. Es todo automático (o eso dice la máquina). Por cierto, que al poner voz a actores que decían cualquier cosa en las películas mudas, sabedores de que nadie les oiría, los resultados serán del todo fascinantes: estaremos ante películas, no surrealistas, lo siguiente. ¿Habrá, entonces, que volver a fundar una historia del cine a partir, no de lo que se quiso filmar, sino de lo que realmente se filmó? ¿Pasará a ser la historia del cine entre 1894 y 1929 una historia documentalista? Pero, ¿no lo era ya, decía Buñuel?
Estas potentes capacidades del machine learning presentan cuestiones y problemas sobre el valor de la objetividad (¿existe la objetividad sin contexto?), sobre la competencia pública de los relatos (los algoritmos pretenden saber de nosotros más que nosotros mismos), sobre la función de los expertos (qué papel tienen ante las conclusiones visibilizadas por los datos), sobre la capacidad de comprensión (los programadores a menudo no saben cuál es la lógica interna de los algoritmos), o sobre los efectos en los mercados culturales y en la interpretación social de los fenómenos (los algoritmos son instantáneos, invisibles y ubicuos, y son alimentados constantemente por los datos facilitados por usuarios despreocupados). Pero, al mismo tiempo, ofrecen posibilidades inéditas para observar alternativas de indexación, para producir ficciones que refleja los propios mitos en que tradicionalmente se han basado las disciplinas historiográficas para proponer y validar genealogías.
En definitiva, ¿estaremos alumbrando una historia del arte específicamente pensada para ser procesada por los algoritmos, construida con un lenguaje solamente tejido para que el algoritmo pueda interpretarlo y emplazar su diagnosis con la máxima plenitud? Imaginemos un programa de IA dentro de 30 años. Nos encontramos ante una paradoja interesante. Gracias a todos los inputs almacenados, podrá reconstruir sin pestañear la (entonces) historia reciente del arte precisamente porque el dataset de un enorme Big Data se fue configurando para poder ser leído por las máquinas, con sus propias lógicas, por ejemplo, con conjuntos complejos de tags que le permitan relacionar las cosas iconológicamente. Si eso así se diera, ¿podría interpretar la producción cultural previa al tiempo en que la historia del arte fue escrita para las máquinas bajo perspectivas que pudieran cuestionar el propio lenguaje del dataset, por ejemplo, poniendo en solfa la propia idea de genealogía? Dado que los algoritmos se ofrecen para predecir la realidad, ya sea pasada o futura, la realidad que finalmente suceda y que no coincida con el pronóstico entrará en la lista como «desviación estadística», es decir, listas de anomalías conducidas también mediante patrones. ¿Qué clase de genealogías podrá emitir esa máquina? ¿Tendrán algo que ver con el complejo mundo que hizo posible aquellas obras de arte o sólo reflejarán los criterios que les fueron impuestos a las máquinas para buscar determinados patrones considerados “predecibles”?
[1]https://www.e-flux.com/announcements/42952/the-next-documenta-should-be-curated-by-an-artist/