top of page

Resurrezione di Cristo
Domenico Cresti – detto il Passignano

Allucinazione:  quando l'intelligenza artificiale sbaglia!

Ambiguità visiva e bias del dataset

In questo caso, la struttura compositiva, le forme e la distribuzione dei colori hanno generato un’elevata ambiguità interpretativa per il sistema di intelligenza artificiale. L’algoritmo ha faticato a riconoscere elementi fondamentali come lo scudo, i gesti e i movimenti impliciti della scena, mostrando difficoltà persistenti anche quando veniva guidato attraverso prompt dettagliati, comprensivi di titolo dell’opera, autore e periodo storico.

Nonostante numerosi tentativi e una progressiva raffinazione delle istruzioni, ogni generazione ha continuato a presentare piccoli errori ricorrenti. Nessuna versione ha raggiunto una piena coerenza con la composizione originale. Queste imprecisioni non dipendono da una mancanza di indicazioni, ma da limiti strutturali nella capacità interpretativa del modello.

Un nodo centrale riguarda la natura dei dati di addestramento. La maggior parte dei sistemi generativi è stata formata principalmente su enormi archivi fotografici contemporanei, più che su corpus selezionati di opere d’arte storiche. Di conseguenza, il loro “sguardo” è modellato soprattutto su immagini fotografiche, e non sulle convenzioni pittoriche, sui codici simbolici e sulle strutture compositive proprie della tradizione artistica.

Di fronte a composizioni complesse, a stratificazioni simboliche o a stili specifici della pittura antica e barocca, il modello tende a tradurre ciò che vede in pattern derivati dalla cultura fotografica. Questo processo produce letture parziali, semplificazioni e distorsioni formali.

Anche quando vengono fornite informazioni contestuali sull’opera, il sistema non apprende nel senso umano del termine. Il prompt agisce come un vincolo temporaneo, non come un processo di educazione visiva. Il modello continua a operare secondo le proprie associazioni statistiche di base, radicate prevalentemente nell’immaginario fotografico contemporaneo.

Questo spiega perché ogni generazione, pur avvicinandosi talvolta all’originale, produca sistematicamente piccole incoerenze. L’AI non interiorizza la logica artistica dell’opera, ma ne ricostruisce ogni volta un’approssimazione filtrata attraverso un bias visivo moderno.

In questo senso, il limite non è soltanto tecnico, ma epistemologico. Il sistema non è stato addestrato a “vedere” come uno storico dell’arte, un pittore o un osservatore formato alla tradizione visiva. È stato addestrato, prima di tutto, a riconoscere e ricombinare fotografie.

Visual Ambiguity and Dataset Bias

In this case, the compositional structure, formal elements, and color distribution generated a high level of interpretive ambiguity for the artificial intelligence system. The algorithm struggled to recognize fundamental elements such as the shield, gestures, and implied movements within the scene, showing persistent difficulties even when guided through detailed prompts including the title of the work, the artist’s name, and the historical period.

Despite numerous attempts and progressive refinement of the instructions, each generated version continued to contain small recurring errors. No iteration achieved full coherence with the original composition. These inaccuracies do not result from insufficient guidance, but from structural limitations in the model’s interpretive capacity.

A central issue lies in the nature of the training data. Most generative systems have been trained primarily on large-scale contemporary photographic datasets rather than on curated corpora of historical artworks. As a result, their visual perception is shaped mainly by photographic representations, rather than by painterly conventions, symbolic codes, and art-historical structures.

When confronted with complex compositions, layered symbolism, or stylistic features specific to classical and Baroque painting, the model tends to translate what it “sees” into patterns derived from photographic visual culture. This process leads to partial readings, simplifications, and formal distortions.

Even when contextual information about the artwork is provided, the system does not learn in a human sense. The prompt functions only as a temporary constraint, not as a form of visual education. The model continues to operate according to its underlying statistical associations, which remain largely rooted in contemporary photographic imagery.

This explains why each generation, although sometimes approaching the original, systematically produces minor inconsistencies. The AI does not internalize the artistic logic of the work, but repeatedly reconstructs an approximation filtered through modern visual bias.

In this sense, the limitation is not merely technical, but epistemological. The system has not been trained to “see” as an art historian, a painter, or a viewer educated in visual tradition. It has been trained, above all, to recognize and recombine photographs.

Questo lavoro è stato realizzato dall'artista Vanessa Rusci che ricerca sull'impatto delle nuove tecnologie sulla società contemporanea.

Per maggiori informazioni su questo progetto clicca sul seguente link:

This work was created by artist Vanessa Rusci, whose research focuses on the impact of new technologies on contemporary society.

For more information about this project, please click the following link:

Logo Associazione
bottom of page