La pitonessa di Endor evoca lo spirito di Samuele alla presenza di Saul
Pietro Dandini - detto Pier Dandini
Allucinazione: quando l'intelligenza artificiale sbaglia!
Allucinazione e instabilità interpretativa
Questa animazione nasce da uno dei processi più problematici dell’intero percorso di ricerca. Nonostante l’uso di immagini ad alta risoluzione e numerosi tentativi su piattaforme differenti, il sistema generativo ha mostrato una persistente difficoltà nel riconoscere correttamente i ruoli, le gerarchie visive e il significato simbolico della scena.
Nel dipinto di Pier Dandini, la figura dell’anziano vestito di bianco svolge una funzione centrale: non è un soldato, né un personaggio fisicamente attivo, ma una presenza visionaria, spirituale, quasi spettrale. Per l’osservatore umano, questa dimensione è immediatamente percepibile attraverso la luce, la postura e la relazione con gli altri personaggi. Per l’intelligenza artificiale, invece, tale distinzione risulta estremamente fragile.
Nel corso delle generazioni, la figura viene frequentemente reinterpretata come un soldato, un personaggio armato o un elemento narrativo secondario, perdendo la propria identità simbolica. Parallelamente, i movimenti dei soldati tendono a diventare rigidi, meccanici o incoerenti, privi della naturalezza emotiva richiesta dalla scena.
Queste distorsioni non dipendono da errori tecnici o dalla qualità del materiale di partenza, ma dalla struttura stessa dei modelli generativi. I sistemi non possiedono una comprensione iconografica o teologica dell’immagine: ricostruiscono le figure attraverso somiglianze statistiche, privilegiando categorie frequenti nei dataset rispetto al significato storico e simbolico dell’opera.
Nel tempo si è osservato anche un progressivo slittamento interpretativo. Ogni nuova iterazione tendeva ad allontanarsi leggermente dalla lettura iniziale, fino a produrre vere e proprie sostituzioni semantiche: personaggi che cambiano funzione, posture che perdono coerenza, relazioni spaziali che si alterano.
Per limitare questi effetti è stato necessario intervenire con una continua riformulazione dei prompt, specificando ruoli, identità e dinamiche corporee, e riducendo l’ampiezza dei movimenti. Anche in questo caso, tuttavia, non è stato possibile ottenere un controllo completo.
L’animazione è stata realizzata senza ricorrere a software di montaggio o interventi manuali: il risultato è interamente generato attraverso processi testuali all’interno dei vincoli delle piattaforme utilizzate.
L’allucinazione presentata in questa pagina non rappresenta quindi un semplice errore tecnico, ma un documento di ricerca. Mostra il punto in cui il sistema perde la capacità di sostenere una lettura simbolica complessa e inizia a sostituirla con categorie visive semplificate, rivelando i limiti attuali dell’intelligenza artificiale nell’interpretazione delle opere storiche.
Hallucination and Interpretive Instability
This animation emerged from one of the most problematic processes within the entire research project. Despite the use of high-resolution images and multiple attempts across different AI platforms, the generative systems consistently struggled to recognize the roles, visual hierarchies, and symbolic meaning of the scene.
In Pier Dandini’s painting, the elderly figure dressed in white plays a central role. He is neither a soldier nor a physically active character, but rather a visionary, spiritual, almost ghost-like presence. For a human observer, this dimension is immediately perceptible through light, posture, and relational dynamics. For artificial intelligence systems, however, this distinction proves extremely fragile.
Across successive generations, the figure is frequently reinterpreted as a soldier, an armed character, or a secondary narrative element, losing his symbolic identity. At the same time, the movements of the soldiers tend to become rigid, mechanical, or incoherent, lacking the emotional naturalness required by the scene.
These distortions do not result from technical flaws or poor image quality, but from the very structure of generative models. Such systems do not possess iconographic, theological, or historical understanding. Instead, they reconstruct figures through statistical similarities, prioritizing frequent categories in their training data over the cultural and symbolic meaning of the artwork.
Over time, a progressive interpretive drift also emerged. Each new iteration tended to move slightly further away from the initial reading, eventually producing clear semantic substitutions: characters changing function, postures losing coherence, and spatial relationships becoming unstable.
To mitigate these effects, continuous prompt reformulation was required, specifying roles, identities, and bodily dynamics while reducing the scope of movement. Even so, full control could not be achieved.
This animation was created without editing software or manual compositing. The final result is entirely generated through textual prompts within the structural limitations of the platforms used.
The hallucination presented on this page is therefore not a simple technical error, but a research document. It reveals the point at which the system loses the ability to sustain a complex symbolic interpretation and begins to replace it with simplified visual categories, exposing the current limits of artificial intelligence in interpreting historical artworks.
Questo lavoro è stato realizzato dall'artista Vanessa Rusci che ricerca sull'impatto delle nuove tecnologie sulla società contemporanea.
Per maggiori informazioni su questo progetto clicca sul seguente link:
This work was created by artist Vanessa Rusci, whose research focuses on the impact of new technologies on contemporary society.
For more information about this project, please click the following link:
