Madonna con Bambino
Rutilio Manetti
Allucinazione: quando l'intelligenza artificiale sbaglia!
Bias semantico e limiti dei modelli generativi
In una delle prime animazioni realizzate all’interno di questo progetto, partendo dal dipinto de Madonna con Bambino di Rutilio Manetti, è emerso in modo chiaro un fenomeno di bias semantico nei modelli generativi. Durante i primi tentativi, usando termini apparentemente neutrali come mamma, giovane, bambino, il sistema tendeva a generare ripetutamente figure non corrispondenti al soggetto storico: spesso appariva una donna di colore in ruoli non coerenti con la scena o con l’intenzione iconografica del dipinto.
Questo accade perché i modelli generativi non comprendono i contenuti nel senso umano, ma operano attraverso associazioni statistiche basate sui dati su cui sono stati addestrati. Parole come mother o young woman sono frequentemente associate nei dataset moderni a immagini diverse da quelle storiche o sacre: la AI reagisce quindi rispondendo alle associazioni più frequenti, non alla comprensione della scena.
Quando si è cercato di usare direttamente termini iconografici come Madonna o Gesù, molti sistemi di generazione si sono bloccati a causa dei filtri di contenuto automatico. Questi filtri — impostati per rispettare policy di sicurezza, sensibilità religiosa o per evitare contenuti ritenuti sensibili — finiscono per censurare parole che invece in un contesto artistico sono perfettamente legittime. Per aggirare il problema è stato necessario sperimentare con diverse combinazioni di linguaggio e provare più piattaforme, fino a trovare formulazioni che il sistema potesse accettare senza blocchi ma che allo stesso tempo preservassero la lettura figurativa dell’opera.
Questa esperienza evidenzia un limite importante delle tecnologie generative di immagini e video: non esiste una comprensione culturale, storica o simbolica intrinseca alle reti neurali. Esse non comprendono chi sia la Madonna o cosa significhi Gesù Bambino nei termini di tradizione iconografica; leggono piuttosto segnali statistici associati alle parole nel loro addestramento. L’uso di termini religiosi o storici può attivare moduli di filtraggio automatico piuttosto che arricchire l’interpretazione visiva, portando così a risultati indesiderati o al blocco completo della generazione.
Il lavoro con diverse piattaforme ha mostrato che:
-
i modelli rispondono in modo diverso a parole con carico semantico, religioso o culturale;
-
i filtri di moderazione possono interferire in modo imprevedibile con parole chiave non offensive nel contesto artistico;
-
versioni successive o nuove release di modelli possono cambiare il comportamento di questi filtri;
-
la selezione e la formulazione dei prompt diventano parte essenziale del processo creativo.
Questa esperienza con Madonna con Bambino non è dunque un fallimento tecnico isolato, ma un esempio significativo del modo in cui bias di dataset, filtri semantici e politiche di sicurezza influiscono sulle possibilità espressive dei sistemi generativi.
Semantic Bias and the Limits of Generative Models
In one of the earliest animations produced within this project, based on the painting Madonna and Child by Rutilio Manetti, a phenomenon of semantic bias in generative models became clearly visible. During the first attempts, using apparently neutral terms such as mother, young woman, and child, the system repeatedly generated figures that did not correspond to the historical subject. In many cases, a woman of color appeared in roles that were inconsistent with the scene and with the iconographic intention of the painting.
This occurs because generative models do not understand content in a human sense, but operate through statistical associations based on their training data. Words such as mother or young woman are frequently associated in modern datasets with images that differ from historical or sacred representations. As a result, the AI responds to the most frequent correlations rather than to an actual understanding of the scene.
When iconographic terms such as Madonna or Jesus were used directly, many generation systems were blocked by automatic content filters. These filters, designed to comply with safety policies, religious sensitivities, or content moderation rules, often censor words that are perfectly legitimate in an artistic context. To overcome this limitation, it was necessary to experiment with multiple linguistic formulations and to test several platforms, until finding expressions that the system could accept without blocking, while still preserving the figurative reading of the work.
This experience highlights a major limitation of generative image and video technologies: neural networks lack intrinsic cultural, historical, and symbolic understanding. They do not know who the Madonna is, nor what the Christ Child represents within iconographic tradition. Instead, they rely on statistical signals associated with words in their training data. The use of religious or historical terms therefore tends to activate moderation mechanisms rather than enrich visual interpretation, leading to unwanted results or complete generation failure.
Working across different platforms has shown that:
-
models respond differently to words with semantic, religious, or cultural weight;
-
moderation filters can interfere unpredictably with keywords that are not offensive in artistic contexts;
-
successive versions or new model releases may alter the behavior of these filters;
-
prompt selection and formulation become an essential part of the creative process.
This experience with Madonna and Child is therefore not an isolated technical failure, but a significant example of how dataset bias, semantic filtering, and safety policies shape and constrain the expressive possibilities of generative systems.
Questo lavoro è stato realizzato dall'artista Vanessa Rusci che ricerca sull'impatto delle nuove tecnologie sulla società contemporanea.
Per maggiori informazioni su questo progetto clicca sul seguente link:
This work was created by artist Vanessa Rusci, whose research focuses on the impact of new technologies on contemporary society.
For more information about this project, please click the following link:
