Vistas panorámicas sobre el patrimonio visual colectivo a través de redes neuronales convolucionales Las exposiciones Revolutionary Arkive y Mnemosyne 2.0 de Pilar Rosado

Main Article Content

Pilar Rosado Rodrigo
Ferran Reverter Comes

En el contexto de una sociedad saturada de imágenes, las redes neuronales convolucionales (convolutional neural networks - CNN), preentrenadas a partir de la información visual contenida en miles y miles de imágenes, constituyen una herramienta de gran utilidad para ayudarnos a ordenar el patrimonio visual, ofreciéndonos así un punto de acceso que de otra manera sería imposible.


Una de las responsabilidades del artista contemporáneo es adoptar posiciones que ayuden a dar significado, a proyectar sentido sobre la acumulación visual a la que nos enfrentamos. En este artículo pasamos a describir dos exposiciones de la artista Pilar Rosado: Revolutionary Arkive y Mnemosyne 2.0. En ellas se ha utilizado la red neuronal artificial ResNet-50 para extraer las características visuales de grandes conjuntos de imágenes y los descriptores de imagen obtenidos se han usado como entrada para el algoritmo t-SNE. Así, se han elaborado grandes mapas visuales formados por miles de imágenes ordenadas siguiendo criterios de similitud formal en los que se ponen de manifiesto los patrones visuales de los arquetipos de una determinada categoría semántica.


La manera de archivar y recuperar nuestra memoria colectiva debe tener una correlación con los avances tecnológicos y científicos de nuestra época para que se nos vayan descubriendo progresivamente nuevos horizontes de conocimiento. En su práctica artística, Rosado explora, en el ámbito de la cocreación humano-máquina, cuestiones políticas que se pueden abordar desde la imagen y que implican a las tecnologías de aprendizaje automático, como la gestión de la información en los archivos visuales del futuro o la revisión de la memoria visual colectiva.

Palabras clave
Deep learning, postfotografía, computer vision, t-SNE, convolutional neural networks (CNN), Aby Warburg

Article Details

Cómo citar
Rosado Rodrigo, Pilar; y Reverter Comes, Ferran. «Vistas panorámicas sobre el patrimonio visual colectivo a través de redes neuronales convolucionales Las exposiciones Revolutionary Arkive y Mnemosyne 2.0 de Pilar Rosado». Artnodes, n.º 26, pp. 1-12, doi:10.7238/a.v0i26.3354.
Biografía del autor/a

Pilar Rosado Rodrigo, Universitat de Barcelona

Artista i investigadora que explora l’ús d’algorismes d’aprenentatge automàtic en l’àmbit de la creació. Treballant amb grans col·leccions d’imatges d’arxiu i aquestes noves tecnologies pretén proporcionar punts de vista alternatius per a la reflexió i que qüestionin les convencions de la nostra mirada. Doctora en Belles arts i Llicenciada en Biologia. Entre 2012 i 2015 va ser becada per la Generalitat de Catalunya per dur a terme la seva recerca titulada «Formes latents: protocols de visió artificial per a la detecció d’analogies aplicats a la catalogació i creació artística», els resultats de la qual han estat publicats en la prestigiosa revista Leonardo del MIT Press, el juny de 2019. Combina la seva carrera artística amb la recerca i la docència com a professora a la Facultat de Belles Arts de la Universitat de Barcelona, i és membre de diversos projectes d’R+D.

ORCID: https://orcid.org/0000-0001-7142-5047

Ferran Reverter Comes, Universitat de Barcelona

Professor agregat d’Estadística del Departament de Genètica, Microbiologia i Estadística de la Universitat de Barcelona. Professor del màster d’Estadística i Recerca Operativa UB-UPC de l’assignatura Statistical Learning. Ha realitzat estades postdoctorals al Laboratoire de Statistique et Probabilités Université Paul Sabatier (Tolosa, 2008) i al Centre de Regulació Genòmica del Parc de Recerca Biomèdica (Barcelona, 2013-2017). En l’actualitat, centra la seva recerca en el desenvolupament i la implementació d’eines estadístiques per a l’anàlisi de dades en biociències, la millora de mètodes basats en funcions de nucli (kernel methods) per augmentar la interpretabilitat i la visualització, i en la implementació d’eines d’anàlisi computacional d’imatges en l’àmbit biomèdic i artístic. ORCID: https://orcid.org/0000-0002-9489-3350

Citas
Boden, Margaret Ann. 2017. Inteligencia Artificial. Madrid: Turner Noema.

Company, Oriol. 2018. «Revolutionary ArKive. Ordenar el desordre». Núvol. El Digital de la Cultura, October 10. https://www.nuvol.com/pantalles/revolutionary-arkive-ordenar-el-desordre-55800.

D’Oultremont, Maria. 2019. «Pilar Rosado i la panorámica perduda de les imatges». Núvol. El Digital de la Cultura. May 17. https://www.nuvol.com/art/pilar-rosado-i-la-panoramica-perduda-de-les-imatges-60640.

Didi-Huberman, George. 2010. Atlas. ¿Cómo llevar el mundo a cuestas?. Madrid: TF Editores.

Festival Panoràmic. 2018. «The whole world is watching». http://panoramicgranollers.cat/revolutionary-arkive/.

Fontcuberta, Joan. 2016. La furia de las imágenes. Notas sobre la postfotografía. Barcelona: Galaxia Gutenberg.

Fontcuberta, Joan. 2019. «El gran riu. Per a una teoría general de la revolta». El món d’Ahir. Història d’autor, 13: 176-189.

Google. «Cómo funcionan los algoritmos de Google». May 22, 2020. https://www.google.com/intl/es_es/search/howsearchworks/algorithms/.

Grebe, Anja. 2010. «Museum and Mnemosyne. Aby Warburg, André Malraux and the re-/construction of art history as social history». “Le Musée Imaginaire” and Temptations of the Orient and Japan, ed. Tanaka Hidemichi, 55-61. Tokyo: Akita.

He, Kaiming; Xiangyu Zhang, Shaoqing Ren y Jian Sun. 2016. «Deep residual learning for image recognition». In Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR), 770-778. http://openaccess.thecvf.com/content_cvpr_2016/html/He_Deep_Residual_Learning_CVPR_2016_paper.html. https://doi.org/10.1109/CVPR.2016.90

Karpathy, Andrej. 2017. «t-SNE visualization of CNN codes», accessed January 12. https://cs.stanford.edu/people/karpathy/cnnembed/.

Koffka, Kurt. 1967. Principles of Gestalt Psychology, New York: Mimesis International.

Köhler, Wolfgang. 1947. Gestalt psychology: an introduction to new concepts in modern psychology. New York: Liveright.

Malraux, André. 1949. Le Musée imaginaire. Ginebra: Skira.

Manovich, Lev. 2009. «TimeLine», accessed January 10. http://manovich.net/index.php/exhibitions/timeline.

Manovich, Lev. 2012. «¿Cómo ver 1000000 de imágenes? Deforma cultura online, 3, 1-11, Recuperado el 10 de Agosto de 2018 de http://www.deforma.info/es/product.php?id_product=24

Manovich, Lev. 2019. «Defining AI Arts: Three Proposals». AI and Dialog of Cultures, Exhibition Catalog. Saint-Petersburg, Russia: Hermitage Museum.

Pérez-Hita, Félix. 2019. «Pilar Rosado y la resurrección de los archivos». Mnemosyne 2.0. Cartografías computacionales de la memoria visual, 1-2. Granollers: Roca Umbert Fàbrica de les Arts.

Rosado, Pilar. 2019. Mnemosyne 2.0. Cartografías computacionales de la memoria visual. Granollers: Roca Umbert Fàbrica de les Arts.

Russakovsky*, Olga, Jia Deng*, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla, Michael Bernstein, Alexander C. Berg, y Li Fei-Fei (* = equal contribution). 2015. «ImageNet Large Scale Visual Recognition Challenge». International Journal of Computer Vision (IJCV), 115: 211–252. https://doi.org/10.1007/s11263-015-0816-y

Saramago, José. 2003. Ensayo sobre la ceguera. Madrid: Alfaguara.
Maaten, Laurens van der y Geoffrey Hinton. 2008. «Visualizing data using t-SNE». Journal of Machine Learning Research, 9 (Nov): 2579-2605.

The Warburg Institute. 2018. «The Mnemosyne Atlas, October 1929», accessed 2020 February 20. https://warburg.sas.ac.uk/collections/warburg-institute-archive/bilderatlas-mnemosyne/mnemosyne-atlas-october-1929.

Warburg, Aby. 2010. Atlas Mnemosyne, traducido por Joaquín Chamorro Mielke. Madrid: Akal.

Artículos similares

<< < 1 2 3 4 5 6 7 8 9 10 > >> 

También puede {advancedSearchLink} para este artículo.