JUEVES 16 DICIEMBRE

09.00. Inauguración del congreso

10.00.  Daniel Torres Salinas y Sara Mariottini (Universidad de Granada). Una introducción al Big Data

Resumen
Introduction to the great world of Big Data processing with a humanist approach. In this chapter, we examine the main techniques and algorithms used in the field of social sciences and humanities. It will discuss the problems and opportunities that this universe is opening up for scientific research.

10.45.  Ana Gallego Cuiñas (Universidad de Granada).  La literatura vista desde el Big Data y la Inteligencia Artificial: conceptos clave y desafíos críticos.

Resumen
Desde los célebres estudios de Franco Moretti de finales del siglo XX, ha ido cobrando más importancia la geopolítica del conocimiento para revelar la mundialización de las literaturas y sus nuevos modos de producción y circulación. En este rubro, las herramientas que ha proporcionado el Big Data, y el avance de la Inteligencia Artificial, en la última década ha propiciado que se pongan en valor determinadas corrientes teóricas, estéticas y autores, vinculados a determinados espacios –académicos, culturales- hegemónicos, es decir, a redes de sociabilidad y circulaciones geopolíticas. Se trata entonces de pensar el “dataismo” a contraluz de de lo que llamaremos ‘crítica literaria del valor’, que habría de analizar la forma en que afecta el uso literario de los datos, y viceversa, a categorías cardinales para nuestro campo como las de ‘autor’, ‘obra’ y ‘lector’.

Pausa cafe

12.00.  Azucena González Blanco (Universidad de Granada). Epistemología y Big Data: De los grandes relatos a los grandes datos.

Resumen
En 1975, Foucault publicaba Vigilar y castigar, en el que presentaba el panóptico como modelo histórico-epistemológico del poder disciplinario. Desde aquella fecha hasta la actualidad, los modelos de poder disciplinario han seguido la línea de un panoptismo cada vez más metódico y global, del que el Big Data se presenta como una red de redes de poder basado en los datos estadísticos.

En mi trabajo, me propongo analizar, por una parte, estas derivas del poder disciplinario que hacen posible un panoptismo más eficaz, desvinculado de los espacios tradicionalmente disciplinarios como el lugar de trabajo, el hospital, el colegio, la prisión, etc. hasta llegar a lo que, cada vez menos, se ha denominado el espacio de la “vida privada”. Por otra parte, analizaremos qué transformación epistemológica supone este tipo de conocimiento en la sociedad del siglo XXI, para lo que definiremos el cambio de episteme “de los grandes relatos a los grandes datos”, en relación a lo que Byung-Chul Han ha llamado “dataísmo”. Y, por último, consideraremos cómo este sistema relacional del conocimiento puede ser, al mismo, una “máquina de resistencia” (Deleuze/Foucault) a partir de modelos literarios y artísticos.

12.45.  José Antonio Pérez Tapias (Universidad de Granada). ¿Es posible un ‘humanismo otro’ desde los pliegues de los Big Data?

Resumen
Las Humanidades no pueden permanecer ajenas al nuevo lenguaje que suponen los Big Data y al conocimiento, también con sus sombras, que dicho lenguaje hace posible y vehicula. Eso es así en una época caracterizada, entre otros rasgos, por la crisis de la modernidad, época que, desde que se empezó a hablar de posmodernidad, fue entendida por muchos, con sólidas razones para ello, como época neobarroca. Siguiendo pautas ofrecidas por Gilles Deleuze, entre otros, respecto a la cultura barroca en su obra El pliegue, tomando como referencia fundamental el pensamiento de Leibniz, calificable como pensador humanista a la vez que gran hombre de ciencia -ahí dejó su cálculo infinitesimal-, podemos plantear nuestra indagación entre «los pliegues» de los Big Data en la actualidad. Aplicando una doble estrategia de recepción y de sospecha, hay que ver cómo y hasta qué punto contribuyen u obstaculizan los Big Data a un pensamiento que pueda impulsar un «humanismo otro». Es cuestión clave para afrontar un nuevo tiempo que, con el filósofo Enrique Dussel, quizá podamos considerar transmodernidad.

Almuerzo

16.30.  Miguel Calderón (Universidad de Granada). Linguistic corpora. “Big selected data” for the Spanish language.

Resumen

Hablar de Big Data en lingüística es tratar inevitablemente de tipos y de tamaños de corpus. Un corpus lingüístico es una colección de textos almacenados en formato electrónico, que resulta representativa de la variedad lingüística que se pretende estudiar científicamente (Rojo 2021, 1). Cualquier usuario tiene actualmente a su disposición tres tipos de corpus: de referencia, especializados y masivos (Rojo 2021, 71-88), a los que se puede añadir el uso de la web y de las redes sociales como corpus casi infinito. Los corpus propiamente dichos cuentan con cierto grado de codificación y de selección documental previos y con una herramienta asociada que permite la búsqueda de palabras en contexto, además de la obtención de frecuencias de uso y de coaparición. El título de una conferencia de Sergio Jiménez («Lo que nos cuentan las palabras cuando las contamos») resume muy bien  lo que se hace cuando se consulta un corpus: contar palabras para desvelar patrones de comportamiento.

            En este trabajo se analizarán las ventajas e inconvenientes de la consulta de distintos tipos de corpus y se mostrará la importancia de seleccionar la documentación y de codificar adecuadamente los corpus para recuperar más y mejores datos de investigación. Como ejemplo de corpus de referencia, se tomará el Corpus del Nuevo Diccionario Distórico del Español (CDH); como corpus especializados, se analizarán Post Scriptum (Vaamonde 2018) y Oralia diacrónica del español (ODE, Calderón Campos/Vaamonde 2020). Por último se explotarán las posibilidades de un corpus masivo como EsTenTen18, de casi 18 000 millones de palabras, disponible en la plataforma Sketch Engine.

Bibliografía citada:

Calderón Campos, Miguel; Vaamonde, Gael (2020): «Oralia Diacrónica del Español. Un nuevo corpus de la Edad Moderna». Scriptum Digital, 9, 167-189.

Rojo, Guillermo (2021). Introducción a la lingüística de corpus en español. Londres y Nueva York: Routledge.

Vaamonde, Gael (2018). «La multidisciplinariedad en la creación de corpus históricos: El caso de Post Scriptum». En «Humanidades digitales: sociedades, políticas, saberes». Artnodes, 22, 118-127.

17.15. Carolina Gainza (Universidad Diego Portales, Chile). Literatura y algoritmos: formas de vincular “aesthesis” y “mathesis” en las humanidades digitales.

Resumen
Las humanidades y las literaturas digitales han crecido de forma importante en las últimas décadas. Sin embargo, es interesante notar cómo, a medida que se ha experimentado este crecimiento, también se han separado como dos campos disciplinares diferentes. Esta separación es problemática porque reproduce la desvinculación entre “mathesis” y “aesthesis”, fomentado por el asentamiento de la ciencia como forma privilegiada de generar conocimientos legítimos y la separación disciplinar que ha obstaculizado el diálogo entre ciencias, artes y humanidades. En esta presentación abordaré cómo esta separación de dimensiones es ficticia y no deseable, y cómo podemos observar un diálogo entre “mathesis” y “aesthesis” en las literaturas digitales que utilizan los algoritmos y bases de datos como parte fundamental de los lenguajes que actualmente cruzan las prácticas creativas. En este sentido, tanto la exploración de metodologías computacionales en la investigación en humanidades como el análisis de los fenómenos creativos de la cultura digital desde perspectivas críticas deberían ser el horizonte de las humanidades digitales de hoy.

Pausa –café

18.30.  Carolina Ferrer (Université du Quebec à Montreal, Canadá). La literatura hispanoamericana en el sistema mundial: un análisis criticométrico.

Resumen

El presente estudio surge del cruce de dos tendencias contemporáneas. Por un lado, se inscribe en el renovado interés por la literatura mundial (Casanova 2008; Damrosch 2014; Pradeau et Samoyault 2005; Saussy 2006) y, por otro lado, se funda en los nuevos observables de las humanidades digitales (Boyd and Crawford 2012; Mayer-Schönberger and Cukier 2013; Schreibman, Siemens and Unsworth 2016).

Conceptualmente, esta investigación se basa en la definición de campo de Pierre Bourdieu (1992), la teoría de polisistemas de Itamar Even-Zohar (1990) y la cienciometría (Price 1963; Leydesdorff 1998). Desde el punto de vista metodológico, utilizamos el enfoque de la criticometría (Ferrer 2011), cuyo propósito es medir y estudiar la actividad crítica en las artes. La base de datos seleccionada para extraer y analizar los metadatos es la más importante base literaria, la Modern Language Association International Bibliography. Esta base bibliográfica contiene más de 2,8 millones de referencias, publicadas de 1850 al presente.

Con el propósito de estudiar el lugar que ocupa la literatura hispanoamericana en el sistema mundial, trabajamos a cuatro niveles. En primer lugar, presentamos brevemente la configuración del sistema literario mundial (Ferrer 2018), cuya muestra alcanza a 1.777.414 referencias y cubre las publicaciones críticas de 1850 a 2018. En segundo lugar, estudiamos las publicaciones sobre las 19 literaturas nacionales del subcontinente: Argentina, Bolivia, Chile, Colombia, Costa Rica, Cuba, República Dominicana, Ecuador, El Salvador, Guatemala, Honduras, México, Nicaragua, Panamá, Paraguay, Perú, Puerto Rico, Venezuela y Uruguay. Esta muestra está constituida por más de 70.000 referencias. Asimismo, analizamos la doble inscripción de la literatura hispanoamericana según las dimensiones continental y lingüística. Para ello, investigamos, en tercer lugar, sus relaciones con el sistema literario de las Américas, que constituye una muestra de más de 430.000 publicaciones, y, en cuarto lugar, con el sistema del mundo hispánico, que representa aproximadamente 170.000 publicaciones.

Para cada uno de estos sistemas, identificamos los escritores y las obras que acumulan las más altas frecuencias y elaboramos indicadores cronológicos, geopolíticos y lingüísticos. Asimismo, con el objetivo de comprender las modalidades de circulación de la literatura hispanoamericana, analizamos las revistas académicas que contienen el mayor número de artículos del sistema hispanoamericano. Por último, seleccionamos un conjunto de escritores, identificamos las principales características de su recepción crítica internacional y, a través del análisis de las cocitaciones, establecemos las relaciones entre ellos, tanto desde el punto de vista geográfico como genérico. De esta forma, obtenemos una cartografía dinámica del sistema literario hispanoamericano, que surge del análisis de más de 160 años de publicaciones críticas y que se apoya en la ley de los grandes números.

A nuestro parecer, este estudio constituirá un avance significativo del conocimiento, por cuanto permitirá develar la riqueza de los nuevos observables de la era digital, gracias a la introducción de una perspectiva empírica innovadora, la criticometría, que complementa los estudios literarios tradicionales.

Palabras clave

Literatura mundial, literatura hispanoamericana, humanidades digitales, teoría de polisistemas, criticometría.

Bibliografía

Bourdieu, Pierre. Les règles de l’art. Genèse et structure du champ littéraire. Paris : Seuil, 1992.

Boyd, Danah, and Kate Crawford. “Critical Questions for Big Data Provocations for a Cultural, Technological, and Scholarly Phenomenon,” Information Communication & Society 15.5 (2012): 662-79.

Casanova, Pascale. La république mondiale des lettres. Paris : Seuil, 2008.

Damrosch, David (ed.). World Literature in Theory. Malden: Wiley Blackwell, 2014.

Even-Zohar, Itamar. «Polysystem Theory.» Poetics Today 11 (1990): 1-268.

Ferrer, Carolina. “El boom hispanoamericano: del texto a la pantalla”, In Nuevas aproximaciones al cine hispánico: Migraciones temporales, textuales y étnicas en el bicentenario de las independencias iberoamericanas (1810-2010). Barcelona: Promociones y Publicaciones Universitarias, 2011, 79-101.

Ferrer, Carolina. « Les études littéraires à l’ère de la mondialisation : traces et trajets au prisme des nouveaux observables numériques », Zizanie 2.1 (2018): 76-101.

Leydesdorff, Loet. “Theories of Citation?” Scientometrics 43 (1998): 5-25.

Mayer-Schönberger, Viktor and Kenneth Cukier. Big data. A revolution that will transform how we live, work, and think. Boston and New York: Houghton Mifflin Harcourt, 2013.

Modern Language Association International Bibliography. www.mla.org.

Pradeau, Christophe et Tiphaine Samoyault, Où est la littérature mondiale? Saint-Denis : Presses Universitaires de Vincennes, 2005.

Price, Derek de Solla. Little Science, Big Science. New York: Columbia University Press, 1963.

Saussy, Haun (dir.). Comparative Literature in an Age of Globalization. Baltimore: Johns Hopkins University Press, 2006.

Schreibman, Susan, Ray Siemens and John Unsworth (dir.). A New Companion to Digital Humanities. Malden: Wiley and Sons, 2016.

19.30. Cristóbal Lozano & Ignacio López Sako (Universidad de Granada). Big Data vs Big “Quality” Data: A look at corpora of Spanish as a second language (L2).

Resumen

We live in an era in which massive amounts of data (Big Data) can be stored, processed and analysed to predict virtually anything, and they are becoming “one of the most important technology trends” (Hurwitz et al., 2013: 36) in the way information is managed and used in a wide variety of areas, including linguistic research. Big Data are basically characterised as being “big” in “volume, velocity and variety” (Ritchie & McArdle, 2016: 1). In other words, they are large, fast and representative of structured and non-structured information. However, we argue that one major problem that ‘big’ data pose is that they can be useful for extensive searches of massive, uncleaned information but are sometimes not amenable for intensive (in-depth and qualitative) searches that aim at testing research-informed hypotheses.

We will frame this discussion around learner corpora (LC), which are large databases of the language produced by learners of a second language (L2) (Granger et al., 2015; Tracy-Ventura & Paquot, 2021). LC are designed to contain ‘quality’ ‘big’ data that are designed to cater for the specific needs of researchers in applied linguistics (second language acquisition and bilingualism) and natural language processing, as well as language-learning material designers, and foreign language learners and teachers (Díaz-Negrillo & Thompson, 2013).

In this paper, we showcase a representative LC, namely, CEDEL2: Corpus de Español como L2 (Lozano, 2009, in press; Lozano & Mendikoetxea, 2013), which is freely available at http://cedel2.learnercorpora.com. CEDEL2 is a state-of-the-art learner corpus that has been especially designed to meet the needs of researchers and practitioners alike by following strict corpus-design principles (Sinclair, 2005) and the latest recommendations in the field (Tracy-Ventura, Paquot & Myles, 2021). Crucially, CEDEL2 contains large amounts of metadata (i.e., detailed information about the variables belonging to each speaker and each text).

We will use CEDEL2 to illustrate a particular linguistic phenomenon in the context of ‘big’ data: the acquisition of anaphora resolution in L2 Spanish. We will argue (and show) that the automatic annotation (i.e., tagging) and analysis of ‘big’ linguistic data is coarse-grained and often misses crucial information that can be only uncovered via manual, fine-grained qualitative annotation that is theoretically motivated. In other words, the combination of ‘big’ data with the manual implementation of a fine-grained tagging process, plus the inclusion of large amounts of metadata, are essential for hypothesis-driven analyses of the language. Only if researchers are ultimately able to create synergies between ‘big’ linguistic data and ‘quality’ data analyses, then they will be able to better understand how L2s are acquired and how the human mind deals with language.

References

CEDEL2 (Corpus Escrito del Español como L2): http://cedel2.learnercorpora.com

Díaz-Negrillo, A., & Thompson, P. (2013). Learner corpora: Looking towards the future. In A. Díaz-Negrillo, N. Ballier, & P. Thompson (Eds.), Automatic Treatment and Analysis of Learner Corpus Data (pp. 9–29). John Benjamins.

Granger, S., Gilquin, G., & Meunier, F. (Eds.). (2015). The Cambridge Handbook of Learner Corpus Research. Cambridge University Press.

Hurwitz, J., Nugent, A., Harper, F., & Kaufman, M. (2013). Big Data for Dummies. John Wiley & Sons.

Lozano, C. (2009). CEDEL2: Corpus Escrito del Español L2. In C. M. Bretones Callejas et al. (Eds.), Applied Linguistics Now: Understanding Language and Mind (pp. 197-212). Universidad de Almería.

Lozano, C. (in press). CEDEL2: Design, compilation and web interface of an online corpus for L2 Spanish acquisition research. Second Language Research.

Lozano, C., & Mendikoetxea, A. (2013). Learner corpora and second language acquisition: the design and collection of CEDEL2. In N. Ballier, A. Díaz-Negrillo, & P. Thompson (Eds.), Automatic Treatment and Analysis of Learner Corpus Data. John Benjamins.

Ritchie, R., & McArdle, G. (2016). What makes Big Data, Big Data? Exploring the ontological characteristics of 26 datasets. Big Data & Society, January-June: 1-10.

Sinclair, J. (2005). How to build a corpus. In M. Wynne (Ed.), Developing linguistic corpora: A guide to good practice (pp. 79-83). Oxbow books.

Tracy-Ventura, N., & Paquot, M. (Eds.). (2021). The Routledge Handbook of SLA and Corpora. Routledge. https://doi.org/10.4324/9781351137904

Tracy-Ventura, N., Paquot, M., & Myles, F. (2021). The future of corpora in SLA. In N. Tracy-Ventura & M. Paquot (Eds.).

VIERNES 17 DICIEMBRE

09.00. Pedro Ruiz Pérez (Universidad de Córdoba). Little Big Data: el poema ante la base de datos.

Resumen
 Los métodos de análisis cuantitativo y su aplicación con herramientas que acrecientan exponencialmente la dimensión numérica abren caminos ilusionantes para un estudio renovado de la literatura. Se trata, sin embargo, de caminos inexplorados donde la ilusión corre el riesgo de convertirse en espejismo y descubrir oasis inexistentes. Para que las cifras de lo digital no se impongan al discurso de las letras en las humanidades se plantea una reflexión que, desde la premisa de que toda tecnología implica una ideología, prevenga de incursiones por territorios salvajes. En esta perspectiva se plantean como elementos de dicha reflexión los relativos a la especificidad de la literatura y sus discursos, el papel de las herramientas digitales y la dimensión del big data en la investigación dentro de este campo, la redefinición del objeto de estudio y la creación de corpus a escala. Se propone como un ensayo de las posibilidades de diálogo entre la tradición filológica y crítica y la epistemología derivada de una tecnología aún en expansión.

10.00. Wenceslao Arroyo Machado y Nicolás Robinson García (Universidad de Granada). Measuring scientific impact in the humanities in the age of big data.

Resumen
La evaluación de la ciencia ha encontrado desde su origen desafíos en el estudio de las Humanidades. Estas diferencias y limitaciones se han abordado en múltiples ocasiones, señalándose las principales características que hacen diferentes a estas disciplinas del resto de campos científicos y limitan su estudio cienciométrico, como las tipologías documentales empleadas para la difusión de los resultados de investigación. Problemas que ahora, gracias a las nuevas fuentes de datos y métodos de big data, pueden ser abordados. Este trabajo afronta dichas limitaciones a través de estas nuevas herramientas. Para ello se emplea la base de datos Dialnet y ORCID para identificar de manera automatizada a humanistas y rastrear su actividad científica en estas y otras fuentes, así como capturar y medir el impacto de la misma a través de las citas y menciones en medios sociales. Gracias a las técnicas de big data esta actividad es también caracterizada, identificando los diferentes perfiles de investigadores. Como resultado, además de ejemplificarse la utilidad y potencial de los nuevos datos y métodos para el estudio y evaluación de las Humanidades, se trata de confirmar las diferencias tradicionalmente señaladas al respecto y determinar si verdaderamente existen en la actualidad.

10.45.Francisco Luis Benitez (Universidad de Granada). ¿What is blockchain and how can help the humanities?

Resumen
Se analizará la filosofía del blockchain en relación a las Humanidades a la hora de construir un metarrelato y un nuevo horizonte de transmedialidad entre el mundo tecnológico y el de las Humanidades y las oportunidades, retos e implicaciones que ello conlleva, máxime por su relación con otras tecnologías como el Big Data, el internet de las cosas o la inteligencia artificial. Esta aproximación se entiende desde una visión introductoria que permita «abrir» nuevos conceptos y contextos de hibridación entre el mundo de la tecnología y las humanidades, gracias a la filosofía intrínseca de las tecnologías de registro distribuido: la posibilidad de construir una sociedad más desntermediada y adhocrática, donde los conceptos de cooperación, transparencia y confianza se vean reforzados para desarrollar nuevo conocimiento compartido.

Pausa café

12.00. Presentación del proyecto I+D COVID-TECAPensamiento, pandemia y Big Data.

Resumen
Financiado por los Fondos FEDER y la Junta de Andalucía, nuestro proyecto ofrece una cartografía de las reflexiones críticas producidas en el espacio iberoamericano sobre el impacto social, político, económico y cultural de esta pandemia con técnicas y herramientas de análisis del Big Data como el ‘Topic Modeling’. En primer lugar, hemos utilizado todo el material recopilado durante el primer año de pandemia para llevar a cabo un estudio por campos epistémicos: geopolítico, de género, biopolítico, filosófico y literario. En segundo lugar, hemos creado una plataforma de análisis digital con los datos que nos ha permitido comunicar cuantitativamente los resultados por países y categorías de una forma directa y efectiva mediante bancos de palabras. En el contexto de una transición paradigmática que atraviesa las universidades del mundo avanzado, las Humanidades Digitales, el Big Data y las nuevas herramientas tecnológicas, han de trenzarse con los procesos tradicionales de investigación en Humanidades. De esta manera, presentamos nuestra COVID-TECA como proyecto de referecia para otros grupos humanistas y sociales, nacionales e internacionales, interesados en la interrelación entre las Humanidades y el Big Data.

12.45. Diana Sanz Roig (Universitat Oberta de Catalunya). Ciencia de datos e historia de la traducción en Iberoamérica.

Resumen
Esta conferencia propone el término de Big Translation History (BTH) para referirse a una historia de la traducción que puede analizarse computacionalmente y que defino como un nuevo ámbito que incluye: (1) una investigación a gran escala (geográfica y temporal); (2) datos masivos entendidos como big data, pero también little data, y en el contexto de fuentes heterogéneas y a menudo no estructuradas; y (3) el uso de técnicas de computación como parte del proceso de investigación y para la producción de conocimiento, y no solo para visualizar datos y resultados. En este sentido, esta conferencia avanza la hipótesis de que uno de los potenciales principales de una BTH como marco conceptual y metodológico es contribuir a descentralizar la historia literaria y de la traducción, y la historia cultural en un sentido amplio. Para ello, presentaré como estudio de caso el análisis a gran escala de la traducción literaria en el ámbito hispánico entre 1898 y 1945 con un énfasis particular en los retos metodológicos que esta investigación implica, así como en el papel de determinados mediadores. El objetivo último de esta conferencia es poder demostrar como la BTH puede aplicarse no solo al caso del español y el espacio iberoamericano, sino también a otras lenguas, períodos, y distintas escalas geográficas.

13.30. Clausura del congreso.