Historia de las Humanidades Digitales
Este elemento es una expansión del contenido de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema. [aioseo_breadcrumbs]
Historia de la informática para las humanidades
Trazar la historia de cualquier área de actividad académica interdisciplinar plantea una serie de cuestiones básicas. ¿Cuál debería ser el alcance del área? ¿Existe un solapamiento con áreas afines que haya influido en el desarrollo de la actividad? ¿Cuál ha sido el impacto en otras disciplinas, quizás más tradicionales? ¿Una relación cronológica directa hace justicia al desarrollo de la actividad? ¿Podría haber desviaciones que nos lleven a vías hasta ahora inexploradas? Cada una de estas cuestiones podría constituir la base de un ensayo en sí mismo, pero dentro del espacio y el contexto disponibles aquí, el enfoque adoptado es presentar un relato cronológico que rastrea el desarrollo de la informática para las humanidades.Entre las Líneas En este sentido, se hace hincapié en destacar los hitos en los que se han producido avances intelectuales significativos o en los que los trabajos realizados en el ámbito de la informática para las humanidades han sido adoptados, desarrollados o aprovechados sustancialmente en otras disciplinas.
No corresponde a este ensayo definir lo que se entiende por informática para las humanidades. El abanico de temas de esta revista da muchas señales al respecto. Basta con decir que nos ocupamos de las aplicaciones de la informática a la investigación y la docencia dentro de las materias que se definen vagamente como “humanidades”, o en inglés británico “the arts”.
Pormenores
Las aplicaciones relacionadas con las fuentes textuales han ocupado un lugar central en el desarrollo de la informática para las humanidades, tal y como la definen sus principales publicaciones, por lo que es inevitable que este ensayo se centre en este ámbito. Tampoco es el lugar para intentar definir la “interdisciplinariedad”, pero por su propia naturaleza, la informática para las humanidades ha tenido que abarcar “las dos culturas”, para aportar el rigor y las metodologías de procedimiento sistemático e inequívoco característicos de las ciencias para abordar problemas dentro de las humanidades que hasta ahora se habían tratado con mayor frecuencia de forma serendípica.
Los inicios: De 1949 a principios de la década de 1970
A diferencia de muchos otros experimentos interdisciplinarios, la informática para las humanidades tiene un comienzo muy conocido.Entre las Líneas En 1949, un sacerdote jesuita italiano, el padre Roberto Busa, comenzó lo que hasta hoy es una tarea monumental: hacer un índice verborum de todas las palabras de las obras de Santo Tomás de Aquino y autores afines, que suman unos 11 millones de palabras del latín medieval. El padre Busa imaginó que una máquina podría ayudarle y, tras oír hablar de ordenadores, fue a visitar a Thomas J. Watson en IBM, en Estados Unidos, en busca de apoyo (Busa 1980). La ayuda llegó y Busa comenzó su trabajo. Los textos completos se fueron transfiriendo a tarjetas perforadas y se escribió un programa de concordancia para el proyecto. La intención era producir volúmenes impresos, de los cuales el primero se publicó en 1974 (Busa 1974).
Un programa de concordancia puramente mecánico, en el que las palabras se alfabetizan según sus formas gráficas (secuencias de letras), podría haber producido un resultado en mucho menos tiempo, pero Busa no se conformaba con esto. Quería producir una concordancia “lematizada” en la que las palabras estuvieran ordenadas según sus encabezamientos de diccionario, y no según sus formas simples. Su equipo intentó escribir un programa informático que se encargara de ello y, finalmente, la lematización de los 11 millones de palabras se completó de forma semiautomática con seres humanos que se encargaron de las formas de las palabras que el programa no podía manejar. Busa puso el listón muy alto en su trabajo. Sus volúmenes están elegantemente maquetados y no renunciaba a ningún nivel de erudición con tal de terminar el trabajo más rápidamente. Ha seguido ejerciendo una profunda influencia en la informática de las humanidades, con una visión y una imaginación que van más allá de los horizontes de muchos de la actual generación de profesionales que se han criado con Internet.Entre las Líneas En 1992 apareció un CD-ROM del material de Aquino que incorporaba algunas características hipertextuales (“cum hypertextibus”) (Busa 1992) y que iba acompañado de una guía de usuario en latín, inglés e italiano. El propio padre Busa fue el primer galardonado con el premio Busa en reconocimiento a los logros más destacados en la aplicación de la tecnología de la información a la investigación humanística, y en su conferencia sobre el premio en Debrecen, Hungría, en 1998, reflexionó sobre el potencial de la World Wide Web para ofrecer material académico multimedia acompañado de sofisticadas herramientas de análisis (Busa 1999).
En la década de 1960, otros investigadores empezaron a ver las ventajas de trabajar con concordancias. Una serie de cuatro artículos de Dolores Burton en la revista Computers and the Humanities en 1981-2 intentó reunirlos, comenzando con una discusión sobre los años 50 (Burton 1981a, 1981b, 1981c, 1982). Algunos de estos investigadores eran estudiosos individuales cuyos intereses se concentraban en un conjunto de textos o autores.Entre las Líneas En el Reino Unido, Roy Wisbey elaboró una serie de índices de textos del alto alemán medio temprano (Wisbey 1963).Entre las Líneas En Estados Unidos, las concordancias de Stephen Parrish a los poemas de Matthew Arnold y W B. Yeats introdujeron la serie de concordancias publicadas por Cornell University Press (Parrish 1962).Entre las Líneas En este periodo también se crearon instalaciones informáticas en algunas de las principales academias de idiomas de Europa, principalmente para ayudar a la compilación de diccionarios. Algunos ejemplos son el Trésor de la Langue Française (Gorcy 1983), creado en Nancy para crear un archivo de material literario francés, y el Instituto de Lexicología Holandesa de Leiden (De Tollenaere 1973).
Aunque gran parte de la actividad en esta época se concentraba en la producción de concordancias como fines en sí mismos, una aplicación de estas herramientas comenzó a cobrar vida propia. El uso de enfoques cuantitativos en los estudios de estilo y autoría es anterior a la informática. Por ejemplo, Augustus de Morgan, en una carta escrita en 1851, propuso un estudio cuantitativo del vocabulario como medio para investigar la autoría de las Epístolas Paulinas (Lord 1958) y T. C. Mendenhall, escribiendo a finales del siglo XIX, describió su máquina de contar, mediante la cual dos señoras calculaban el número de palabras de dos letras, tres y así sucesivamente en Shakespeare, Marlowe, Bacon y muchos otros autores en un intento de determinar quién escribió Shakespeare.Si, Pero: Pero la llegada de los ordenadores hizo posible registrar las frecuencias de las palabras en un número mucho mayor y con mucha más precisión de lo que puede hacer cualquier ser humano.Entre las Líneas En 1963, un clérigo escocés, Andrew Morton, publicó un artículo en un periódico británico en el que afirmaba que, según el ordenador, San Pablo sólo escribió cuatro de sus epístolas. Morton basó su afirmación en el recuento de palabras comunes en el texto griego, además de algunas estadísticas elementales. Siguió examinando diversos textos griegos, produciendo más artículos y libros que se concentraban en el examen de las frecuencias de las palabras comunes (normalmente partículas) y también en la longitud de las frases, aunque se puede argumentar que la puntuación que identifica las frases fue añadida a los textos griegos por los editores modernos.
Se cree que el primer uso de los ordenadores en un estudio de autoría disputada fue el realizado sobre las Cartas de Junius por Alvar Ellegard. Publicado en 1962, este estudio no utilizó un ordenador para hacer el recuento de palabras, pero sí utilizó cálculos de máquina que ayudaron a Ellegard a hacerse una idea general del vocabulario a partir del recuento manual. La que probablemente sea la investigación más influyente sobre la autoría basada en el ordenador también se llevó a cabo a principios de la década de 1960. Se trata del estudio realizado por Mosteller y Wallace sobre los Documentos Federalistas en un intento de identificar la autoría de los doce documentos en disputa (Mosteller y Wallace 1964). Con tanto material de ambos candidatos a la autoría sobre el mismo tema que los documentos disputados, este estudio presentaba una situación ideal para el trabajo comparativo. Mosteller y Wallace se interesaron sobre todo por los métodos estadísticos que emplearon, pero pudieron demostrar que era muy probable que Madison fuera el autor de los trabajos en disputa. Sus conclusiones han sido generalmente aceptadas, hasta el punto de que los Federalist Papers se han utilizado como prueba para nuevos métodos de discriminación de la autoría.
En ese momento se prestó mucha atención a las limitaciones de la tecnología.
Informaciones
Los datos a analizar eran textos o números. Se introducían laboriosamente a mano, bien en tarjetas perforadas, en las que cada tarjeta contenía hasta ochenta caracteres o una línea de texto (sólo letras mayúsculas), o bien en cintas de papel, en las que quizá se podían escribir letras minúsculas, pero que no podían ser leídas en absoluto por un ser humano. El padre Busa cuenta historias sobre el transporte de camiones llenos de tarjetas perforadas de un centro a otro en Italia. Toda la computación se llevaba a cabo como procesamiento por lotes, donde el usuario no podía ver los resultados en absoluto hasta que aparecía la impresión cuando el trabajo se había ejecutado. La representación del juego de caracteres pronto se reconoció como un problema sustancial que apenas ha empezado a resolverse ahora con la llegada de Unicode, aunque no para todo tipo de material de humanidades. Se idearon varios métodos para representar las letras mayúsculas y minúsculas en las tarjetas perforadas, la mayoría de las veces insertando un asterisco o un carácter similar antes de una verdadera letra mayúscula.
Detalles
Los acentos y otros caracteres no estándar debían tratarse de forma similar y los alfabetos no romanos se representaban completamente en transliteración.
La mayoría de los conjuntos de datos a gran escala se almacenaban en cinta magnética, que sólo puede procesarse en serie. Una cinta de tamaño completo tardaba unos cuatro minutos en enrollarse de un extremo a otro, por lo que el software se diseñaba para minimizar el movimiento de la cinta. El acceso aleatorio a los datos, como ocurre en un disco, no era posible.
Una Conclusión
Por lo tanto, los datos debían almacenarse de manera serial. Esto no era tan problemático para los datos textuales, pero para el material histórico podía significar la simplificación de los datos, que representaban varios aspectos de un objeto (formando varias tablas en la tecnología de bases de datos relacionales), en un único flujo lineal. Esto ya era suficiente para disuadir a los historiadores de embarcarse en proyectos informáticos.
Los problemas de representación iban mucho más allá de los caracteres específicos. Para los programas de concordancia y recuperación era necesario identificar las citas por su ubicación dentro del texto. Los métodos utilizados por los sistemas convencionales de recuperación de documentos eran inadecuados porque tendían a asumir estructuras documentales similares a las de los artículos de revistas y no podían hacer frente a las estructuras que se encuentran en la poesía o el teatro, o en las fuentes manuscritas donde la lineación es importante. Se propusieron varios métodos para definir las estructuras de los documentos, pero el más sofisticado desarrollado en esta época fue el utilizado por el programa de concordancia COCOA (Russell 1967). Basado en un formato desarrollado por Paul Bratley para un archivo de textos escoceses antiguos (Hamilton-Smith 1971), COCOA permite al usuario definir una especificación para la estructura del documento que se ajusta al conjunto de documentos en particular. También permite marcar estructuras superpuestas, lo que hace posible, por ejemplo, codificar un sistema de citas para una versión impresa en paralelo con el de la fuente manuscrita del material. COCOA también ahorra espacio en los archivos, pero quizá sea menos legible para el ser humano.
El otro esquema de citación ampliamente utilizado dependía más del formato de tarjetas perforadas.Entre las Líneas En este esquema, a menudo llamado “formato fijo”, cada línea comenzaba con una secuencia codificada de caracteres que daba información sobre la cita. Cada unidad dentro de la cita se situaba en columnas específicas a lo largo de la línea, por ejemplo el título en las columnas 1-3, el número de verso en las columnas 5-6 y el número de línea en las columnas 7-9. La introducción de esta información se agilizaba gracias a las funciones de la máquina de tarjetas perforadas, pero la información también ocupaba más espacio dentro del archivo informático.
El legado de estos esquemas de citación aún puede encontrarse en los textos electrónicos creados hace tiempo. COCOA, en particular, fue muy influyente y otros esquemas se derivaron de él. COCOA no puede manejar fácilmente el marcado de pequeños rasgos dentro del contenido, como nombres, fechas y abreviaturas, pero su capacidad para tratar estructuras superpuestas supera la de casi todos los esquemas de marcado modernos.
En este periodo también surgieron las primeras oportunidades para que los interesados en la informática de las humanidades se reunieran para compartir ideas y problemas.Entre las Líneas En 1964, IBM organizó una conferencia en Yorktown Heights. La publicación posterior, Literary Data Processing Conference Proceedings, editada por Jess Bessinger y Stephen Parrish (1965), parece casi algo de unos veinte años después, excepto por la dependencia de las tarjetas perforadas para la entrada.
Detalles
Los artículos tratan de cuestiones complejas en la codificación de material manuscrito y también en la clasificación automatizada de concordancias, donde tanto las variantes ortográficas como la falta de lematización se señalan como graves impedimentos.
Por lo que se ha podido comprobar, la conferencia de Yorktown Heights fue un evento único. La primera de una serie regular de conferencias sobre informática literaria y lingüística y la precursora de lo que se convirtió en las conferencias de la Association for Literary and Linguistic Computing/Association for Computers and the Humanities (ALLC/ACH) fue organizada por Roy Wisbey y Michael Farringdon en la Universidad de Cambridge en marzo de 1970 (se puede repasar algunas de estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Fue un evento verdaderamente internacional con una buena representación de ambos lados del Atlántico, así como de Australia.
Pormenores
Las actas, meticulosamente editadas por Wisbey (1971), marcaron la pauta de las publicaciones posteriores. Un vistazo a ellas indica el énfasis del interés en la entrada, la salida y la programación, así como en la lexicografía, la edición textual, la enseñanza de idiomas y la estilística. Ya en esta época se reconocía plenamente la necesidad de una metodología para archivar y mantener los textos electrónicos.
Otro indicio de un área temática embrionaria es la fundación de una nueva revista. Computers and the Humanities comenzó a publicarse en 1966 bajo la dirección de Joseph Raben. Con la energía que le caracteriza, Raben alimentó la nueva revista y durante sus primeros años, al menos hasta que se puso en marcha la serie regular de conferencias y asociaciones que se desarrollaron a partir de ellas, se convirtió en el principal vehículo de difusión de información sobre la informática en las humanidades. Raben reconoció la necesidad de saber simplemente lo que estaba ocurriendo y el Directorio de Académicos Activos de la revista era el primer punto de llamada para las personas que estaban pensando en iniciar un proyecto. Otros boletines informales también sirvieron a comunidades específicas, especialmente Calculi for computers and classics, editado por Stephen Waite.
La década de los 60 también fue testigo de la creación de algunos centros dedicados al uso de ordenadores en las humanidades. Wisbey fundó el Centre for Literary and Linguistic Computing (Centro de Informática Literaria y Lingüística) en Cambridge en 1963 como apoyo a su trabajo con los textos del alto alemán temprano medio.Entre las Líneas En Tubinga, Wilhelm Ott creó un grupo que comenzó a desarrollar el conjunto de programas para el análisis de textos, especialmente para la producción de ediciones críticas. Los módulos de software de TuStep se utilizan hasta hoy y establecen un nivel muy alto de erudición al abordar todas las fases, desde la entrada de datos y el cotejo hasta la producción de complejos volúmenes impresos.
El trabajo de esta primera época se caracteriza a menudo por estar obstaculizado por la tecnología, entendiendo por tecnología los juegos de caracteres, los dispositivos de entrada/salida y la lentitud de los sistemas de procesamiento por lotes.
Puntualización
Sin embargo, los investigadores encontraron formas de resolver algunos de estos problemas, aunque de forma engorrosa. Lo más característico es que los problemas clave que identificaron siguen existiendo, sobre todo la necesidad de considerar las “palabras” más allá del nivel de la cadena gráfica, y de tratar eficazmente las variantes ortográficas, los manuscritos múltiples y la lematización.
Consolidación: De los años 70 a mediados de los 80
Si se puede utilizar un solo término para describir este periodo, sería casi con toda seguridad “consolidación”. Más personas utilizaban las metodologías desarrolladas durante el primer periodo. Se creaban más textos electrónicos y se iniciaban más proyectos con las mismas aplicaciones. El conocimiento de lo que es posible se había difundido gradualmente a través de los canales (véase qué es, su definición, o concepto, y su significado como “canals” en el contexto anglosajón, en inglés) normales de comunicación académica, y cada vez más personas se habían topado con los ordenadores en su vida cotidiana y habían empezado a pensar en lo que los ordenadores podrían hacer por su investigación y enseñanza.
La difusión del conocimiento se vio favorecida no sólo por Computers and the Humanities, sino también por una serie regular de conferencias. El simposio de 1970 en Cambridge fue el inicio de una serie de conferencias bienales en el Reino Unido, que se convirtieron en un importante centro de atención para la informática en las humanidades. Las reuniones de Edimburgo (1972), Cardiff (1974), Oxford (1976), Birmingham (1978) y Cambridge (1980) produjeron trabajos de gran calidad. La Association for Literary and Linguistic Computing se fundó en una reunión en el King’s College de Londres en 1973. Al principio publicaba su propio Boletín tres veces al año. También empezó a organizar una reunión anual con algunas ponencias invitadas y, en 1986, tenía una revista, Literary and Linguistic Computing. A mediados de la década de 1970, se inició otra serie de conferencias en Norteamérica, llamadas International Conference on Computing in the Humanities (ICCH), que se celebraban en años impares para alternar con las reuniones británicas. La conferencia británica y las reuniones anuales del ALLC empezaron a unirse gradualmente. Siguieron concentrándose en la informática literaria y lingüística, con cierto énfasis en la “lingüística”, y ofrecieron un foro para el creciente número de investigadores europeos en lo que se conoció como lingüística de corpus. El ICCH atrajo una gama más amplia de trabajos, por ejemplo sobre el uso de ordenadores en la enseñanza de la escritura, y sobre música, arte y arqueología. La Asociación de Informática y Humanidades (ACH) surgió de esta conferencia y se fundó en 1978.
Las necesidades de la informática para las humanidades también empezaron a ser reconocidas en los centros informáticos académicos. Todavía en los días de la computación en el mainframe, era necesario registrarse para utilizar cualquier instalación informática y ese registro proporcionó una oportunidad para que el personal informático académico averiguara lo que querían los usuarios y considerara la posibilidad de proporcionar algún software estándar que pudiera ser utilizado por muchas personas diferentes. La segunda versión del programa de concordancia COCOA en Gran Bretaña se diseñó para ser ejecutada en diferentes ordenadores centrales con este propósito exactamente. Se distribuyó a diferentes centros de cálculo a mediados de los años 70 y muchos de estos centros designaron a una persona para que actuara como soporte. La insatisfacción con su interfaz de usuario, junto con el cese del apoyo por parte del Laboratorio Atlas, donde fue escrito, llevó a los organismos de financiación (o financiamiento) británicos a patrocinar el desarrollo de un nuevo programa en la Universidad de Oxford. Llamado Oxford Concordance Program (OCP), este software estuvo listo para su distribución en 1982 y atrajo el interés de todo el mundo con usuarios en muchos países diferentes (Hockey y Marriott 1979a, 1979b, 1979c, 1980).Entre las Líneas En esta época también aparecieron otros programas informáticos empaquetados o genéricos que redujeron considerablemente el coste de un proyecto en términos de apoyo a la programación.
La necesidad de evitar la duplicación de esfuerzos también condujo a la consolidación en el área de archivo y mantenimiento de textos. Con la llegada del software empaquetado y la eliminación de la necesidad de mucha programación, la preparación del texto electrónico empezó a ocupar una gran proporción de tiempo en cualquier proyecto. El principal motor que impulsó la creación del Oxford Text Archive (OTA) en 1976 fue la necesidad de garantizar que no se perdiera el texto con el que un investigador había terminado. El OTA se comprometió a mantener los textos electrónicos y, previa autorización del depositante y con los debidos permisos de copyright, a ponerlos a disposición de cualquiera que quisiera utilizarlos con fines académicos (se puede repasar algunas de estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Fue el comienzo de una biblioteca digital, aunque nadie la llamó así inicialmente, y su personal tuvo que idear su propio método para describir y documentar el material. La cantidad de material no documentado puso de manifiesto la necesidad de contar con procedimientos reconocidos para describir los textos electrónicos.
El enfoque de la OTA fue ofrecer un servicio de mantenimiento de todo lo que se depositaba. Consiguió hacerlo durante un tiempo considerable con muy poco presupuesto, pero no fue capaz de promover la creación de textos específicos. Los grupos de estudiosos de algunas disciplinas hicieron intentos más concertados para crear un archivo de textos que sirviera de fuente para la investigación. Entre ellos destaca el Thesaurus Linguae Graecae (TLG), iniciado en la Universidad de California Irvine y dirigido durante muchos años por Theodore Brunner. Brunner recaudó millones de dólares para apoyar la creación de un “banco de datos” de textos griegos antiguos, que abarcaba todos los autores desde Homero hasta aproximadamente el año 600, unos 70 millones de palabras.
Secuencia
Posteriormente, el Packard Humanities Institute creó una colección complementaria de latín clásico que, junto con el TLG, proporcionó a los especialistas en estudios clásicos un recurso de investigación que no tuvo rival en otras disciplinas durante muchos años. Sólo los estudiosos del inglés antiguo tuvieron acceso a un corpus similar, aunque más pequeño, con la finalización del Old English Corpus para el Dictionary of Old English.
Durante este periodo también se crearon más centros de informática para las humanidades. Algunos, como el Centro Noruego de Computación para las Humanidades (ahora HIT) en Bergen, con un importante apoyo gubernamental, incorporaron una amplia gama de aplicaciones y proyectos. Otros, como el Centro de Análisis Informático de Textos (CCAT) de la Universidad de Pensilvania, se centraban más en los intereses de los académicos que los habían promovido inicialmente. Se habían establecido focos de interés en todo el mundo y los académicos de esas instituciones gozaban en general de un buen apoyo.
En este periodo también se introdujeron cursos sobre diversos aspectos de la informática de las humanidades. Algunos cursos fueron impartidos por el personal de los centros académicos de informática y se concentraron principalmente en la mecánica de uso de programas informáticos específicos. Otros se centran en áreas de aplicación más amplias. Los impartidos por académicos tendían a concentrarse en sus propios intereses, dando lugar a proyectos de estudiantes en las mismas áreas de aplicación. El debate sobre la conveniencia de que los alumnos aprendan a programar ordenadores es constante. Algunos pensaban que sustituía al latín como “disciplina mental” (Hockey 1986). Otros pensaban que era demasiado difícil y que quitaba demasiado tiempo al trabajo principal de las humanidades. El lenguaje de manejo de cadenas SNOBOL estuvo en boga durante algún tiempo, ya que era más fácil para los estudiantes de humanidades que otros lenguajes informáticos, de los cuales el principal seguía siendo Fortran.
Se produjeron algunos avances en las herramientas de procesamiento, sobre todo por el paso de la cinta al almacenamiento en disco.
Detalles
Los archivos ya no tenían que buscarse secuencialmente. Durante un tiempo hubo varias tecnologías para organizar el material en bases de datos, algunas de las cuales eran muy eficaces para el material de humanidades (Burnard 1987b), pero gradualmente se impuso el modelo relacional.Entre las Líneas En las implementaciones de mainframe, éste presentaba una mejor estructura dentro de la cual podían trabajar los historiadores y otras personas que trabajaban con material extraído de las fuentes (en lugar de las propias fuentes).
Puntualización
Sin embargo, las tecnologías relacionales seguían presentando algunos problemas para la representación de la información que había que encajar en tablas.Entre las Líneas En los años 70 se inventaron al menos dos dispositivos de hardware para ayudar a la búsqueda. Uno se implementó en el ordenador Ibycus de David Packard, que se construyó para trabajar con el TLG y algunos otros materiales clásicos (Lancashire 1991: 204-5). El otro fue el Content Addressing File Store (CAFS), que funcionaba en los ordenadores británicos ICL. La idea de transferir el procesamiento al hardware era muy atractiva para los investigadores de humanidades que tenían que tratar con grandes cantidades de material, pero no se puso de moda en gran medida, posiblemente porque fue superada por los avances en la velocidad del hardware convencional.
Si se echa un vistazo a las distintas publicaciones de este periodo, se observa una preponderancia de trabajos basados en estudios de vocabulario generados inicialmente por programas de concordancia. Los resultados eran interesantes para algunos tipos de análisis estilísticos o para aplicaciones lingüísticas. Las matemáticas, cada vez más complejas, se pusieron al servicio de los recuentos de vocabulario, lo que dejó fuera de juego a algunos participantes en conferencias más orientadas a las humanidades. Aparte de esto, no hubo muchas novedades o novedades metodológicas y quizás hubo menos valoración crítica de las metodologías de lo que sería deseable.
Detalles
Los avances más importantes de este periodo radican en los sistemas de apoyo generados por la presencia de más puntos de difusión (conferencias y revistas) y el reconocimiento de la necesidad de un software estándar y de archivar y mantener los textos. La difusión se concentró en los puntos de venta de la informática de las humanidades y mucho menos en las publicaciones generales de humanidades. Parece que todavía estamos en una etapa en la que la respetabilidad académica del trabajo informático en las humanidades es cuestionable y los académicos prefieren publicar en puntos de venta en los que tienen más probabilidades de ser aceptados.
Nuevos desarrollos: De mediados de los 80 a principios de los 90
En este periodo se produjeron algunos avances significativos en la informática de las humanidades. Algunos de ellos pueden atribuirse a dos nuevas tecnologías, el ordenador personal y el correo electrónico. Otros se produjeron simplemente por el aumento del uso y la necesidad de reducir la duplicación de esfuerzos.
Al principio había varias marcas diferentes y competidoras de ordenadores personales. Algunos se desarrollaron para juegos, otros eran procesadores de texto autónomos y no podían utilizarse para nada más, y otros estaban dirigidos específicamente al mercado educativo y no al uso general. Poco a poco, los PC de IBM y los modelos basados en la arquitectura de IBM empezaron a dominar, y los Macintosh de Apple también atrajeron mucho uso, especialmente para los gráficos.
El ordenador personal es ahora una necesidad de la vida académica, pero en sus inicios era considerablemente más caro en relación con la actualidad y los primeros compradores eran entusiastas y conocedores de la informática. El impacto inicial en la informática de las humanidades fue que ya no era necesario registrarse en el centro de cómputo para poder utilizar un ordenador. Los usuarios de ordenadores personales podían hacer lo que quisieran y no se beneficiaban necesariamente de los conocimientos que ya existían. Esto fomentaba la duplicación de esfuerzos, pero también impulsaba la innovación cuando los usuarios no estaban condicionados por lo que ya estaba disponible.
A finales de los años 80, había tres programas de análisis de texto basados en DOS: Word-Cruncher, TACT y MicroOCP, todos ellos con muy buenas funcionalidades. Los propietarios de ordenadores personales podían trabajar con ellos en casa y, en el caso de WordCruncher y TACT, obtener resultados instantáneos de las búsquedas. MicroOCP se desarrolló a partir del programa de mainframe utilizando una técnica de concordancia por lotes en lugar de una búsqueda interactiva.
Puntualización
Sin embargo, la principal aplicación de los ordenadores personales era la que compartían todas las demás disciplinas, es decir, el tratamiento de textos. Esto atrajo a muchos más usuarios que sabían muy poco sobre otras aplicaciones y tendían a asumir que las funciones de los programas de procesamiento de textos podían ser todo lo que los ordenadores podían hacer por ellos.
El Apple Macintosh resultaba atractivo para los usuarios de humanidades por dos razones.Entre las Líneas En primer lugar, tenía una interfaz gráfica de usuario mucho antes que Windows en los PC. Esto significaba que era mucho mejor en la visualización de caracteres no estándar. Por fin era posible ver en la pantalla los caracteres del inglés antiguo, el griego, el cirílico y casi cualquier otro alfabeto, y manipular fácilmente los textos que contenían estos caracteres.Entre las Líneas En segundo lugar, el Macintosh también venía con un programa que permitía construir fácilmente algunos hipertextos primitivos. HyperCard ofrecía un modelo de tarjetas de archivo con formas de enlazarlas. También incorporaba una sencilla herramienta de programación que permitía, por primera vez, a los estudiosos de las humanidades escribir fácilmente programas informáticos. Pronto se reconocieron las ventajas del hipertexto para la enseñanza y no tardaron en aparecer varios ejemplos. Un buen ejemplo de ellos fue la estación de trabajo “Beowulf”.Entre las Líneas En ella se presenta al usuario un texto con enlaces a una versión moderna en inglés y anotaciones lingüísticas y contextuales de diversa índole. La primera versión del Proyecto Perseo también se entregó al usuario final en HyperCard.
Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):
La conexión en red, al menos para el correo electrónico, se limitaba antes a grupos de informáticos e institutos de investigación. A mediados de los años 80, la mayoría de los servicios informáticos académicos ofrecían facilidades para enviar y recibir correo electrónico a través de las fronteras internacionales.Entre las Líneas En la conferencia de la ALLC celebrada en Niza en 1985, se intercambiaron ávidamente direcciones de correo electrónico y comenzó una nueva era de comunicación inmediata. Pronto se empezó a enviar correo electrónico a grupos de usuarios y se creó el programa ListServ para listas de discusión electrónicas. Ansaxnet, la lista de discusión electrónica más antigua para las humanidades, fue fundada por Patrick Conner en 1986.
En la conferencia del ICCH celebrada en Columbia, Carolina del Sur, en la primavera de 1987, un grupo de personas que trabajaban principalmente en funciones de apoyo en la informática de las humanidades se reunió y acordó que necesitaba encontrar una forma de mantenerse en contacto de forma regular. Willard McCarty, que por aquel entonces trabajaba en la Universidad de Toronto, aceptó estudiar cómo podrían hacerlo. A su regreso de la conferencia descubrió la existencia de ListServ, y así nació Humanist. El primer mensaje se envió el 7 de mayo de 1987. McCarty se lanzó a editar lo que él prefiere llamar un “seminario electrónico” y, salvo un paréntesis a principios de la década de 1990, cuando Humanist se editó desde la Universidad de Brown, ha seguido desempeñando esta función desde entonces.
Humanist se ha convertido en una especie de modelo para las listas de discusión electrónicas. McCarty ha mantenido un excelente nivel de edición y el nivel de discusión es generalmente alto. Para los que estamos en Europa, la dieta matutina de tres a seis resúmenes de Humanist es un buen comienzo del día. Humanist se ha convertido en un elemento fundamental para el mantenimiento y el desarrollo de una comunidad y ha contribuido de forma significativa a la definición de la informática de las humanidades. Sus archivos, que se remontan a 1987, son una vasta fuente de información sobre la evolución y las preocupaciones de este periodo, y fue tomada como ejemplo por los fundadores de la Linguist List, el principal foro electrónico de la lingüística.
En este periodo también se publicó en forma impresa el único intento a gran escala de producir una bibliografía de proyectos, software y publicaciones. Se publicaron dos volúmenes del Humanities Computing Yearbook (HCY). El primero, editado por Ian Lancashire y Willard McCarty, apareció en 1988 con unas 400 páginas. El segundo volumen, correspondiente a 1989-90, tiene casi 700 páginas con un índice mucho mejor. Durante varios años, hasta que empezó a quedar desfasado, el HCY fue un recurso extremadamente valioso, que cumplía el papel que originalmente desempeñaba el Computers and the Humanities Directory of Scholars Active, que había dejado de aparecer a principios de los años setenta. La preparación del HCY fue una empresa realmente enorme y no aparecieron más volúmenes. A principios de los años 90, el consenso general era que en el futuro una base de datos en línea sería un recurso más eficaz. Aunque ha habido varios intentos de poner en marcha algo similar, no ha surgido nada a escala seria, y el panorama de la actividad general en términos de proyectos y publicaciones vuelve a estar incompleto.
En términos de desarrollo intelectual, una actividad destaca sobre todas las demás durante este periodo.Entre las Líneas En noviembre de 1987, Nancy Ide, con la ayuda de sus colegas de la ACH, organizó una reunión por invitación en el Vassar College, en Poughkeepsie, para examinar la posibilidad de crear un esquema de codificación estándar para los textos electrónicos de humanidades (Burnard 1988). Ya se habían hecho varios intentos de resolver el problema de los muchos esquemas de codificación diferentes y conflictivos, una situación que fue descrita como un “caos” por uno de los participantes en la reunión de Vassar. Ahora había llegado el momento de proceder. Los investigadores estaban cada vez más cansados de perder el tiempo reformateando los textos para adaptarlos a un programa informático concreto y se sentían cada vez más frustrados por las insuficiencias de los esquemas existentes.Entre las Líneas En 1986 apareció un nuevo método de codificación. El Lenguaje de Marcado Generalizado Estándar (SGML), publicado por la ISO, ofrecía un mecanismo para definir un esquema de marcado que pudiera manejar muchos tipos diferentes de texto, que pudiera tratar tanto los metadatos como los datos, y que pudiera representar la interpretación académica compleja así como las características estructurales básicas de los documentos.
Los participantes en la reunión acordaron una serie de principios (“los Principios de Poughkeepsie”) como base para construir un nuevo esquema de codificación y confiaron la gestión del proyecto a un Comité Directivo con representantes de ACH, ALLC y la Asociación de Lingüística Computacional (Text Encoding Initiative 2001).
Secuencia
Posteriormente, este grupo recaudó más de un millón de dólares en Norteamérica y supervisó el desarrollo de las Directrices de la Iniciativa de Codificación de Textos (TEI) para la codificación y el intercambio de textos electrónicos. El trabajo se organizó inicialmente en cuatro áreas, cada una de ellas atendida por un comité. Los resultados de los comités fueron reunidos por dos editores en un primer borrador, que se distribuyó para que el público lo comentara en 1990. Otro ciclo de trabajo incluyó una serie de grupos de trabajo que examinaron en detalle áreas de aplicación específicas. La primera versión completa de las Directrices TEI se publicó en mayo de 1994 y se distribuyó en formato impreso y electrónico.
El tamaño, el alcance y la influencia de la Iniciativa de Codificación de Textos superaron con creces lo que cualquiera de los asistentes a la reunión de Vassar había previsto (se puede repasar algunas de estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Fue el primer intento sistemático de categorizar y definir todas las características de los textos de humanidades que pudieran interesar a los académicos.Entre las Líneas En total, se especificaron unas 400 etiquetas de codificación en una estructura fácilmente extensible a nuevos ámbitos de aplicación. La especificación de las etiquetas dentro de las Directrices ilustra algunos de los problemas que se plantean, pero a medida que el trabajo avanzaba surgieron muchos desafíos intelectuales más profundos. El trabajo en el TEI llevó a un interés en la teoría del marcado y la representación del conocimiento de las humanidades como un tema en sí mismo. La publicación de las Directrices Iniciativa de Codificación de Textos coincidió con el desarrollo de las bibliotecas digitales de texto completo y fue natural que los proyectos de bibliotecas digitales, que no habían entrado en contacto con la informática de las humanidades, basaran su trabajo en el TEI en lugar de inventar un esquema de marcado desde cero.
📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras: Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.Gran parte del trabajo de la Iniciativa de Codificación de Textos se realizó por correo electrónico utilizando listas de discusión privadas y públicas, junto con un servidor de archivos donde se publicaban los borradores de los documentos. Desde el principio, todo aquel que formara parte de un grupo TEI debía utilizar el correo electrónico con regularidad y el proyecto se convirtió en un interesante ejemplo de este método de trabajo.
Puntualización
Sin embargo, los participantes pronto se dieron cuenta de que no es fácil llegar a una conclusión en una discusión por correo electrónico y fue una suerte que se dispusiera de fondos para una serie regular de reuniones técnicas presenciales que garantizaran la toma de decisiones y la racionalización efectiva de las propuestas de marcado de los distintos grupos de trabajo.
Aparte de los grandes avances en la informática personal, la creación de redes y la Iniciativa de Codificación de Textos, el tipo de actividades informáticas en el ámbito de las humanidades que estaban en marcha en la década de 1970 continuó desarrollándose, con más usuarios y más proyectos. Poco a poco, algunas áreas de aplicación se desprendieron de la informática para las humanidades y desarrollaron su propia cultura y vías de difusión. “La informática y la escritura fue un tema que desapareció con bastante rapidez. Más importante para la informática de las humanidades fue la pérdida de algunos aspectos de la informática lingüística, en particular la lingüística de corpus, que pasó a tener sus propios congresos y reuniones. La lingüística computacional siempre se había desarrollado independientemente de la informática para las humanidades y, a pesar de los esfuerzos de Don Walker en el Comité Directivo de la Iniciativa de Codificación de Textos, seguía siendo una disciplina separada. Algunos investigadores del Instituto de Lingüística Computacional de Pisa, se esforzaron por reunir a las dos comunidades de la informática para las humanidades y la lingüística computacional, pero con un éxito quizás limitado. Justo en el momento en que los estudiosos de la informática de las humanidades empezaban a necesitar seriamente los tipos de herramientas desarrollados en la lingüística computacional (análisis morfológico, análisis sintáctico y bases de datos léxicas), se produjo una expansión del trabajo en la lingüística computacional y de corpus para satisfacer las necesidades de la comunidad de defensa y análisis del habla. A pesar de una ponencia histórica sobre la convergencia entre la lingüística computacional y la informática literaria y lingüística, presentada en la primera conferencia conjunta de la ACH/ALLC en Toronto en junio de 1989, hubo poca comunicación entre estas comunidades, y la informática de las humanidades no se benefició como podría haberlo hecho de las técnicas de la lingüística computacional.
La era de Internet: De principios de los 90 a la actualidad
Véase la historia de las Humanidades Digitales desde los Años 90 en esta plataforma.
Datos verificados por: Brooks
Recursos
[rtbs name=”informes-jurídicos-y-sectoriales”][rtbs name=”quieres-escribir-tu-libro”]Véase También
Bibliografía
▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
1 comentario en «Historia de las Humanidades Digitales»