Logos Multilingual Portal

39 - El análisis del prototexto y el ordenador

ÍndiceAnteriorSiguiente


"Quizá en vez de un libro podría escribir listas de palabras,
por orden alfabético, un alud de palabras aisladas en las
cuales se exprese esa verdad que aún no conozco..." 1.

  Durante varios decenios la aplicación del ordenador o computadora a las ciencias filológicas y, en especial, al análisis del texto, se ha considerado una especie de tabú. Esto procede, mayormente, de que la formación del filólogo -bien sea traductor, crítico, profesor o investigador- históricamente no ha incluido el estudio de la informática aplicada a los textos y, por otra parte, en la instrucción del informático no se prevé la aplicación del cálculo electrónico a las actividades específicas y marcadamente humanísticas, como la filología y la ecdótica2.
  No obstante, podría ser interesante concluir esta segunda parte del curso de traducción dedicada al análisis del prototexto con dos unidades que traten sobre las oportunidades que el ordenador ofrece al traductor que desee o necesite analizar el prototexto en función de su traducción.
Después de los dislates provocados por un entusiasmo excesivo ante la repentina evolución técnica, que hacía entrever en los setenta y ochenta la posibilidad de aplicar la informática a todo, incluso a la traducción, se pasó a una fase de exploración más cauta.
  Se ha señalado la importancia de la descodificación de un texto, de la relación que hay en su contexto (el ordenador, al carecer de competencia semántica, sólo puede usarse para contar los casos; no es capaz de definir y delimitar el contexto), y de los posibles significados de una palabra para la activación de los valores útiles y la supresión de los que no son aplicables en su relación con el cotexto.
  Esto, unido a las nuevas posibilidades técnicas, han dado un nuevo vigor al uso del corpora en el campo de los estudios humanísticos.
  Se entiende por "corpus" un conjunto de textos que comparten alguna característica: el autor, la lengua, el periodo histórico, el género literario o alguna otra. El principio fundamental que guía este estudio es la observación del lenguaje -un principio descriptivo- con el fin de extraer normas que no se utilizarán como prescripción, sino como medida de regularidad. Además, para poder observar la lengua en su forma viva, es útil referirse al corpus como a parámetros constantes para compararlos con enunciados específicos, para interrogarlos e investigarlos.
  Uno de los frutos más inmediatos del estudio de un corpus es la compilación de concordancias, es decir, de listas de palabras (o de series de palabras) que se repiten idénticamente en él, junto con los datos necesarios para hallarlas (las coordenadas del interior del texto). Las concordancias, que se compilaban a mano hasta hace pocas décadas, con la lenta y fatigosa elaboración de fichas para cada entrada, ahora pueden compilarse de modo automático con un ordenador personal, tras la preparación y depuración del texto electrónico. De esta actividad ha renacido3 una disciplina conocida como lingüística de corpus.
  En el campo de la traducción, el uso de corpus informático y en línea data de la última década del siglo XX. Hasta cierto punto, en la práctica traductiva la consulta al corpus está suplantando a la consulta de los diccionarios, lográndose una interpretación más directa y concreta del espectro semántico de cada vocablo en su contexto.
  Mientras que un diccionario ofrece una interpretación del significado de una palabra, cuando la interpretación del autor y las posibles vías interpretativas del traductor no coinciden con las que son útiles en un contexto dado, la consulta de un corpus es mucho más empírica y dúctil, porque deja en manos del traductor (o del descodificador, en todo caso) la posibilidad de intuir o deducir significados posibles en el mismo escenario en que se producen: en el enunciado.
  En el análisis del texto en general, el ordenador, si se es consciente de sus limitaciones, puede ser un instrumento muy valioso. Empezaremos por estudiar los límites del análisis electrónico del texto.
Un ordenador puede contar la frecuencia de las apariciones de una palabra o de una cadena de caracteres en un texto, y tal vez de calcular la previsibilidad de dichas apariciones mediante la comparación de la frecuencia en un microtexto con la frecuencia en un macrotexto que contenga al primero (por ejemplo, el corpus) Así pues, es muy útil para el análisis léxico del texto y, por lo tanto, también de su cohesión léxica, de las referencias inter e intratextuales.
  El ordenador también puede calcular la previsibilidad estadística de que una palabra aparezca cerca de otra, siempre dentro del marco de un texto dado, es decir, en términos relativos y no absolutos.
  Por todo lo dicho, resulta evidente que la persona que realiza el análisis tiene un papel muy activo desde las primeras fases de la tarea. Teniendo en cuenta la masa enorme de datos que puede producir un texto sirviéndose de la informática, es indispensable que las directrices generales sobre la investigación sean claras desde el principio. Es necesario contar, antes de someter el texto al análisis informático, con un sólido conocimiento general de la obra y de su autor, así como de la pieza en cuestión, y crear hipótesis que el instrumento electrónico permita demostrar como falsas o corroborar.
  También es necesario tener en cuenta que los primeros resultados obtenidos suelen dirigir la investigación por canales inicialmente insospechados, en tanto que otros se abandonarán durante la investigación por la escasez de indicios.
Así pues, un ordenador no es capaz de imponer la investigación, de decidir cuáles de las consultas son sensatas y cuáles no, ni de interpretar los datos. Una vez en posesión de una lista de las apariciones aisladas y acompañadas en un texto, así como de las correlaciones relativas, el traductor debe ser capaz de decidir cuáles de los datos son realmente significativos. En este sentido, los criterios metodológicos no son absolutos, ya que varían en función de las circunstancias concretas de cada análisis.
  ¿Son más importantes las palabras que aparecen más veces o lo son las más escasas? En la filología clásica existe un concepto denominado hápax legomenon, que se define como "una voz que se ha registrado una sola vez en una lengua, en un autor o en un texto"4. El término surgió porque, en general, una forma escasa se considera de gran valor, y mucho más si el hápax se encuentra en una obra extensa. El hápax sólo existe en la presencia de muchas otras palabras de uso frecuente.
  Shannon y Weaver hablan de la proporción entre la previsibilidad y la informatividad. Aplicando este concepto a lo que más interesa a un traductor enfrentado al análisis del texto orientado a la traducción, puede decirse, de manera más sencilla, que cuanto mayores sean las posibilidades de hallar una palabra en una posición del texto, menos significativa será esa presencia. Es otra forma de enfocar el asunto de la marcadez de un enunciado, varias veces tratado en este curso. El razonamiento es muy parecido al de Shklovsky en cuanto al "extrañamiento" o la ruptura del automatismo perceptivo.
  En la década de 1920, el formalista ruso Viktor Shklovsky comprendió la importancia que tiene en la percepción del texto la ruptura de la rutina, el examen de un objeto según un punto de vista inédito5. Un texto no marcado, como lo llamaríamos hoy, es decir, un texto no extrañado, se percibe como si su forma fuese secundaria y el lector se ve inducido a sintonizarse automáticamente con el contenido informativo o denotativo, sin atención a la modalidad expresiva. Por el contrario, un texto marcado, es decir, extrañado, que presenta obstáculos a la "percepción normal" o automática, atrae la atención del lector hacia la forma, que de este modo, sólo por ser obvia y alterar la percepción del texto, se convierte en parte integral de su contenido.

  

BIBLIOGRAFÍA

CALVINO I. Si una noche de invierno un viajero, Traducido por Esther Benítez, Madrid, Ediciones Siruela, 1999, ISBN 84-784-453-X.

LANA M. Testi stile frequenze, in Lingua letteratura computer, editado por Mario Ricciardi, Torino, Bollati Boringhieri, 1996, ISBN 8833909905.

LANA M. L'uso del computer nell'analisi dei testi. Scienze umane e nuove tecnologie, Milano, Franco Angeli, 1994, ISBN 8820488701.

LANCASHIRE I, Using TACT with Electronic Texts. A Guide to Text-Analysis Computing Tools, New York, The Modern Language Association of America, 1996, ISBN 0873525698.

ORLANDI T. Informatica umanistica, Roma, La Nuova Italia Scientifica, 1990, ISBN 8843008870.

SHANNON C. E., WEAVER W. The Mathematical Theory of Communication, Urbana (Illinois), University of Illinois Press, 1949. Teoría Matemática de la Comunicación, Madrid, Ed. Forja, 1981.

SHKLOVSKY, V. B. O teorii prozy, Moskva, Federacija, 1929. Teoria della prosa, traducción de C. G. de Michelis y R. Oliva, Torino, Einaudi, 1976. Theory of prose, traducción de Benjamin Sher con introducción de Gerald R. Bruns. 1st American edition, Elmwood Park (Illinois), Dalkey Archive Press, 1990, ISBN 0916583546.


1 Calvino 1979, p. 199.
2 Filología textual. Del griego ekdosis, edición.
3 La lingüística de corpus apareció y floreció antes del advenimiento de las teorías de Chomsky. Con la difusión de la gramática generativa de Chomsky -que prevé una aproximación totalmente opuesta, ya que parte de la estructura profunda y abarca hasta el enunciado, a diferencia de la lingüística de corpus, que parte del enunciado y desciende hasta el significado contextual y efímero-, la lingüística de corpus vio frenado su avance. La difusión del ordenador personal, con una capacidad antes inimaginable, junto con el surgimiento de críticas a la teoría de Chomsky, han vuelto a dar vida a la lingüística de corpus.
4 Lana 1996.
5 Šklovskij 1929.





ÍndiceAnteriorSiguiente