Translatoryka (ang. translation studies) to stosunkowo niedawno powstały przedmiot akademicki, którego celem jest rozważanie kwestii tak starych, jak sam język. Jej interdyscyplinarny charakter sprawia jednak, że przypisanie translatoryki do jednej dziedziny nauki jest problematyczne. Chesterman i Wagner (2002) wymieniają trzy możliwe kategoryzacje, z których każda podchodzi do tematu z innej perspektywy. Zaklasyfikowanie teorii przekładu do podejścia humanistycznego dotyczy przede wszystkim ocen socjologicznej, historycznej i politycznej wpływów, jakie tłumacze i ich przekłady wywierają na społeczeństwo.
Zaliczenie teorii przekładu do nauk przyrodniczych implikuje preferowanie opisowego, a nie normatywnego, sposobu podejścia do przedmiotu badań. Wynika to z faktu, że jej istotą jest obserwacja zjawisk bez formułowania dotyczących ich przepisów, których należy przestrzegać. Żadna z dwóch wymienionych klasyfikacji nie jest uprawniona do tworzenia zbioru reguł językowych, które należałoby uwzględnić w pracy tłumacza. Postrzeganie teorii przekładu w kategoriach nauk stosowanych, w przeciwieństwie do nauk przyrodniczych czy humanistycznych, jest preferowane przez zawodowych tłumaczy.
Takie podejście umożliwiło powstanie różnych programów wspomagania komputerowego, które są podstawowymi narzędziami wykorzystywanymi w codziennej pracy – od prostych korektorów, tezaurusów i słowników elektronicznych po pamięci tłumaczeniowe, bazy terminów i narzędzia do tłumaczenia wspomaganego komputerowo. Te ostatnie są wciąż unowocześniane i udoskonalane. Nauki stosowane sprzyjają badaczom, którzy starają się znaleźć rozwiązania konkretnych problemów i jakoś uregulować często chaotyczne działania praktykujących tłumaczy.
Do taktyk, którymi dysponuje tłumacz, a które można określić jako narzędzia konceptualne, należą strategie tłumaczeniowe Chestermana (2002). Klasyfikacja ta składa się z trzech głównych gałęzi: syntaktycznej, semantycznej i pragmatycznej. Spośród nich strategie semantyczne i pragmatyczne jeszcze 10 lat temu były zdecydowanie poza zasięgiem wszelkich przedsięwzięć związanych z tłumaczeniem maszynowym, podczas gdy tylko niektóre strategie semantyczne mogły być realizowane w tej dziedzinie. Ale to były czasy Internetu statystycznego.
Obecnie rozwiązania ANN (ang. Artificial Neural Network) wpływają na rozwój NMT (ang. Neural Machine Translation), co pozwala na przewidywanie prawdopodobieństwa sekwencji słów, zazwyczaj modelując całe zdania w jednym zintegrowanym modelu, co z kolei pozwala, by wyżej wymienione strategie semantyczne i pragmatyczne, uznane za niemożliwe do przeprocesowania przez maszynę, stały się jak najbardziej osiągalne. W efekcie narzędzia NMT zaczynają przypominać HAT (ang. Human Assisted Translation – nazwa autora). Czy tłumacze zatem zostaną asystentami skomplikowanych algorytmów, nadając tekstom człowieczeństwo, naturalność i poczucie, że tekst nie został przetłumaczony przez maszynę? Tylko czas pokaże. Pamiętajmy jednak, że lata temu uczeni twierdzili, że dzisiejsze rozwiązania to tylko fantastyka popularnonaukowa.
Źródło:
Chesterman A., Wagner E. (2002), Can Theory Help Translators? A Dialogue Beetwen the Ivory Tower and the Wordface. Manchester: St. Jerome Publishing.