Prof. Krzysztof Jassem: W tłumaczeniu tekstów na tematy ogólne człowiek pozostanie niezastąpiony
Czym jest tłumaczenie automatyczne? To tłumaczenie tekstu przez komputer bez ingerencji człowieka. Temu pojęciu przeciwstawia się często pojęcie tłumaczenia wspomaganego komputerowo, które wykonywane jest przez człowieka z pomocą komputera.
Tłumaczenie automatyczne jest szybsze i mniej kosztowne, ale za to mniej dokładne. W opinii wielu użytkowników wynik tłumaczenia automatycznego oddaje zaledwie sens przetworzonego tekstu i nie może być uznany za wiarygodne źródło wiedzy. Najbardziej popularnym obecnie systemem tłumaczenia automatycznego jest translator firmy Google, udostępniany nieodpłatnie.
Albo człowiek, albo SI
W tłumaczeniu wspomaganym komputerowo decyzję o formie przetłumaczonego tekstu podejmuje człowiek. Działanie tłumacza wspomagane jest przez narzędzia komputerowe, takie jak elektroniczne słowniki wielojęzyczne, tezaurusy komputerowe czy bazy terminów specjalistycznych.
W tekstach technicznych szczególnie pomocna okazuje się tzw. pamięć tłumaczeń, czyli zestaw zdań i fraz w języku źródłowym i skojarzonych z nimi tłumaczeń, utworzona na podstawie dokumentów przetłumaczonych wcześniej. Najbardziej popularnym płatnym systemem wspomagania tłumaczenia jest Trados firmy SDL, a nieodpłatnym – Omega.
Do sztucznej inteligencji zalicza się systemy tłumaczenia automatycznego. Nie klasyfikuje się natomiast do tej dziedziny oprogramowania wspomagającego tłumaczenie.
W latach 90. XX wieku badania w zakresie tłumaczenia automatycznego z podejścia opartego na regułach zaczęły przesuwać się w kierunku metod statystycznych opartych na danych. Podejście statystyczne wymaga istnienia dużych korpusów dwujęzycznych, czyli zestawów tekstów i odpowiadających im tłumaczeń.
Na podstawie korpusów obliczany jest tzw. model translacji, który wyznacza prawdopodobieństwo tego, że zdanie w jednym języku jest tłumaczeniem zdania w drugim. System tłumaczenia automatycznego dla danego zdania w języku źródłowym wybiera zdanie w języku docelowym, dla którego funkcja prawdopodobieństwa przyjmuje najwyższą wartość.
Tłumaczenie neuronowe
W roku 2014 dwie niezależne grupy badaczy – z firmy Google oraz z Uniwersytetu w Montrealu – zaproponowały systemy tłumaczenia automatycznego oparte na sieciach neuronowych.
Proces tłumaczenia odbywa się w dwóch fazach: kodowania i dekodowania. W fazie kodowania poszczególne wyrazy zdania źródłowego (np. polskiego) konwertowane są na ich reprezentację numeryczną. Następnie sieć neuronowa, wytrenowana (podobnie jak w podejściu statystycznym) na korpusie dwujęzycznym, buduje dwie reprezentacje numeryczne całego zdania źródłowego: konstruowaną wyraz po wyrazie od początku zdania i konstruowaną w kierunku odwrotnym. Obie reprezentacje łączone są w całość (oznaczoną szarymi bloczkami).
W fazie dekodowania generowane jest zdanie docelowe (np. angielskie). Następuje to wyraz po wyrazie – w każdym kroku sieć neuronowa wylicza prawdopodobieństwa wystąpień dla potencjalnego kolejnego wyrazu i wybiera wyraz z najwyższym prawdopodobieństwem.
Do sztucznej inteligencji zalicza się systemy tłumaczenia automatycznego – ale nie programy wspomagające tłumaczenie
Postęp technologiczny w dziedzinie tłumaczenia automatycznego inspirowany jest potrzebami firm globalnych. Najnowsze osiągnięcia w tej dziedzinie publikowane są przez ośrodki badawcze wiodących światowych korporacji: naukowcy związani z firmą Facebook zaproponowali w roku 2017 zastosowanie tzw. splotowych sieci neuronowych, a badacze z firmy Google w tym samym roku wyszli z ofertą wprowadzenia tzw. modelu z atencją (ang. attention-based model).
W kwietniu 2018 naukowcy firmy Microsoft ogłosili z kolei, że zbudowali system tłumaczenia angielskich wiadomości na język chiński, który osiąga jakość tłumaczenia wyższą od ludzkiej.
Polska: rządzą Poznań i Warszawa
W Polsce rozwojem narzędzi tłumaczenia automatycznego zajmują się dziś dwa państwowe ośrodki badawcze. Znaczący wkład do rozwoju tej dziedziny ma Uniwersytet im. Adama Mickiewicza w Poznaniu. W roku 2012 (a zatem w erze dominacji paradygmatu statystycznego) opracowano tam tzw. metodę kompaktowej tablicy frazowej, której wprowadzenie znacząco poprawiło wydajność algorytmów.
W roku 2016 grupa badaczy związanych z tą uczelnią udostępniła publicznie projekt o nazwie amuNMT, w którym zaimplementowano proces dekodowania tłumaczenia w sieciach neuronowych. Celem projektu była poprawa szybkości działania systemów translacji metodą neuronową.
W kwietniu 2018 naukowcy z Microsoft ogłosili, że zbudowali system tłumaczenia angielskich wiadomości na chiński, w którym jakość tłumaczenia jest wyższa od ludzkiej
System, zaimplementowany w oparciu o projekt amuNMT, wziął udział w konkursie 2nd Workshop on Neural Machine Translation and Generation, gdzie zajął pierwsze miejsce w kategorii wydajności obliczeniowej. Wytrenowany na odpowiednich danych dwujęzycznych amuNMT zdobył też drugie miejsce w konkursie WMT 2106 w kategorii „tłumaczenia wiadomości prasowych z języka rosyjskiego na język angielski”.
W roku 2017 ta sama grupa opublikowała projekt Marian, w którym zawarte zostały obie składowe systemu neuronowego: kodowanie i dekodowanie. Korzystając z tego projektu dla celów akademickich, można wytrenować neuronowy system tłumaczenia automatycznego z dowolnej dziedziny i między dowolną parą języków – pod warunkiem przygotowania odpowiedniego korpusu dwujęzycznego.
Badacze Polsko-Japońskiej Akademii Technik Komputerowych w Warszawie koncentrują się na doskonaleniu istniejących rozwiązań pod kątem wdrożenia ich do tłumaczenia mowy z językiem polskim. Proponowane przez nich rozwiązania brały udział w warsztatach IWSLT (International Workshop for Spoken Language Translation) w latach 2013 i 2014. Opracowano tam również rozwiązania biorące udział w konkursach WMT w latach 2016 i 2017.
Najnowsze eksperymenty badaczy tej grupy mają na celu poprawienie jakości translacji uzyskiwanej przez system Marian przez zastosowanie autorskich programów do tzw. stemmingu oraz podziału wyrazów na mniejsze jednostki (tzw. sub-words).
Wejście Mariana
W roku 2018 grupa badaczy z Uniwersytetu im. Adama Mickiewicza we współpracy z poznańską firmą Poleng, zajmującą się komercyjnym wdrażaniem systemów tłumaczenia automatycznego, przeprowadziła dwa eksperymenty, których celem była ocena jakości tłumaczenia z i na język polski tekstów z określonej dziedziny. W obu eksperymentach systemy tłumaczenia trenowane były na zlecenie przedsiębiorstw, które interesowało wdrożenie rozwiązań dla własnych potrzeb.
W pierwszym eksperymencie dziedzina tłumaczenia określona była dość ogólnie, a wolumen tekstów trenujących dostarczonych przez przedsiębiorstwo był stosunkowo niewielki. W takich okolicznościach trudnością we wdrożeniu było zebranie i wyselekcjonowanie odpowiednio dużej próby tekstów o podobnej tematyce.
Do trenowania systemu wykorzystano system Marian. W skład zestawu trenującego weszło:
- 60 027 par zdań dostarczonych przez przedsiębiorstwo;
- 7 198 092 par zdań zebranych przez inżynierów systemu.
System wytrenowano w kierunku polsko-angielskim i angielsko-polskim.
Efekt translacji poddano ocenie nie tylko komputera, ale i człowieka – każde z 488 testowych tłumaczeń oceniane było w skali od 1 (najniższa) do 5 (najwyższa), a ostatecznym wynikiem była średnia arytmetyczna. Tłumaczenia oceniano w aspekcie wierności tłumaczenia oraz płynności.
Zaskakujące jest to, że metryka BLEU [sposób oceny jakości tłumaczenia opracowany w 2002 r. przez firmę IBM – red.] wyżej oceniła tłumaczenie w kierunku angielsko-polskim, a człowiek – w odwrotnym. Powód? Oceniającym była osoba narodowości polskiej, która mogła bardziej krytycznie podchodzić do tłumaczeń generowanych w języku rodzimym.
Płynność jest najważniejsza
Drugi eksperyment przeprowadzono na korpusie 1 200 000 par zdań, w którego skład wchodziły teksty wyłącznie dostarczone przez przedsiębiorcę – bardzo zbliżone do zbioru testowego. W tym eksperymencie porównano działanie translatorów: neuronowego i statystycznego (opartego na kodach ogólnodostępnego projektu systemu Moses dla kierunku angielsko-polskiego. Ponadto korpus zdań testowych poddano działaniu systemu tłumaczenia Google Translate, przeznaczonego do tłumaczenia tekstów ogólnych (bez określania ich dziedziny).
Eksperyment miał odpowiedzieć na dwa pytania:
- Który z paradygmatów tłumaczenia daje lepsze efekty dla stosunkowo niewielkiej bazy tekstów trenujących?
- Czy jakość tłumaczenia zależy bardziej od wielkości korpusu trenującego, czy od stopnia podobieństwa tekstów trenujących do tekstów testowych?
Oba systemy wytrenowane na korpusach specjalistycznych wyraźnie pokonały system przeznaczony do tłumaczenia ogólnego. Co więcej, wyniki uzyskane na małym korpusie specjalistycznym okazały się znacząco lepsze od wyników uzyskanych w pierwszym eksperymencie, przeprowadzonym na większym korpusie tekstów z szerszej dziedziny.
Praca ludzi zajmujących się tłumaczeniem stanie się bardziej wydajna dzięki stosowaniu translatorów automatycznych
Co zaskakujące, system statystyczny uzyskał lepszy wynik niż system neuronowy. By zweryfikować ten efekt, przeprowadzono eksperyment „ślepego” porównania ludzkiego. Dwóch niezależnych weryfikatorów porównywało wyniki translacji obu systemów, nie wiedząc, który system wygenerował które tłumaczenie. Dla danej pary porównywanych par weryfikator wskazywał zwycięzcę lub remis. W przypadku zwycięstwa weryfikator wskazywał aspekt, który decydował o zwycięstwie: wierność, płynność lub inny.
Wyniki? W ocenie człowieka metoda neuronowa wyraźnie pokonała metodę statystyczną, a aspektem, który o tym zadecydował, była większa płynność wygenerowanych tłumaczeń. Ten eksperyment potwierdził wnioski z eksperymentów przeprowadzanych wcześniej dla innych par języków. Wskazywały one, że metoda neuronowa daje w ocenie ludzkiej lepsze efekty, niż wskazywałaby to metryka BLEU.
Jaka przyszłość translacji?
Analiza współczesnych publikacji z dziedziny tłumaczenia automatycznego i wyników międzynarodowych konkursów, a także wnioski z eksperymentów przeprowadzonych dla języka polskiego, pozwalają przedstawić hipotezy dotyczące rozwoju dziedziny w najbliższej przyszłości:
- Technologią dominującą w dziedzinie tłumaczenia automatycznego pozostanie tłumaczenie neuronowe. Postęp w tej dziedzinie odbywać się będzie poprzez rozwój architektury sieci neuronowych.
- Tłumaczenie automatyczne będzie stosowane przede wszystkim do translacji tekstów dziedzinowych. Translatory przeznaczenia ogólnego będą odgrywały coraz mniejszą rolę.
- Jakość tłumaczenia podwyższa się znacznie, gdy system wytrenowany jest na tekstach bardzo zbliżonych tematycznie do tych, na których jest stosowany. Dlatego w najbliższej przyszłości przedsiębiorstwa i instytucje będą udostępniały swoje wewnętrzne dokumenty do trenowania systemów dla własnych potrzeb.
- Praca ludzi zajmujących się tłumaczeniem stanie się bardziej wydajna dzięki stosowaniu translatorów automatycznych. W tłumaczeniu tekstów z wąskiej dziedziny zadanie tłumaczy będzie się koncentrowało na post-edycji tekstów generowanych przez komputer. Człowiek pozostanie jednak niezastąpiony w tłumaczeniu tekstów o tematyce ogólnej.
Wydaje się, że kolejnym krokiem w kierunku automatyzacji procesów tłumaczenia będzie połączenie automatycznych technik rozpoznawania tematyki tekstu i translacji. Wyobraźmy sobie, że dla każdej pary językowej wytrenowana zostanie pewna liczba translatorów dla różnych dziedzin i specjalizacji. W takim scenariuszu system translacji najpierw będzie rozpoznawał tematykę tekstu, a potem – stosował model tłumaczenia wytrenowany na tekstach z tej tematyki.
Materiał jest opracowaniem części pracy prof. Krzysztofa Jassema pt. „Rozwój sztucznej inteligencji w kontekście tłumaczenia automatycznego ze szczególnym uwzględnieniem instytucji i osób zajmujących się ww. tematyką w Polsce” (Poznań 2018), przygotowanej dla OPI PIB.