D 2025

Efficient Architectures For Low-Resource Machine Translation

SIGNORONI, Edoardo; Pavel RYCHLÝ a Ruggero SIGNORONI

Základní údaje

Originální název

Efficient Architectures For Low-Resource Machine Translation

Autoři

SIGNORONI, Edoardo; Pavel RYCHLÝ a Ruggero SIGNORONI

Vydání

Shoumen, BULGARIA, Proceedings of the First Workshop on Advancing NLP for Low-Resource Languages associated with the International Conference RANLP 2025, od s. 39-64, 26 s. 2025

Nakladatel

INCOMA Ltd.

Další údaje

Jazyk

angličtina

Typ výsledku

Stať ve sborníku

Stát vydavatele

Bulharsko

Utajení

není předmětem státního či obchodního tajemství

Forma vydání

elektronická verze "online"

Odkazy

URL

Označené pro přenos do RIV

Ne

Organizace

Fakulta informatiky – Masarykova univerzita – Repozitář

ISBN

978-954-452-100-4

Klíčová slova anglicky

Machine Translation; Low-Resource Languages

Návaznosti

LM2023062, projekt VaV.
Změněno: 18. 3. 2026 00:50, RNDr. Daniel Jakubík

Anotace

V originále

Low-resource Neural Machine Translation is highly sensitive to hyperparameters and needs careful tuning to achieve the best results with small amounts of training data. We focus on exploring the impact of changes in the Transformer architecture on downstream translation quality, and propose a metric to score the computational efficiency of such changes. By experimenting on English-Akkadian, German-Lower Sorbian, English-Italian, and English-Manipuri, we confirm previous finding in low-resource machine translation optimization, and show that smaller and more parameter-efficient models can achieve the same translation quality of larger and unwieldy ones at a fraction of the computational cost. Optimized models have around 95% less parameters, while dropping only up to 14.8% ChrF. We compile a list of optimal ranges for each hyperparameter.
Zobrazeno: 2. 5. 2026 18:49