Přehled o publikaci
2025
Efficient Architectures For Low-Resource Machine Translation
SIGNORONI, Edoardo; Pavel RYCHLÝ a Ruggero SIGNORONIZákladní údaje
Originální název
Efficient Architectures For Low-Resource Machine Translation
Autoři
SIGNORONI, Edoardo; Pavel RYCHLÝ a Ruggero SIGNORONI
Vydání
Shoumen, BULGARIA, Proceedings of the First Workshop on Advancing NLP for Low-Resource Languages associated with the International Conference RANLP 2025, od s. 39-64, 26 s. 2025
Nakladatel
INCOMA Ltd.
Další údaje
Jazyk
angličtina
Typ výsledku
Stať ve sborníku
Stát vydavatele
Bulharsko
Utajení
není předmětem státního či obchodního tajemství
Forma vydání
elektronická verze "online"
Odkazy
Označené pro přenos do RIV
Ne
Organizace
Fakulta informatiky – Masarykova univerzita – Repozitář
ISBN
978-954-452-100-4
Klíčová slova anglicky
Machine Translation; Low-Resource Languages
Návaznosti
LM2023062, projekt VaV.
Změněno: 18. 3. 2026 00:50, RNDr. Daniel Jakubík
Anotace
V originále
Low-resource Neural Machine Translation is highly sensitive to hyperparameters and needs careful tuning to achieve the best results with small amounts of training data. We focus on exploring the impact of changes in the Transformer architecture on downstream translation quality, and propose a metric to score the computational efficiency of such changes. By experimenting on English-Akkadian, German-Lower Sorbian, English-Italian, and English-Manipuri, we confirm previous finding in low-resource machine translation optimization, and show that smaller and more parameter-efficient models can achieve the same translation quality of larger and unwieldy ones at a fraction of the computational cost. Optimized models have around 95% less parameters, while dropping only up to 14.8% ChrF. We compile a list of optimal ranges for each hyperparameter.