Thông tin chung

  English

  Đề tài NC khoa học
  Bài báo, báo cáo khoa học
  Hướng dẫn Sau đại học
  Sách và giáo trình
  Các học phần và môn giảng dạy
  Giải thưởng khoa học, Phát minh, sáng chế
  Khen thưởng
  Thông tin khác

  Tài liệu tham khảo

  Hiệu chỉnh

 
Số người truy cập: 107,106,579

 Unveiling the Power of Pretrained Models for Neural Machine Translation in Vietnamese Language: A Comparative Analysis
Tác giả hoặc Nhóm tác giả: Phuc Hao Do, Pham Van Quan, Tran Duc Le, Truong Duy Dinh, Nguyen Nang Hung Van, Minh Tuan Pham
Nơi đăng: International Conference on Computing and Communication Technologies - RIVF 2023; Số: 979-8-3503-1584-4/23;Từ->đến trang: 452 - 457;Năm: 2023
Lĩnh vực: Công nghệ thông tin; Loại: Bài báo khoa học; Thể loại: Quốc tế
TÓM TẮT
In the rapidly evolving field of Neural Machine Translation (NMT), the rise of pretrained models has become a transformative force. In this study, we comprehensively explore state-of-the-art pretrained models for Vietnamese-to-English translation. Our analysis compares several neural and deep learning approaches, including standard transformer, BERT-to-BERT, BERT-toGPT2, and mBART50 (multilingual Bidirectional AutoRegressive Transformers) architectures. We aim to evaluate these models’ ability to capture nuances of Vietnamese and generate accurate translations. We conduct extensive experiments using the widely-used IWSTL2015 English-Vietnamese dataset to achieve this. BLEU scores and n-gram metrics are core to our evaluations, trusted measures for comparing machine vs human translations. Our work elucidates pretrained models’ capabilities in advancing Vietnamese-to-English NMT through rigorous testing and insightful comparisons.
ABSTRACT
© Đại học Đà Nẵng
 
 
Địa chỉ: 41 Lê Duẩn Thành phố Đà Nẵng
Điện thoại: (84) 0236 3822 041 ; Email: dhdn@ac.udn.vn