Home
Giới thiệu
Tài khoản
Đăng nhập
Quên mật khẩu
Đổi mật khẩu
Đăng ký tạo tài khoản
Liệt kê
Công trình khoa học
Bài báo trong nước
Bài báo quốc tế
Sách và giáo trình
Thống kê
Công trình khoa học
Bài báo khoa học
Sách và giáo trình
Giáo sư
Phó giáo sư
Tiến sĩ
Thạc sĩ
Lĩnh vực nghiên cứu
Tìm kiếm
Cá nhân
Nội dung
Góp ý
Hiệu chỉnh lý lịch
Thông tin chung
English
Đề tài NC khoa học
Bài báo, báo cáo khoa học
Hướng dẫn Sau đại học
Sách và giáo trình
Các học phần và môn giảng dạy
Giải thưởng khoa học, Phát minh, sáng chế
Khen thưởng
Thông tin khác
Tài liệu tham khảo
Hiệu chỉnh
Số người truy cập: 109,897,498
Using Stochastic Gradient Descent On Parallel Recommender System with Stream Data
Tác giả hoặc Nhóm tác giả:
Thin Nguyen Si; Trong Van Hung; Dat Vo Ngoc; Quan Ngo Le
Nơi đăng:
2022 IEEE/ACIS 7th International Conference on Big Data, Cloud Computing, and Data Science (BCD);
S
ố:
24;
Từ->đến trang
: 88-93;
Năm:
2022
Lĩnh vực:
Kỹ thuật;
Loại:
Bài báo khoa học;
Thể loại:
Quốc tế
TÓM TẮT
Stochastic gradient descent (SGD) and Alternating least squares (ALS) are two popular algorithms applied on matrix factorization. Moreover recent researches pay attention to how to parallelize them on daily increading data. About large-scale datasets issue, however, SGD still suffers with low convergence by depending on the parameters. While ALS is not scalable due to the cubic complexity with the target time rank. The remaining issue, how to operate system, almost parallel algorithms conduct matrix factorization on a batch of training data while the system data is real-time. In this work, the authors proposed FSGD algorithm overcomes drawbacks in large-scale issue base on coordinate descent, a novel optimization approach. According to that, algorithm updates rank-one factors one by one to get faster and more stable convergence than SGD and ALS. In addition, FSGD is feasible to paralleize and operates on a stream of incoming data. The experimental results show that FSGD performs much better in solving the matrix factorization issue compared to existing state-of-the-art parallel models.
ABSTRACT
Stochastic gradient descent (SGD) and Alternating least squares (ALS) are two popular algorithms applied on matrix factorization. Moreover recent researches pay attention to how to parallelize them on daily increading data. About large-scale datasets issue, however, SGD still suffers with low convergence by depending on the parameters. While ALS is not scalable due to the cubic complexity with the target time rank. The remaining issue, how to operate system, almost parallel algorithms conduct matrix factorization on a batch of training data while the system data is real-time. In this work, the authors proposed FSGD algorithm overcomes drawbacks in large-scale issue base on coordinate descent, a novel optimization approach. According to that, algorithm updates rank-one factors one by one to get faster and more stable convergence than SGD and ALS. In addition, FSGD is feasible to paralleize and operates on a stream of incoming data. The experimental results show that FSGD performs much better in solving the matrix factorization issue compared to existing state-of-the-art parallel models.
© Đại học Đà Nẵng
Địa chỉ: 41 Lê Duẩn Thành phố Đà Nẵng
Điện thoại: (84) 0236 3822 041 ; Email: dhdn@ac.udn.vn