Home
Giới thiệu
Tài khoản
Đăng nhập
Quên mật khẩu
Đổi mật khẩu
Đăng ký tạo tài khoản
Liệt kê
Công trình khoa học
Bài báo trong nước
Bài báo quốc tế
Sách và giáo trình
Thống kê
Công trình khoa học
Bài báo khoa học
Sách và giáo trình
Giáo sư
Phó giáo sư
Tiến sĩ
Thạc sĩ
Lĩnh vực nghiên cứu
Tìm kiếm
Cá nhân
Nội dung
Góp ý
Hiệu chỉnh lý lịch
Thông tin chung
English
Đề tài NC khoa học
Bài báo, báo cáo khoa học
Hướng dẫn Sau đại học
Sách và giáo trình
Các học phần và môn giảng dạy
Giải thưởng khoa học, Phát minh, sáng chế
Khen thưởng
Thông tin khác
Tài liệu tham khảo
Hiệu chỉnh
Số người truy cập: 106,954,708
Descent Gradient Methods for Nonsmooth Minimization Problems in Ill-Posed Problems
Tác giả hoặc Nhóm tác giả:
Pham Quy Muoi, Dinh Nho Hao, Peter Maass and Michael Pidcock
walgreens pharmacy coupon
site
promo codes walgreens
Nơi đăng:
Journal of Computational and Applied Mathematics;
S
ố:
298;
Từ->đến trang
: 105-122;
Năm:
2016
Lĩnh vực:
Khoa học;
Loại:
Bài báo khoa học;
Thể loại:
Quốc tế
TÓM TẮT
Descent gradient methods are the most frequently used algorithms for computing regularizers of inverse problems. They are either directly applied to the discrepancy term, which measures the difference between operator evaluation and data or to a regularzied version incorporating suitable penalty terms. In its basic form, gradient descent methods converge slowly.
We aim at extending different optimization schemes, which have been recently introduced for accelerating these approaches, by addressing more general penalty terms. In particular we use a general setting in infinite Hilbert spaces and examine accelerated algorithms for regularization methods using total variation or sparsity constraints.
To illustrate the efficiency of these algorithms, we apply them to a parameter identification problem in an elliptic partial differential equation using total variation regularization.
ABSTRACT
© Đại học Đà Nẵng
Địa chỉ: 41 Lê Duẩn Thành phố Đà Nẵng
Điện thoại: (84) 0236 3822 041 ; Email: dhdn@ac.udn.vn