메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
문현철 (한국전자기술연구원) 김재곤 (한국항공대학교) 정진우 (한국전자기술연구원) 김성제 (한국전자기술연구원)
저널정보
한국방송·미디어공학회 방송공학회논문지 방송공학회논문지 제28권 제6호
발행연도
2023.11
수록면
709 - 719 (11page)
DOI
10.5909/JBE.2023.28.6.709

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

이 논문의 연구 히스토리 (3)

초록· 키워드

오류제보하기
CNN(Convolutional Neural Network) 기반의 단일 영상 초해상화 모델은 성능 향상을 위해 수많은 가중치 파라미터와 높은 계산 비용이 필요하기 때문에 모바일과 같은 저전력 기기에서 추론하기에는 제한적이다. 따라서, 다양한 딥러닝 모델 경량화 기법들이 연구되고 있으며, 그 중에 교사 모델에서 학생 모델로 지식을 전이하는 지식증류(Knowledge Distillation) 기법이 연구되고 있다. 그러나, 이러한 지식증류 기법은 적절한 교사 모델을 탐색하고 학습하는데 많은 비용이 발생한다. 본 논문에서는 교사 모델 없이 초해상화 모델을 효율적으로 학습하기 위한 대조 손실 기반 자가증류(self-distillation) 기법인 CLSD(Contrastive Learning based Self-Distillation)을 제안한다. 제안기법은 학생 모델 내 중간 특징 맵에 보조 작업 모델을 추가로 연결하고, 각 보조 모델의 출력 영상에 대해 대조 손실로 학습함으로써 기존 학생 모델의 전체 특징 맵을 작업 편향적(task-biased)으로 만들어 성능을 개선하였다. 실험결과 초해상화 모델에서 제안기법이 지식증류 및 기존 자가증류 모델 대비 성능이 향상됨을 확인하였다.

목차

요약
Abstract
Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 제안기법
Ⅳ. 실험결과
Ⅴ. 결론
참고문헌 (References)

참고문헌 (26)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0