HOMEご利用手順商品サンプルご利用規約お支払いご注文進行確認Q&A、お問い合せカートを見る
電気学会 電子図書館
電気学会HPへ
 HOME > 同研究会の論文誌(論文単位) > 文献詳細
*商品について
表紙はついていません(本文のみ中綴じ製本です)。
号単位でも購入できます。
すべてモノクロ印刷です。
Extended Summaryはついていません。

・会員価格 ¥550
・一般価格 ¥770
カートに入れる
こちらはBookPark「電気学会 電子図書館(IEEJ Electronic Library)」による文献紹介ページです。
会員ログイン
電気学会会員の方はこちらから一旦ログインのうえ、マイページからお入りください。
会員価格で購入することができます。
非会員の方はログインの必要はありません。このまま お進みください。
■論文No.
■ページ数 8ページ
■発行日
2019/12/01
■タイトル 自己蒸留によるDNNの蒸留の効率化
■タイトル(英語) Efficient Learning for Distillation of DNN by Self Distillation
■著者名 高木 純平((株) セック),服部 元信(山梨大学 大学院総合研究部)
■著者名(英語) Jumpei Takagi (Systems Engineering Consultants Co., LTD.), Motonobu Hattori (Faculty of Interdisciplinary Research, University of Yamanashi)
■価格 会員 ¥550 一般 ¥770
■書籍種類 論文誌(論文単位)
■グループ名 【C】電子・情報・システム部門
■本誌 電気学会論文誌C(電子・情報・システム部門誌) Vol.139 No.12 (2019) 特集:電気・電子・情報関係学会東海支部連合大会
■本誌掲載ページ 1509-1516ページ
■原稿種別 論文/日本語
■電子版へのリンク https://www.jstage.jst.go.jp/article/ieejeiss/139/12/139_1509/_article/-char/ja/
■キーワード 知識蒸留,深層学習,画像分類  knowledge distillation,deep learning,image classification
■要約(日本語)
■要約(英語) Knowledge distillation is a method to create a superior student by using knowledge obtained from a trained teacher neural network. Recent studies have shown that much superior students can be obtained by distilling the trained student further as a teacher. Distilling the knowledge through multiple generations, however, takes a long time for learning. In this paper, we propose a Self Distillation(SD) method which can reduce both the number of generations and learning time for knowledge distillation. In SD, the most accurate network is obtained during intra-generation learning, and it is used as a teacher of intra-generational distillation. Our experiments for image classification task demonstrate that the proposed SD acquires high accuracy with fewer generations and less learning time than the conventional method.
■版 型 A4
運営会社についてBookPark個人情報保護方針電気学会ホームページ
本サービスは電気学会がコンテンツワークス株式会社に委託して運営しているサービスです。
©Contents Works Inc.