論 文Papers

CONFERENCE (DOMESTIC)

Skip-gram Model with Negative Samplingのオンライン逐次学習

鍜治 伸裕小林 隼人

NLP2017(言語処理学会第23回年次大会), 2017/3

Category:

自然言語処理 (Natural Language Processing) 機械学習 (Machine Learning)

Abstract:
本論文では,代表的な分散表現学習法であるskip-gram model with negative sampling (SGNS)を逐次更新可能なオンラインアルゴリズムに拡張し,その性能について理論的な解析を行う.さらに,提案するオンライン学習法が,従来のSGNSと同等精度の分散表現を学習可能であることを実証的に示す.
Download:

Skip-gram Model with Negative Samplingのオンライン逐次学習(外部サイト/External Site Link)