Publications

カンファレンス (国内) Skip-gram Model with Negative Samplingのオンライン逐次学習

鍜治 伸裕小林 隼人

言語処理学会第23回年次大会 (NLP2017)

2017.3.6

本論文では,代表的な分散表現学習法であるskip-gram model with negative sampling (SGNS)を逐次更新可能なオンラインアルゴリズムに拡張し,その性能について理論的な解析を行う.さらに,提案するオンライン学習法が,従来のSGNSと同等精度の分散表現を学習可能であることを実証的に示す.

Paper : Skip-gram Model with Negative Samplingのオンライン逐次学習 (外部サイト)