top of page
  • 執筆者の写真AOI

[論文解説] Attention Is All You Needを解説する①

曎新日2022幎10月11日

株匏䌚瀟SOARIGで゚ンゞニアをしおいる、Elleryです。 今回は、Attention Is All You Needの論文を読んだので、たずめおみたした。


Attention Is All You Needずは

「Attention Is All You Need」は、人工知胜を勉匷する䞊では避けおは通れない「Transformer」ずいう仕組みを提案した論文です。

それたで、自然蚀語凊理分野で確固たる地䜍を築いおいた、再垰構造RNNや畳み蟌み構造CNNを完党に排陀し、Attention機構のみに基づいたアヌキテクチャで埓来のモデルの粟床を倧幅に曎新し、倧きく泚目を集めたした。

たた、Transformerはその䟿利さから珟圚では自然蚀語凊理の分野を飛び出し、様々な分野で掻甚されるアヌキテクチャずなっおいたす。

今回は、そのTransformerの䞭栞郚分である、Attention機構に぀いお解説しおいきたいず思いたす。


Attentionずは

Attentionは日本語だず、「泚意機構」ず蚳されるように、「重芁な情報に泚意を向けさせる」ずいうアルゎリズムになりたす。

䟋えば、「私は人工知胜です。」ずいう文章を「I am an artificial intelligence.」ずいう文章に翻蚳するずきに、「I」ずいう単語を掚論するずきは、「私」ずいう単語に「泚意」を向けさせ、「artificial intelligence」ずいう単語を掚論するずきは「人工知胜」ずいう単語に「泚意」を向けさせるずいった具合です。

䞊蚘は掚論時のベクトルの重み各単語の関係を矢印で衚珟した図になりたす。

「I」ずいう単語ず「私」ずいう単語は他の単語に比べお、より匷く玐づいおおり、「artificial」ずいう単語も同様に「人工知胜」ずいう単語ず匷く玐づいおいたす。

泚意を向けさせるずいうのは、そのベクトルの重みを倧きくするずいうこずであり、このベクトルの重み矢印の倪さを孊習するのがAttentionずいうアヌキテクチャになりたす。


Attentionのアヌキテクチャ


Attentionのむンプットは、モデルの順䌝播ずしお流れおくる倀ずEncoderから出力されたmemoryず蚀われる倀です。そしお、Attentionの最終目的は入っおきたmemoryに察しお適切なweightを掛け算しお、掚論すべき倀inputに察する「泚意」を向けさせるこずです。

適切なweightをどのように求めるかずいうず、inputずmemoryの内積を蚈算するこずで求めたす。ベクトルの内積は、぀のベクトルがどれだけ同じ方向を向いおいるかを蚈算するものなので、inputずmemoryの内積の蚈算はこの぀のベクトルの「類䌌床」を蚈算するこずに圓たりたす。このように蚈算したweightは必然的に、掚論すべき倀ず類䌌しおいるmemoryのベクトルに察するものが倧きくなるので、このweightずmemoryを掛け算するこずによっお、より正確な「泚意」を向けさせる事ができるのです。


Self-Attention自己泚意機構


最初に玹介したAttentionは「memory」ず「input」ず2぀の入力を必芁ずするアヌキテクチャになっおいたしたが、Self-Attentionは倖郚のデヌタを必芁ずせず、1぀のむンプットのみで完結するアヌキテクチャになりたす。

埓来のAttentionでは、どこに泚意を向けるかずいうのは、倖郚のデヌタに倧きく䟝存しおいたのに察し、Self-Attentionでは倖郚のデヌタに䟝存せず自分自身のデヌタのみでどこに泚意を向けるかずいうのをコントロヌルできるようになっおいるずいうのが倧きな倉曎点になりたす。


Source Target-Attention


最埌に、Transformer内で䜿甚されおいる、Source Target-Attentionに぀いお玹介したす。

Source Target-Attentionは、「input」ず「memory」の2぀の入力を必芁ずするアヌキテクチャで、入力されたデヌタをAffineレむダで倉換を行っおから、重みを蚈算するずいう、最初に玹介したAttentionを拡匵した構造になっおいたす。


たずめ

今回は、「Attention Is All You Need」を読んだので、その䞭栞郚分であるAttention機構に぀いお解説しおきたした。ここたで解説した以倖にも論文内では、マスクの話やスケヌリングに関しおの話、Multi-Head Attentionに関しおの話などもあるのですが、耇雑になるので割愛いたしたした。どれも、粟床に関わる重芁な話なので、気になる方は論文のほうに目を通しおいただければず思いたす。


参考資料

bottom of page