Transformer由谷歌的研究人員在2017年的論文Attention Is All You Need中提出,是一種深度學習模型,與傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(RNN)和卷積神經(jīng)網(wǎng)絡(CNN)不同,Transformer使用了全新的機制來處理序列數(shù)據(jù),即自注意力機制(self-attention mechanism)。它的設計解決了傳統(tǒng)模型在處理長文本時遇到的問題,如模型難以理解句子中的關系等。處理輸入文本時,Transformer可以自己決定關注文本中的哪些部分,而不需要事先指定,如同為注意力畫上重點。