架構
Self-Attention(自注意力機制)
Self-Attention
讓序列中每個 token 觀察其他所有 token、判斷哪些最相關的機制,是 Transformer 的核心運算。
架構
Self-Attention
讓序列中每個 token 觀察其他所有 token、判斷哪些最相關的機制,是 Transformer 的核心運算。
We use cookies
Anonymous analytics help us improve the site. You can opt out anytime. Learn more