架構
Transformer
Google 在 2017 年提出的神經網路架構,靠 self-attention 平行處理序列,是 GPT、Claude 等大型語言模型的基礎。
架構
Google 在 2017 年提出的神經網路架構,靠 self-attention 平行處理序列,是 GPT、Claude 等大型語言模型的基礎。
We use cookies
Anonymous analytics help us improve the site. You can opt out anytime. Learn more