打赏

相关文章

attention基础概念

1. Self Attention(自注意力机制) 核心是“关注自身序列内的关联”,让序列中每个元素都能查看同一序列里的其他元素,从而捕捉内部依赖关系。 - 比如处理文本“a little girl holding a kitten”时,“holding”会同时关注“girl”和“kitten”,明确动作的主语和宾语;处理…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部