阿升

V1

2023/02/12阅读:17主题:默认主题

Transformer问题整理

Transformer问题整理。

参考文献:
[1]transformer问题整理:https://zhuanlan.zhihu.com/p/266695736
[2]为什么Transformer需要进行Multi-headAttention:https://www.zhihu.com/question/341222779
[3]为什么dot-productattention需要被scaled?:https://blog.csdn.net/qq_37430422/article/details/105042303
[4]关于Transformer,面试官们都怎么问?:https://blog.csdn.net/fengdu78/article/details/104629336
[5]关于ELMo,面试官们都怎么问:https://mp.weixin.qq.com/s/ACG29YKW81XLWp0cseU3ig

分类:

人工智能

标签:

自然语言处理

作者介绍

阿升
V1

吾爱DotNet(公众号)