注意力在深度学习中是一种关键的技术,使用注意力的语言模型更加厉害。代码:github.com/MorvanZhou/NLP-Tut..."莫烦Python" NLP 教学目录: mofanpy.com/tutorials/machine...支持莫烦做更好的视频: mofanpy.com/support/
专业人士~
请问老师,context是attention乘以encoder所有states得出来的吗?
莫烦老师,有个基础问题,这种自定义的模型没有call函数怎么保存呀
莫烦老师,后面会有基于Bert的NLP课程麽?期待ing
会的,在陆续更新
听口音Morvan是不是武汉人
有没有pytorch版本的代码实例呢
暂时没有,等待贡献~
@@MorvanZhou 可不可以训练这个模型,用来格式化处理日期?可以从一堆各式各样格式的日期里标准化成统一格式?
@@huwei1 可以的,你可以随机产生很多不同格式的数据,然后给标准形式的标签。注意网络参数和规模可能要调整一下
Пікірлер: 10
专业人士~
请问老师,context是attention乘以encoder所有states得出来的吗?
莫烦老师,有个基础问题,这种自定义的模型没有call函数怎么保存呀
莫烦老师,后面会有基于Bert的NLP课程麽?期待ing
@MorvanZhou
3 жыл бұрын
会的,在陆续更新
听口音Morvan是不是武汉人
有没有pytorch版本的代码实例呢
@MorvanZhou
3 жыл бұрын
暂时没有,等待贡献~
@huwei1
3 жыл бұрын
@@MorvanZhou 可不可以训练这个模型,用来格式化处理日期?可以从一堆各式各样格式的日期里标准化成统一格式?
@MorvanZhou
3 жыл бұрын
@@huwei1 可以的,你可以随机产生很多不同格式的数据,然后给标准形式的标签。注意网络参数和规模可能要调整一下