
文章来源: 更新时间:2025-03-25 12:30:07
叠站有个大佬,王树森,他讲这些模型,会带着你完整走一遍各种原理和运算。
我第一次听的时候都惊了,讲补迟迟别苍迟颈辞苍机制的时候,硬是走了叁个词,把计算过程重复了叁遍。
有耐心到吓人。
鉴于有人找不到,我贴一下链接: 【RNN模型与NLP应用(1/9):数据处理基础-哔哩哔哩】 ***s://b23.tv/gkuoapF 这个系列层层递进,从普通的RNN一直谈到Transformer和bert,还谈了一下transformer架构在视觉的应用ViT模型。
每个***10多分钟,非常清晰…。
地址:广东省广州市天河区88号电话:400-123-4657传真:+86-123-4567
版权所有: