第162章 我成了,哈哈我成了!(4 / 6)

么。

    吕尧却不放弃:“那就当给我科普呗,费曼说啊最好的学习方式就是把自己会的东西讲给不会的人听,如果对方能听懂,那就说明这个知识是真正被你消化吸收了。”

    王杉点点头,费曼学习法,确实很有道理。

    心里稍微一琢磨,王杉就认同了吕尧的说法,打算给吕尧科普一下ai方面的基础知识,这也有助于他理清自己的思路。

    于是王杉想了想后就抽出一张纸说道:“这次我回京城,组里面主要对专攻哪个神经网络有很大的分歧,你知道现在主流的神经网络模型有哪些吗?”

    吕尧摇摇头。

    然后王杉就开始给吕尧进行科普。

    当下比较主流的神经网络有“深度神经网络”,“卷积神经网络”,“生成对抗网络”,“循环神经网络”等等。

    其中卷积神经网络在图像识别、目标检测等领域有非常好的表现。

    循环神经网络在处理“序列数据”时则非常有优势,循环神经网络具有循环连接,使得信息可以在网络中传递并保持记忆,它的每个时间步都接收一个输入和一个隐藏状态,然后根据当前输入和前一个时间步的隐藏状态计算当前时间步的输出和新的隐藏状态。

    王杉科普完说道:“现在业内对循环神经网络是比较看好的,他对自然语言的解析记忆算是非常不错的了。”

    “但要把它作为主攻的方向,我心底总觉得哪里不太对劲。”

    吕尧看着王杉画在纸上的循环神经输入输出模型示意图,发现这个流程其实跟transformer已经很像了。

    区别只在于中间层的设计。

    于是吕尧绞尽脑汁把自己关于transformer的理解说出来:“我觉得这都不太对劲,循环神经网络有种死记硬背的感觉,能不能设计一种算法,来捕捉输入数据中的内在算法呢?”

    “如果是处理自然语言,那我们说话肯定都有重点嘛,如果能通过算法模型找出重点,然后给予数据反馈,是不是会更好?”

    王杉本来没把吕尧的建议当回事,可他那聪明的大脑却下意识开始运转起来。

    通过算法找重点?

    好像也不是不行。

    找重点本质上可以认为是求一个离散概率分布的数学期望,这个通过算法,很容易找到简单自然语言中的重点。

    “嘶”

    王杉忽然低头抱住脑袋,无数的方程式,构想开始在他脑海里翻涌,那一瞬间喷薄而出的灵感仿佛要把他的脑子撑爆。

 

温馨提示:亲爱的读者,为了避免丢失和转马,请勿依赖搜索访问,建议你收藏【dq54网】 www.dq54.com。我们将持续为您更新!

请勿开启浏览器阅读模式,可能将导致章节内容缺失及无法阅读下一章。