李宏毅webpage for ML 2021: speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.html
回來複習老師的課程 原來這就是股癌所說的達哥
我剛剛看大金廣告聽到第10遍...終於聽懂了....哈
深入浅出,而且都是前沿知识,非常有价值。
请教各位,homework的答案在哪里?
好神 如果以前學的時候 老師一開始就說這個就好了
求教,强化学习的话是使用梯度上升吗?那么23:29处,更新theta是加梯度还是减梯度?
感谢老师,真的收获满满。祝愿老师身体健康,每天都开心快乐!
很好的课程,使我的大脑旋转
對人做Batch Normalization 可以接近正緣嗎😍 謝謝李老師的影片!
能在网上看到老师的课真是太幸运了,万分感谢老师!!!衷心祝李老师一切顺利,身体健康!!!
我的哥雷姆第一次行動計畫就包含周圍環境警戒,不知道是否因為被老師訓練過了😂
GOAT
太精彩了,感谢老师❤
老師的影片常常和過去的影片attention
推爆芙莉蓮
芙莉莲使用地爆天星 螺旋手里剑,老师真是幽默的不行。
謝謝老師 很適合我的adhd腦
哈哈哈的例子太深刻,我也笑得美丁美噹XD
魔術師把人真的切成兩段再用超能力黏回去,這是漫畫日和的梗吧 😂
请教一下老师,在LLM的评比中,如何比较数学方面的能力? 是否 LLM 都不适合做数学题目?
被暴雷了///..\\\
受益良多,感謝老師
請問是否有合作信箱?
感謝老師,受教了🙏
Great job ! 听了好几个视频了,这个最棒.
ppo 应该是 on- policy
李老师是真神
哈利波特30万遍,这个说法印象深刻
非常好的演講
感谢老师!
進來看芙莉蓮的😂
感谢李宏毅老师!
18:20 gaussian distribution出来的竟然是模糊的图片,解释依然令人费解,我觉得是因为加了文字的原因,而不是因为decoder。换而言之,一开始gaussian的第一张图绝对是杂乱无序的,只有当第二次输入加入文字后,才会显现出轮廓,即便没有decoder,我想应该也会这样。
現在的ChatGpt4o,用台大玫瑰花節來問,第一次確實錯誤,之後再問一次,模型就記得之前的錯誤回答台大沒有玫瑰花節只有杜鵑花節。要開啟新的對話,才會出現錯誤答案。
我的chatgpt有memory
感谢老师,也希望有生之年能看到猎人完结
Aaaaa 全网最最最最最好的视频!!!! 谢谢老师!!!!!
真的講太好了..
在gpt-4o中只要改成:你現在是一位喜歡辛辣文字的PTT鄉民,請開始表演 就會產生類似的文字了XDDD
真的很想知道P(C1lX)跟P(XlC1)的差別?
真的好好看😂 謝謝老師
老師的聲音很有活力,是機器人說的嗎?😂
不知道能否分享作業內容,雖然沒有修課但也好想做做看😊
为什么\sqrt{1-\beta_2}\sqrt{\beta_1} \sigma_1 + \sqrt\beta_2 \sigma_2 两个噪声加权的结果等于 \sqrt{1-(1-\beta_2)(1-\beta_1)}\sigma_3呢,这个转换是等于转换吗,还是说这样写权重只是为了图像部分对应得到1-\beta_t方便后续的连乘积结果的使用?
哈哈,老师也是火影迷呀,神罗天征!
想要看懂difussion model,必须得先看懂VAE,两者本质的思想都是一致的,不过VAE是纯non regressive的,效果自然不如多次的difussion
Пікірлер
回來複習老師的課程 原來這就是股癌所說的達哥
我剛剛看大金廣告聽到第10遍...終於聽懂了....哈
深入浅出,而且都是前沿知识,非常有价值。
请教各位,homework的答案在哪里?
好神 如果以前學的時候 老師一開始就說這個就好了
求教,强化学习的话是使用梯度上升吗?那么23:29处,更新theta是加梯度还是减梯度?
感谢老师,真的收获满满。祝愿老师身体健康,每天都开心快乐!
很好的课程,使我的大脑旋转
對人做Batch Normalization 可以接近正緣嗎😍 謝謝李老師的影片!
能在网上看到老师的课真是太幸运了,万分感谢老师!!!衷心祝李老师一切顺利,身体健康!!!
我的哥雷姆第一次行動計畫就包含周圍環境警戒,不知道是否因為被老師訓練過了😂
GOAT
太精彩了,感谢老师❤
老師的影片常常和過去的影片attention
推爆芙莉蓮
芙莉莲使用地爆天星 螺旋手里剑,老师真是幽默的不行。
謝謝老師 很適合我的adhd腦
哈哈哈的例子太深刻,我也笑得美丁美噹XD
魔術師把人真的切成兩段再用超能力黏回去,這是漫畫日和的梗吧 😂
请教一下老师,在LLM的评比中,如何比较数学方面的能力? 是否 LLM 都不适合做数学题目?
被暴雷了///..\\\
受益良多,感謝老師
請問是否有合作信箱?
感謝老師,受教了🙏
Great job ! 听了好几个视频了,这个最棒.
ppo 应该是 on- policy
李老师是真神
哈利波特30万遍,这个说法印象深刻
非常好的演講
感谢老师!
進來看芙莉蓮的😂
感谢李宏毅老师!
18:20 gaussian distribution出来的竟然是模糊的图片,解释依然令人费解,我觉得是因为加了文字的原因,而不是因为decoder。换而言之,一开始gaussian的第一张图绝对是杂乱无序的,只有当第二次输入加入文字后,才会显现出轮廓,即便没有decoder,我想应该也会这样。
現在的ChatGpt4o,用台大玫瑰花節來問,第一次確實錯誤,之後再問一次,模型就記得之前的錯誤回答台大沒有玫瑰花節只有杜鵑花節。要開啟新的對話,才會出現錯誤答案。
我的chatgpt有memory
感谢老师,也希望有生之年能看到猎人完结
Aaaaa 全网最最最最最好的视频!!!! 谢谢老师!!!!!
真的講太好了..
在gpt-4o中只要改成:你現在是一位喜歡辛辣文字的PTT鄉民,請開始表演 就會產生類似的文字了XDDD
真的很想知道P(C1lX)跟P(XlC1)的差別?
真的好好看😂 謝謝老師
老師的聲音很有活力,是機器人說的嗎?😂
不知道能否分享作業內容,雖然沒有修課但也好想做做看😊
为什么\sqrt{1-\beta_2}\sqrt{\beta_1} \sigma_1 + \sqrt\beta_2 \sigma_2 两个噪声加权的结果等于 \sqrt{1-(1-\beta_2)(1-\beta_1)}\sigma_3呢,这个转换是等于转换吗,还是说这样写权重只是为了图像部分对应得到1-\beta_t方便后续的连乘积结果的使用?
哈哈,老师也是火影迷呀,神罗天征!
想要看懂difussion model,必须得先看懂VAE,两者本质的思想都是一致的,不过VAE是纯non regressive的,效果自然不如多次的difussion