好問題,簡單從比較通俗的視角來說一下,為什麼deepseek造成了海外這麼大反應?它又是什麼樣的存在。
提起chatgpt我們都知道,但是事實上國內用戶是無法直接使用它的,得fq,所以在這之前,只有少數人是真的用到它的。而現在,deepseek在漢語言文學理解與創作、數學及推理、代碼等領域,已經達到了每月200刀的chatgpt級別的水平,就這麼牛。
不僅如此,花的錢還少,總訓練成本甚至不如meta的一個管理人員的薪資高。
此外,deepseek把他們最大的671b r1模型,真開源了,選擇的還是最寬鬆的開源協議,且他們把他們的核心論文也公開出來了,此前業內是沒有任何一家這麼做的。
大家都是悶聲自己沿著openai的prm過程獎勵模型的這一套體系去搞,而這次deepseek公開的論文,為業界指明了還有另一條更優路線,花費成本更少,效率提高至少50%,所能達到的上限還比prm這種路線高。所以這次deepseek一下子引爆了海外了,各家都開始重頭來按照deepseek開源的這個路線推倒重來。
就是這麼牛逼
提起chatgpt我們都知道,但是事實上國內用戶是無法直接使用它的,得fq,所以在這之前,只有少數人是真的用到它的。而現在,deepseek在漢語言文學理解與創作、數學及推理、代碼等領域,已經達到了每月200刀的chatgpt級別的水平,就這麼牛。
不僅如此,花的錢還少,總訓練成本甚至不如meta的一個管理人員的薪資高。
此外,deepseek把他們最大的671b r1模型,真開源了,選擇的還是最寬鬆的開源協議,且他們把他們的核心論文也公開出來了,此前業內是沒有任何一家這麼做的。
大家都是悶聲自己沿著openai的prm過程獎勵模型的這一套體系去搞,而這次deepseek公開的論文,為業界指明了還有另一條更優路線,花費成本更少,效率提高至少50%,所能達到的上限還比prm這種路線高。所以這次deepseek一下子引爆了海外了,各家都開始重頭來按照deepseek開源的這個路線推倒重來。
就是這麼牛逼