【ITBEAR科技資訊】9月3日消息,近日有關(guān)于開源編程語言Triton以及OpenAI的重要發(fā)展引起了廣泛關(guān)注。Triton被譽(yù)為一種類似于Python的編程語言,旨在讓研究人員能夠更輕松地編寫高效的GPU代碼,即使沒有CUDA經(jīng)驗(yàn)也能取得優(yōu)異的性能。該語言最初僅支持英偉達(dá)GPU,但最新的Triton版本卻在GitHub上暴露了對(duì)AMD ROCm的適配,預(yù)示著其將不再局限于英偉達(dá)平臺(tái)。
根據(jù)OpenAI的介紹,Triton僅需25行代碼,即可在FP16矩陣乘法上達(dá)到與cuBLAS相當(dāng)?shù)男阅埽瑯O大地簡(jiǎn)化了GPU加速的編程過程。據(jù)稱,即使是初學(xué)者也能編寫出與專業(yè)人士相媲美的代碼,通過相對(duì)較少的努力,實(shí)現(xiàn)最高的硬件性能。

近期,OpenAI宣布將于9月20日在加利福尼亞州山景城的微軟硅谷園區(qū)舉辦Triton開發(fā)者大會(huì)。會(huì)議的日程安排中包括將Triton引入AMD GPU和Triton的英特爾XPU等重要議題。這一舉措標(biāo)志著Triton逐步擺脫了英偉達(dá)CUDA的壟斷,為更多硬件平臺(tái)的集成提供了可能性。
據(jù)ITBEAR科技資訊了解,Triton的開源特性使得其他硬件加速器能夠直接集成到其中,從而大大減少了為新硬件建立AI編譯器棧的時(shí)間。此外,在PyTorch 2.0版本中,TorchInductor已經(jīng)引入了對(duì)OpenAI Triton的支持,這使得在多個(gè)加速器和后端生成快速代碼成為可能,同時(shí)使用Python替代CUDA編程來編寫底層硬件代碼,為深度學(xué)習(xí)研究者帶來了更大的便利。






