在這個數組訪問微基準測試中(相對于GCC),Go的性能損失了4倍,是什么原因造成的?這個問題涉及到Go語言的運行時機制和編譯器優化等多個方面。首先,Go語言在數組訪問時使用了邊界檢查機制,即在每次訪問數組元素時都會進行邊界檢查,這會帶來一定的性能損失。其次,Go語言的編譯器在優化方面相對較弱,無法對數組訪問進行很好的優化。此外,Go語言的垃圾回收機制也會對性能造成一定的影響。綜上所述,這些因素共同導致了Go語言在數組訪問微基準測試中性能損失了4倍的情況。
問題內容
我編寫這個微基準測試是為了更好地了解 go 的性能特征,以便我能夠在何時使用它方面做出明智的選擇。
從性能開銷的角度來看,我認為這將是 go 的理想場景:
循環內沒有分配/釋放
數組訪問顯然在邊界內(可以刪除邊界檢查)
盡管如此,我發現相對于 amd64 上的 gcc -o3 速度有 4 倍的差異。這是為什么?
(使用shell計時。每次需要幾秒鐘,因此啟動可以忽略不計)
package main
import "fmt"
func main() {
fmt.println("started");
var n int32 = 1024 * 32
a := make([]int32, n, n)
b := make([]int32, n, n)
var it, i, j int32
for i = 0; i < n; i++ {
a[i] = i
b[i] = -i
}
var r int32 = 10
var sum int32 = 0
for it = 0; it < r; it++ {
for i = 0; i < n; i++ {
for j = 0; j < n; j++ {
sum += (a[i] + b[j]) * (it + 1)
}
}
}
fmt.printf("n = %d, r = %d, sum = %d\n", n, r, sum)
}
登錄后復制
c 版本:
#include
#include
int main() {
printf("started\n");
int32_t n = 1024 * 32;
int32_t* a = malloc(sizeof(int32_t) * n);
int32_t* b = malloc(sizeof(int32_t) * n);
for(int32_t i = 0; i < n; ++i) {
a[i] = i;
b[i] = -i;
}
int32_t r = 10;
int32_t sum = 0;
for(int32_t it = 0; it < r; ++it) {
for(int32_t i = 0; i < n; ++i) {
for(int32_t j = 0; j < n; ++j) {
sum += (a[i] + b[j]) * (it + 1);
}
}
}
printf("n = %d, r = %d, sum = %d\n", n, r, sum);
free(a);
free(b);
}
登錄后復制
更新:
按照建議使用 range,可以將 go 速度提高 2 倍。
另一方面,在我的測試中,-march=native 將 c 速度提高了 2 倍。 (并且-mno-sse給出編譯錯誤,顯然與-o3不兼容)
gccgo 在這里看起來與 gcc 相當(并且不需要 range)
解決方法
看看 C 程序與 Go 程序的匯編程序輸出,至少在我使用的 Go 和 GCC 版本(分別為 1.19.6 和 12.2.0)上,最直接和明顯的區別是 GCC自動向量化 C 程序,而 Go 編譯器似乎無法做到這一點。
這也很好地解釋了為什么您會看到性能提高了四倍,因為 GCC 在不針對特定架構時使用 SSE 而不是 AVX,這意味著 32 位標量指令寬度是四倍運營。事實上,添加 -march=native 為我帶來了兩倍的性能提升,因為這使得 GCC 在我的 CPU 上輸出 AVX 代碼。
我對 Go 還不夠熟悉,無法告訴你 Go 編譯器是否本質上無法進行自動向量化,或者是否只是這個特定的程序由于某種原因導致它出錯,但這似乎是根本原因.






