比特幣礦機為啥要那麼多的顯卡
是顯存運算速度比內存快,所以二代礦機是基於顯存的原理開發的,並不是用顯卡直接挖
2. 挖比特幣為什麼要用很多顯卡
不用啰里啰嗦的解釋一大堆。很簡單:
挖礦運算需要計算機提供非常恐怖、變態的並行運算性能,即使是32核CPU也遠遠不夠用,多塊高性能顯卡並行運算所提供的強大處理能力,非常適合此類運算任務。
3. 比特幣為什麼要用顯卡挖礦
從比特幣的本質說起,比特幣的本質其實就是一堆復雜演算法所生成的特解。特解是指方程組所能得到無限個(其實比特幣是有限個)解中的一組。而每一個特解都能解開方程並且是唯一的。
為什麼要用顯卡挖礦?
相比較於CPU的復雜運算,顯卡使用的GPU進行的是通用計算。因此可以堆疊成百上千個流處理器,每一個流處理器就像是小小的CPU,雖然其運行復雜程序的能力遠遠沒有CPU來的給力,但是架不住流處理器多,因此實際性能尤其是單精度浮點性能要比CPU強的多。
挖包括比特幣之內的動作大家可以認為是利用顯卡在做不斷地通用計算,並且這個計算復雜度比較低而且相當重復,顯卡使用的流處理器正好適合這樣的演算法。就像是不斷地解方程組,顯卡是2000位中學生,而CPU則是8名數學博士。雖然數學博士的數學知識遠遠超過中學生,但是像解虛擬貨幣這樣的中等方程組的速度8名數學博士肯定不如2000名中學生來的快。
因此大家一開始就使用顯卡來挖掘虛擬貨幣。之後有人研究出特定的演算法,讓顯卡的流處理器針對的虛擬貨幣特解進行大幅強化,這就是礦機的由來。
4. 為什麼比特幣挖礦要用顯卡
為什麼要用顯卡挖礦?
相比較於CPU的復雜運算,顯卡使用的GPU進行的是通用計算。因此可以堆疊成百上千個流處理器,每一個流處理器就像是小小的CPU,雖然其運行復雜程序的能力遠遠沒有CPU來的給力,但是架不住流處理器多,因此實際性能尤其是單精度浮點性能要比CPU強的多。
但是我們之前說到過,A卡由於流處理器多,因此對於獲得虛擬貨幣這樣的通用計算來講十分地適合,獲得特定解的速度也比N卡高的多,因此眾多礦工如今大量搶購A卡來進行虛擬貨幣的運算以謀求利潤。
當然隨著Nvidia推出了Pascal架構的顯卡,目前N卡在挖掘虛擬貨幣上的能力已經不像之前那樣和A卡相差巨大。於是在目前A卡普遍缺貨的情況下那些中端N卡也就成為礦工們退而求其次的選擇。
礦卡有啥壞處?
最後說說為什麼大家在淘二手卡的時候不能選擇礦卡。由於礦工們挖礦比特幣最重要的就是謀求利潤。因此他們使用的顯卡每時每刻都在運行和計算,其強度遠甚於日常的游戲應用。或者說運行這樣的計算一天,相當於我們普通人運行顯卡一個月。
並且挖掘虛擬貨幣的場所基本都是多顯卡聚集的地方,成千上萬的顯卡在一個房間內不斷地運算,其發熱量也是相當巨大的,而礦工們也不可能像普通消費者一樣選擇散熱條件良好的機箱讓熱量能夠順利放出,這樣子顯卡還在高溫條件下進行7*24小時的運算,更是加深了其老化程度。
如此所作所為導致的結果便是用來挖礦的顯卡過早地損耗,如果購買的這些顯卡,結果便是運行不穩定,重啟等事情會不斷發生。
而且目前廠商對於礦卡也是嚴格要求,比如說嚴禁二手買賣以及縮短保質期,如果用戶購買了這些礦卡顯卡,日後維修也將是一個不小的挑戰。
5. 為什麼比特幣挖礦必須選AMD顯卡呢
主要是AMD顯卡更適合比特幣挖礦,其實AMD顯卡也並不比其它顯卡的性能差,它也是現在的主流顯卡之一,既然你想要比特幣挖礦,還是選擇AMD比較好。
6. 為什麼比特幣挖礦必須選AMD顯卡
在2012年礦機出現之前用顯卡挖礦的時代都用A卡挖礦是由於挖礦是將hash運算拆分成多個子運算,當時的A卡一條指令集即可完成一條運算,而N卡則需要3條指令集完成一條運算,因此實際運行效率A卡是N卡的2倍多接近3倍的效能。
其實N卡在Maxwell架構上已大輻強化了挖礦效能,不輸於A卡了。但Maxwell架構出來得太晚了,最早的Maxwell架構顯卡像GTX750Ti/750上市的時候(2014年初),主流幣種已經用顯卡挖不出什麼東西來了(都用礦機了)。因此也沒幾個人用N卡挖礦。
7. 為什麼挖礦需要顯卡
可能是你的這個挖礦得這個東西,就是需要很強的這個電腦的系統的,所以就是挖礦就是需要顯卡的。下面是關於顯卡的(7)比特幣礦機為啥要那麼多的顯卡擴展閱讀。
概述
顯卡又稱顯示卡( Video card),是計算機中一個重要的組成部分,承擔輸出顯示圖形的任務,對喜歡玩游戲和從事專業圖形設計的人來說,顯卡非常重要。主流顯卡的顯示晶元主要由NVIDIA(英偉達)和AMD(超微半導體)兩大廠商製造,通常將採用NVIDIA顯示晶元的顯卡稱為N卡,而將採用AMD顯示晶元的顯卡稱為A卡。[1]
配置較高的計算機,都包含顯卡計算核心。在科學計算中,顯卡被稱為顯示加速卡。[1]
顯示晶元( Video chipset)是顯卡的主要處理單元,因此又稱為圖形處理器(Graphic Processing Unit,GPU),GPU是NVIDIA公司在發布GeForce 256圖形處理晶元時首先提出的概念。尤其是在處理3D圖形時,GPU使顯卡減少了對CPU的依賴,並完成部分原本屬於CPU的工作。GPU所採用的核心技術有硬體T&L(幾何轉換和光照處理)、立方環境材質貼圖和頂點混合、紋理壓縮和凹凸映射貼圖、雙重紋理四像素256位渲染引擎等,而硬體T&L技術可以說是GPU的標志。[1]
顯卡所支持的各種3D特效由顯示晶元的性能決定,採用什麼樣的顯示晶元大致決定了這塊顯卡的檔次和基本性能,比如NVIDIA的GT系列和AMD的HD系列。[1]
衡量一個顯卡好壞的方法有很多,除了使用測試軟體測試比較外,還有很多指標可供用戶比較顯卡的性能,影響顯卡性能的高低主要有顯卡頻率、顯示存儲器等性能指標[1]。