挖礦只用cpu可以
Ⅰ 為什麼不能用CPU挖礦
現在挖礦熱潮,礦工們大量的采購顯卡用來挖礦,這時候很多用戶就不明白既然是做運算那為什麼不用CPU挖礦而是用顯卡挖礦呢?其實這都是因為CPU是一個「遇強則強」的東西。
挖礦所需要執行的任務就是一個很簡單的解密碼計算,並不需要太多的指令,也就是說挖礦只需要一些特定的晶體管就行了。但是如果用CPU挖礦的話會導致一周期內很多晶體管都是閑置的,並沒有在工作,所以就閑置了。而顯卡為了增強顯示圖像的能力,省去了很多與顯示功能無關的晶體管,所以顯卡只能用來顯示畫面,而且在顯示畫面這個功能任務上,顯卡自然比CPU快很多。然後挖礦所執行的任務和顯卡又差不多,所以顯卡挖礦要比CPU更快。
Ⅱ 為什麼挖礦只用顯卡不用cpu
原因是因為btc所執行的任務是很簡單的一個解密碼的計算, 並不需要太多的指令.也就是說,btc的任務只需要一些特定的晶體管就可以執行了.
用cpu執行挖礦的任務,cpu因為需要很多晶體管來執行各種不同的指令,一個周期內很多晶體管都是閑置的.速度慢正常.
顯卡為了加強顯示圖像的能力,省掉了很多與顯示功能無關的晶體管,所以顯卡只能顯示畫面,但是在顯示畫面這個任務上,比cpu快很多. 而btc所需要執行的任務和顯卡正好差不多,所以顯卡挖礦比cpu快. 同是顯卡,a卡的任務的執行方式比n卡更接近btc的計算方式,所以a卡更適合挖礦.
Ⅲ 這個有什麼問題 我只用CPU計算 怎麼挖礦啊
不好意思,CPUwiner從來沒有使用過啊。
Ⅳ 挖礦用顯卡還是cpu
1.挖礦可以用CPU,甚至硬碟。(不同演算法有區別)
2.因為GPU有很多核心,做這種小學生題比CPU更快,所以你看到顯卡挖。
3.定製晶元比顯卡更快,比如比特幣,現在不用顯卡挖。
4.因為熱門的幣,用顯卡挖的演算法,所以顯卡搶手。如果哪天硬碟挖的火了,你就要搶硬碟去了。
Ⅳ 如何使用cpu挖礦
CPU 挖礦的命令是:
minerd.exe -a scrypt -o stratum+tcp://60.190.233.166:9327 -u 你自己的錢包地址 -p X -t 8 -s 15
pause
其中 -t 8 為你使用的核心數! 其它參數沒必要改
對核心也沒有那麼多要求。要是你不需要用電腦, 只要改成比你的實際核心大就成了。不一定4核就一定得是4.! 6 、8 一樣能用。只是每個進程的速度下降而以。總體速度完全一樣。
還有 這個參數改的是對系統的佔用率而不是真的物理核心佔用。 也就是說 你是4核系統,要是改成2,並不是100%的佔用2個核心,而是50%系統CPU資源佔用!
Ⅵ 有沒有可能設計一種只能使用CPU的挖礦演算法
CPU擅長的是像操作系統、系統軟體和通用應用程序這類擁有復雜指令調度、循環、分支、邏輯判斷以及執行等的程序任務。它的並行優勢是程序執行層面的,程序邏輯的復雜度也限定了程序執行的指令並行性,上百個並行程序執行的線程基本看不到。GPU擅長的是圖形類的或者是非圖形類的高度並行數值計算,GPU可以容納上千個沒有邏輯關系的數值計算線程,它的優勢是無邏輯關系數據的並行計算
Ⅶ 如何使用CPU挖礦
你好;
顯卡可以挖礦;
有錢可以上泰坦陣列效率高,沒錢可以7990 290x陣列二手一千多塊;
算力是比特幣礦機產出比特幣的能力,是礦機每秒產生hash碰撞的能力。算力的單位轉換關系是1000G=1T,1000T=1P,現在全網總算力約為2000P。在比特幣的世界,一天的總產量約是1800枚。挖礦可以抽象理解為這2000P算力每天爭奪1800枚比特幣生產權的行為。算力的漲跌趨勢總體跟幣價的漲跌正相關,跟礦機價格的漲跌負相關。
Ⅷ 用CPU挖礦,一天能挖多少
別指望了.
現在最快的家用CPU也沒一塊千元級顯卡快.
效率太低.
Ⅸ 如何用cpu挖礦
門羅幣反礦機適合CPU挖礦
門羅幣最新官方windows錢包下載地址:
1.下載好挖礦軟體,解壓。滑鼠右鍵點擊:「啟動.cmd」,彈出菜單中選擇「編輯」。
粘貼修改為之前你得到的錢包接收地址,這樣挖礦得到的礦是進您的錢包。
2.雙擊啟動.cmd,開始挖礦。
第1次運行可能會出現reboot等字樣,您就按它的英文操作,右擊「啟動.cmd」,選擇以管理員運行,然後重新電腦,使aes-ni生效後,再次正常高效運行挖礦賺錢。
Ⅹ 為什麼挖礦要用gpu而不是cpu
挖礦的軟體,從編程原理上來說,講究的是大規模並行運算。
顯卡GPU的流處理器數量非常多,比如古老的HD5770內置了800個流處理器,相當於擁有800個計算核心。而近幾年的主流高端顯卡,內置的流處理器個數更多,計算性能更加的強大。利用GPU進行挖礦運算,流處理器進行的就是並行運算,並且挖礦程序還對GPU並行運算進行了專門的優化,運算效率特別高,挖出比特幣的效率獲得了大大的提升。
CPU的核心是比較少,目前最牛逼的主流桌面級處理器核心數也不超過一二十個(很多還是超線程技術虛擬出來的邏輯核心),並行計算能力遠遠不如GPU。