eth1660s伺服器圖片
㈠ 1660s挖etc怎麼樣
不太好。
如果單張1660s的這種相對來說比較老的顯卡,不建議去挖礦。因為挖礦他主要看算力,這種顯卡的算力大概在3~5兆左右。
挖這個ETC不能用4G顯存容量的顯卡,6G起步。GTX16系列、RTX20全系、RTX30不鎖算力全系列。每一張都很貴,現在最便宜也將近需要4000左右,要說回本快的話,那要數RTX3090了。
㈡ ETH搭建中轉伺服器 有什麼好處
優化用戶端
顧名思義,就是用一台優質中轉伺服器中轉目的伺服器,優化用戶端到目的伺服器的鏈路,形成用戶 → 中轉伺服器 → 目的地伺服器的網路鏈路,簡單來說就是通過中轉伺服器優化用戶端到目的伺服器的路由。
㈢ 三星顆粒1660s挖eth參數設置
直接默認就可以了。
追求收益可以降電壓提頻率小超一下。也可以選哈希寶之類更簡單的第三方挖礦工具。根據算力來區分顆粒類型,三星顆粒29M左右,鎂光顆粒26M左右,海力士顆粒22M左右,然後再根據對應的顆粒進行超頻。如果不分顆粒直接按高超頻參數進行超頻,容易卡死機器、或運行不穩定。
㈣ eth顯存要求
eth顯存要求如果選擇AMD卡,要求顯卡顯存大於2G,推薦購買4G顯存顯卡。因為對於挖礦來說,顯卡是核心,其餘都是輔助配件,大家盡量使用淘汰的硬體搭建平台以節約成本。這里考量的挖礦成本就只包含顯卡價格、電費。
eth的顯卡推薦。
1、初級顯卡:588、1660s。A卡的588絕對是挖礦神卡,體質好一點的可以超頻到算力32,而且散熱良好,唯一缺陷就是功耗較高,軟顯70w左右,實際要上到130w左右,目前幣價和難度來說回本算是最快的,雖然新卡炒到2400左右,而且缺貨。
N卡入門選1660s不會錯,鎂光顆粒29,三星顆粒31左右,價格略高588,算力略低588,但是好在功耗優勢,目前在售2500左右。
2、eth晉級挖礦:5600xt/5700xt 3060ti。5600、5700無論是算力還是功耗控制的都比較好,43、56的算力,影響買入的因素主要就是現在溢價太高,基本上加價1200左右,導致回本周期變長,但就現在行情來說,價格可能會成為常態。
更高價位的6800xt 3080和3090不做推薦,單算力成本太高,而且佔用電源顯卡介面更多,除非有現成卡。
1、挖礦演算法、設備、算力規模:以太坊採用的是 Ethash 加密演算法,在挖礦的過程中,需要讀取內存並存儲DAG文件,加密演算法的不同,導致了比特幣和以太坊的挖礦設備、算力規模差異很大。
2、礦機的電費佔比:ASIC礦機算力高,耗電量大,比如最新的螞蟻S19Pro礦機,額定功耗為 3250W,每天需要消耗78度電。
按照目前的幣價和0.23元的豐水期電價,電費佔比為30.68%。其他老一代的比特幣ASIC礦機,比如螞蟻T17系列,電費佔比普遍超過50%。
3、礦機的託管:賺取電費差價是礦場的主要盈利模式,賣出的電越多,礦場賺得越多。比特幣 ASIC礦機耗電量高,維護相對簡單,所以深受礦場歡迎,在託管時,可以選擇的礦場多。
以太坊的顯卡礦機不僅耗電量小,而且還體積大。跟比特幣 ASIC 礦機相比,普通的顯卡機器佔地比達到 1:3,也就是說 3台ASIC礦機的空間只能容下一台顯卡礦機。
㈤ 如何查看伺服器的型號
1/3
首先我們運行win+r,打開運行窗口,輸入cmd
2/3
在cmd的界面中輸入命令:wmic csproct get name
3/3
按下回車,即可看到伺服器型號
㈥ 1660s挖以太坊還能挖多久
很快就不能挖了。
如果是組建中大型礦場,1660S無疑是最優選擇,但是現在的ETH,頭上有兩把劍在懸著,一個是EIP1559一個是2.0,都會給礦工收益造成沖擊,所以無論家庭礦工還是大礦老闆,都在隨時關注和考慮替代幣種,比如之前之前因為3060而火熱的CFX,10系因為算力過低,幾乎不能轉投CFX門下,無論是ETH還是替代幣種,1660S的時代都已經進入末期,而且市面上流通的,也多是新老礦場退役下來的,不光10系,最近收的20系,也多是從內蒙古發出的,明知道是礦場下線的卡,我也要了,誰讓行情在這呢,如果是家庭礦工進場,請務必選擇20系,或者30系顯卡組裝,熊市來的那一天,退出殘值還有,繼續堅持也有選擇餘地,而且6片1660S,如果以目前的價格進場,無疑是進退兩難。
㈦ 1660S鎖算力嗎
不算
?660s單卡顯示為30M算力,在ETH網路上。 CFX挖礦的算力目前顯示為7M,不同的體系算力顯示不同,可按照比例換算
㈧ nginx 訪問日誌 大量 499 ,是什麼問題
可能的故障點
伺服器的問題,例如CPU使用率高,隊列堵塞,導致無法及時處理請求,從而導致客戶端超時斷開連接網路出現問題,丟包或者出現網路堵塞專線線路存在問題後端服務存在性能瓶頸,當流量變大時,響應時間提高,導致客戶端超時斷開連接三、排查伺服器問題
使用top命令,查看CPU使用率低於10%,內存使用率低於20%,沒有明顯的性能波動。使用vmstat 1 20命令,發現CPU隊列為1,伺服器具備4個CPU,使用率較低,未有明顯異常,io情況也正常。初步判斷與伺服器無關。
排查網路問題
使用ethtool eth0命令查看網路帶寬配置情況,發現 Speed: 1000Mb/s,Duplex:Full,千兆的網卡全部打滿,沒有進行帶寬限制。使用sar -n DEV 1 20命令查看網路的實時流量,可以看到rxkB/s峰值1800多,txkB/s峰值2400多,遠遠未達到網路上的流量限制,通過sar -n EDEV 1 20查看有網路錯誤的流量,發現均為0使用抓包工具在網路出口上進行抓包,發現網路數據包均正常發送,未有明顯延時的情況初步判斷網路設備沒有問題。
排查專線線路問題
後端服務是合作方的服務,通過專線相連接,專線有主、備兩條,分別屬於電信和移動運營商,主線經過電信的排查帶寬無問題,排查期間將線路切換到備線,問題依舊存在。
初步判斷與專線線路無關。
排查後端服務性能問題
由於超過2s客戶端主動斷開了連接,無法判斷後端服務是否收到了請求且是否正常響應。在nginx location模塊的配置中添加配置: proxy_ignore_client_abort on;,添加此配置以後,雖然客戶端到達2s以後會主動斷開連接,但是nginx會繼續轉發到後端服務且等待後端服務返回,並列印日誌。
添加完此配置以後,發現日誌中已經沒有出現499的響應碼,查看response time大於2s的請求,發現均正常返回,但是響應時間超過2s,高峰之時,響應時間最高超過10s。
由此可以判斷,後端服務是能夠正常收到請求的,只是由於後端服務網路設備或者是後端服務在大流量的情況下性能不足,導致響應緩慢,從而出現大量499響應碼。
排查結果
當流量升高時,大約1000TPS左右,響應時間顯著提高,從原來毫秒級別變成最大超過10秒鍾,此時使用ping發現沒有網路延時,可以確定是後端服務存在性能問題。
㈨ 華為三層交換機連接伺服器怎麼做埠聚合
比如交換機名為a,用gigabitethernet 0/0/1 和 0/0/2與伺服器連接
用console或telnet連接交換機後,進行配置
<a>system-view ;進入系統
[a]interface eth-trunk 1;建個聚合埠
[a-Eth-Trunk 1]port link-type trunk ;屬性為透傳,
[a-Eth-Trunk 1]port trunk allow-pass vlan xxxx/all;需要通過的vlan
[a-Eth-Trunk 1]q
[a]interface gigabitethernet 0/0/1 ;進入g 0/0/1埠
[a-gigabitethernet 0/0/1] eth-trunk 1 ; 加入Eth-Trunk 1
[a-gigabitethernet 0/0/1]q
[a]interface gigabitethernet 0/0/2 ;進入g 0/0/2埠
[a-gigabitethernet 0/0/2] eth-trunk 1 ; 加入Eth-Trunk 1
[a-gigabitethernet 0/0/2]q
㈩ 一對虛擬網橋發包為什麼會影響另一對網橋上的伺服器的訪問速度
本文詳細介紹了Openstack的網路原理和實現,主要內容包括:Neutron的網路架構及網路模型還有neutron虛擬化的實現和對二三層網橋的理解。
一、Neutron概述
Neutron是一個用Python寫的分布式軟體項目,用來實現OpenStack中的虛擬網路服務,實現軟體定義網路。Neutron北向有自己的REST API,中間有自己的業務邏輯層,有自己的DB和進程之間通訊的消息機制。同時Neutron常見的進程包括Neutron-server和Neutron-agent,分布式部署在不同的操作系統。
OpenStack發展至今,已經經歷了20個版本。雖然版本一直在更替,發展的項目也越來越多,但是Neutron作為OpenStack三大核心之一,它的地位是不會動搖的。只不過當初的Neutron也只是Nova項目的一個模塊而已,到F版本正式從中剝離,成為一個正式的項目。
從Nova-Network起步,經過Quantum,多年的積累Neutron在網路各個方面都取得了長足的發展。其主要的功能為:
(1)支持多租戶隔離
(2)支持多種網路類型同時使用
(3)支持隧道技術(VXLAN、GRE)
(4)支持路由轉發、SNAT、DNAT技術
(5)支持Floating IP和安全組
多平面租戶私有網路
圖中同時有VXLAN和VLAN兩種網路,兩種網路之間互相隔離。租戶A和B各自獨佔一個網路,並且通過自己的路由器連接到了外部網路。路由器為租戶的每個虛擬機提供了Float IP,完成vm和外網之間的互相訪問。
二、Neutron架構及網路模型
1、Neutron架構
Neutron-sever可以理解為類似於nova-api那樣的一個專門用來接收API調用的組件,負責將不同的api發送到不同Neutron plugin。
Neutron-plugin可以理解為不同網路功能實現的入口,接收server發來的API,向database完成一些注冊信息。然後將具體要執行的業務操作和參數通知給對應的agent來執行。
Agent就是plugin在設備上的代理,接受相應的plugin通知的業務操作和參數,並轉換為具體的命令行操作。
總得來說,server負責交互接收請求,plugin操作資料庫,agent負責具體的網路創建。
2、Neutron架構之Neutron-Server
(1)Neutron-server的本質是一個Python Web Server Gateway Interface(WSGI),是一個Web框架。
(2)Neutron-server接收兩種請求:
REST API請求:接收REST API請求,並將REST API分發到對應的Plugin(L3RouterPlugin)。
RPC請求:接收Plugin agent請求,分發到對應的Plugin(NeutronL3agent)。
3、Neutron架構之Neutron-Plugin
Neutron-plugin分為Core-plugin和Service-plugin。
Core-plugin:ML2負責管理二層網路,ML2主要包括Network、Subnet、Port三類核心資源,對三類資源進行操作的REST API是原生支持的。
Service-plugin:實現L3-L7網路,包括Router、Firewall、VPN。
4、Neutron架構之Neutron-Agent
(1)Neutron-agent配置的業務對象是部署在每一個網路節點或者計算節點的網元。
(2)網元區分為PNF和VNF:
PNF:物理網路功能,指傳統的路由器、交換機等硬體設備
VNF:虛擬網路功能,通過軟體實現的網路功能(二層交換、三層路由等)
(3)Neutron-agent三層架構如下圖:
Neutron-agent架構分為三層,北向為Neutron-server提供RPC介面,供Neutron server調用,南向通過CLI協議棧對Neutron VNF進行配置。在中間會進行兩種模型的轉換,從RPC模型轉換為CLI模型。
5、Neutron架構之通信原理
(1)Neutron是OpenStack的核心組件,官網給出Neutron的定義是NaaS。
(2)Naas有兩層含義:
對外介面:Neutron為Network等網路資源提供了RESTful API、CLI、GUI等模型。
內部實現:利用Linux原生或者開源的虛擬網路功能,加上硬體網路,構建網路。
Neutron接收到API請求後,交由模塊WSGI進行初步的處理,然後這個模塊通過Python API調用neutron的Plugin。Plugin做了相應的處理後,通過RPC調用Neutron的Agent組件,agent再通過某種協議對虛擬網路功能進行配置。其中承載RPC通信的是AMQP server,在部署中常用的開源軟體就是RabbitMQ
6、Neutron架構之控制節點網路模型
控制節點沒有實現具體的網路功能,它對各種虛擬設備做管理配合的工作。
(1)Neutron:Neutron-server核心組件。
(2)API/CLI:Neutron進程通過API/CLI介面接收請求。
(3)OVS Agent:Neutron通過RPC協議與agent通信。
控制節點部署著各種服務和Neutron-server,Neutron-server通過api/cli介面接收請求信息,通過RPC和Agent進行交互。Agent再調用ovs/linuxbridge等網路設備創建網路。
7、Neutron架構之計算節點網路模型
(1)qbr:Linux Bridge網橋
(2)br-int:OVS網橋
(3)br-tun:OVS隧道網橋
(4)VXLAN封裝:網路類型的轉變
8、Neutron架構之網路節點網路模型
網路節點部署了Router、DHCP Server服務,網橋連接物理網卡。
(1)Router:路由轉發
(2)DHCP: 提供DNS、DHCP等服務。
(3)br-ex: 連接物理網口,連接外網
三、Neutron虛擬化實現功能及設備介紹
1、Neutron虛擬化實現功能
Neutron提供的網路虛擬化能力包括:
(1)二層到七層網路的虛擬化:L2(virtual Switch)、L3(virtual Router 和 LB)、L47(virtual Firewall )等
(2)網路連通性:二層網路和三層網路
(3)租戶隔離性
(4)網路安全性
(5)網路拓展性
(6)REST API
(7)更高級的服務,包括 LBaaS,FWaaS,VPNaaS 等
2、Neutron虛擬化功能之二層網路
(1)按照用戶許可權創建網路:
Provider network:管理員創建,映射租戶網路到物理網路
Tenant network:租戶創建的普通網路
External network:物理網路
(2)按照網路類型:
Flat network:所有租戶網路在一個網路中
Local network:只允許在伺服器內通信,不通外網
VLAN network:基於物理VLAN實現的虛擬網路
VXLAN network:基於VXLAN實現的虛擬網路
3、Neutron虛擬化實現功能之租戶隔離
Neutron是一個支持多租戶的系統,所以租戶隔離是Neutron必須要支持的特性。
(1)租戶隔離三種含義:管理面隔離、數據面的隔離、故障面的隔離。
(2)不同層次租戶網路的隔離性
租戶與租戶之間三層隔離
同一租戶不同網路之間二層隔離
同一租戶同一網路不同子網二層隔離
(3)計算節點的 br-int 上,Neutron 為每個虛機連接 OVS 的 access port 分配了內部的 VLAN Tag。這種 Tag 限制了網路流量只能在 Tenant Network 之內。
(4)計算節點的 br-tun 上,Neutron 將內部的 VLAN Tag 轉化為 VXLAN Tunnel ID,然後轉發到網路節點。
(5)網路節點的 br-tun 上,Neutron 將 VXLAN Tunnel ID 轉發了一一對應的 內部 VLAN Tag,使得 網路流被不同的服務處理。
(6)網路節點的 br-int 上連接的 DHCP 和 L3 agent 使用 Linux Network Namespace 進行隔離。
4、Neutron虛擬化實現功能之租戶網路安全
除了租戶隔離以外 Neutron還提供數據網路與外部網路的隔離性。
(1)默認情況下,所有虛擬機通過外網的流量全部走網路節點的L3 agent。在這里,內部的固定IP被轉化為外部的浮動IP地址
(1)Neutron還利用Linux iptables特性,實現其Security Group特性,從而保證訪問虛機的安全性
(3)Neutron利用網路控制節點上的Network Namespace中的iptables,實現了進出租戶網路的網路防火牆,從而保證了進出租戶網路的安全性。
5、Neutron虛擬化設備
(1)埠:Port代表虛擬網路交換機上的一個虛擬交換機埠
虛擬機的網卡連接到Port上就會擁有MAC地址和IP地址
(2)虛擬交換機:Neutron默認採用開源的Openvswitch,
同時還支持Linux Bridge
(3)虛擬路由器VR:
路由功能
一個VR只屬於一個租戶,租戶可以有多個VR
一個VR可以有若干個子網
VR之間採用Namespace隔離
Linux Bridge直接與物聯網卡相連
每個Flat獨佔一個物理網卡
配置文件添加響應mapping
四、Neutron網橋及二三層網路理解
1、Neutron-Local-Bridge
僅用於測試;網橋沒有與物理網卡相連VM不通外網。
圖中創建了兩個local network,分別有其對應的qbr網橋。Vm123的虛擬網卡通過tap連接到qbr網橋上。其中2和3屬於同一個network可以通信,1屬於另一個網路不能和23進行通信。並且qbr網橋不連物理網卡,所以說local網路虛擬機只能同網路通信,不能連通外網。
2、Neutron-Flat-Bridge
Flat網路是在local網路的基礎上實現不同宿主機之間的二層互聯,但是每個flat network都會佔用一個宿主機的物理介面。其中qbr1對應的flatnetwork 連接 eth1 qbr2,兩個網路的虛機在物理二層可以互聯。其它跟local network類似。
3、Neutron-VLAN-Bridge
在基於linux bridge的vlan網路中,eht1物理網卡上創建了兩個vlan介面,1.1連接到qbr1網橋,1.2連接到了qbr2網橋。在這種情況下vm通過eth1.1或者eth1.2發送到eth1的包會被打上各自的vlan id。此時vm2和vm3屬於同一個network所以是互通的,vm與vm2和vm3不通。
4、Neutron-VXLAN-Bridge
這個是以Linux bridge作agent的Vxlan網路:
Vxlan網路比Vxlan網路多了個VXLAN隧道,在Openstack中創建好內部網路和實例後,agent就會在計算節點和網路節點創建一對vxlan vtep.組成隧道的兩個端點。
Vxlan連接在eth0網口。在網路節點多了兩個組件dhcp 和router,他們分別通過一對veth與qbr網橋連接在一起,多個dhcp和路由之間使用namesapce隔離,當vm產生ping包時,發往linux 網橋qbr1,通過網橋在vxlan12上封裝數據包,數據通過eth0網卡出計算節點到網路節點的eth0,在vxlan12解包。到達路由器之後經過nat地址轉換,從eth1出去訪問外網,由租戶網路到運營商網路再到外部網路。
5、Neutron-VLAN-OVS
與Linux bridge不同,openvswitch 不是通過eth1.1 eth1.2這樣的vlan介面來隔離不同的vlan,而是通過openvswitch的流表規則來指定如何對進出br-int的數據進行轉發,實現不同vlan的隔離。
圖中計算節點的所有虛擬機都連接在int網橋上,虛擬機分為兩個網路。Int網橋會對到來的數據包根據network的不同打上vlan id號,然後轉發到eth網橋,eth網橋直連物理網路。這時候流量就從計算節點到了網路節點。
網路節點的ehx int網橋的功能相似,多了一個ex網橋,這個網橋是管理提前創建好的,和物理網卡相連,ex網橋和int網橋之間通過一對patch-port相連,虛擬機的流量到達int網橋後經過路由到ex網橋。
6、Neutron-VXLAN-OVS
Vxlan的模型和vlan的模型十分相似,從表面上來看,他倆相比只有一個不同,vlan對應的是ethx網橋,而vxlan對應的是tun網橋。
在這里ethx和tun都是ovs網橋,所以說兩者的差別不是實現組件的差別而是組件所執行功能的差別,ethx執行的是普通二層交換機的功能,tun執行的是vxlan中的vtep的功能,圖中倆tun對應的介面ip就是vxlan的隧道終結點ip。所以說虛機的數據包在到達tun網橋之前是打的是vlan tag,而到達tun之後會發生網路類型的轉換,從vlan封裝為vxlan然後到達網路節點。而之前的vlan類型的網路,虛機數據包的類型一直都是vlan。
7、物理的二層與虛擬的二層(VLAN模式)
(1)物理的二層指的是:物理網路是二層網路,基於乙太網協議的廣播方式進行通信。
(2)虛擬的二層指的是:Neutron實現的虛擬網路也是二層網路(openstack的vm機所用的網路必須是大二層),也是基於乙太網協議的廣播方式進行通信,但毫無疑問的是該虛擬網路是依賴於物理的二層網路。
(3)物理二層+虛擬二層的典型代表:VLAN網路模式。
8、物理的三層與虛擬的二層(GRE模式與VXLAN模式)
(1)物理三層指的是:物理網路是三層網路,基於IP路由的方式進行通信。
(2)虛擬的二層指的是:Neutron實現的虛擬網路仍然是二層網路(openstack的vm機所用的網路必須是大二層),仍然是基於乙太網的廣播方式進行通信,但毫無疑問的是該虛擬機網路是依賴於物理的三層網路,這點有點類似於VPN的概念,根本原理就是將私網的包封裝起來,最終打上隧道的ip地址傳輸。
(3)物理三層+虛擬二層的典型代表:GRE模式與VXLAN模式。