eth1660s服务器图片
㈠ 1660s挖etc怎么样
不太好。
如果单张1660s的这种相对来说比较老的显卡,不建议去挖矿。因为挖矿他主要看算力,这种显卡的算力大概在3~5兆左右。
挖这个ETC不能用4G显存容量的显卡,6G起步。GTX16系列、RTX20全系、RTX30不锁算力全系列。每一张都很贵,现在最便宜也将近需要4000左右,要说回本快的话,那要数RTX3090了。
㈡ ETH搭建中转服务器 有什么好处
优化用户端
顾名思义,就是用一台优质中转服务器中转目的服务器,优化用户端到目的服务器的链路,形成用户 → 中转服务器 → 目的地服务器的网路链路,简单来说就是通过中转服务器优化用户端到目的服务器的路由。
㈢ 三星颗粒1660s挖eth参数设置
直接默认就可以了。
追求收益可以降电压提频率小超一下。也可以选哈希宝之类更简单的第三方挖矿工具。根据算力来区分颗粒类型,三星颗粒29M左右,镁光颗粒26M左右,海力士颗粒22M左右,然后再根据对应的颗粒进行超频。如果不分颗粒直接按高超频参数进行超频,容易卡死机器、或运行不稳定。
㈣ eth显存要求
eth显存要求如果选择AMD卡,要求显卡显存大于2G,推荐购买4G显存显卡。因为对于挖矿来说,显卡是核心,其余都是辅助配件,大家尽量使用淘汰的硬件搭建平台以节约成本。这里考量的挖矿成本就只包含显卡价格、电费。
eth的显卡推荐。
1、初级显卡:588、1660s。A卡的588绝对是挖矿神卡,体质好一点的可以超频到算力32,而且散热良好,唯一缺陷就是功耗较高,软显70w左右,实际要上到130w左右,目前币价和难度来说回本算是最快的,虽然新卡炒到2400左右,而且缺货。
N卡入门选1660s不会错,镁光颗粒29,三星颗粒31左右,价格略高588,算力略低588,但是好在功耗优势,目前在售2500左右。
2、eth晋级挖矿:5600xt/5700xt 3060ti。5600、5700无论是算力还是功耗控制的都比较好,43、56的算力,影响买入的因素主要就是现在溢价太高,基本上加价1200左右,导致回本周期变长,但就现在行情来说,价格可能会成为常态。
更高价位的6800xt 3080和3090不做推荐,单算力成本太高,而且占用电源显卡接口更多,除非有现成卡。
1、挖矿算法、设备、算力规模:以太坊采用的是 Ethash 加密算法,在挖矿的过程中,需要读取内存并存储DAG文件,加密算法的不同,导致了比特币和以太坊的挖矿设备、算力规模差异很大。
2、矿机的电费占比:ASIC矿机算力高,耗电量大,比如最新的蚂蚁S19Pro矿机,额定功耗为 3250W,每天需要消耗78度电。
按照目前的币价和0.23元的丰水期电价,电费占比为30.68%。其他老一代的比特币ASIC矿机,比如蚂蚁T17系列,电费占比普遍超过50%。
3、矿机的托管:赚取电费差价是矿场的主要盈利模式,卖出的电越多,矿场赚得越多。比特币 ASIC矿机耗电量高,维护相对简单,所以深受矿场欢迎,在托管时,可以选择的矿场多。
以太坊的显卡矿机不仅耗电量小,而且还体积大。跟比特币 ASIC 矿机相比,普通的显卡机器占地比达到 1:3,也就是说 3台ASIC矿机的空间只能容下一台显卡矿机。
㈤ 如何查看服务器的型号
1/3
首先我们运行win+r,打开运行窗口,输入cmd
2/3
在cmd的界面中输入命令:wmic csproct get name
3/3
按下回车,即可看到服务器型号
㈥ 1660s挖以太坊还能挖多久
很快就不能挖了。
如果是组建中大型矿场,1660S无疑是最优选择,但是现在的ETH,头上有两把剑在悬着,一个是EIP1559一个是2.0,都会给矿工收益造成冲击,所以无论家庭矿工还是大矿老板,都在随时关注和考虑替代币种,比如之前之前因为3060而火热的CFX,10系因为算力过低,几乎不能转投CFX门下,无论是ETH还是替代币种,1660S的时代都已经进入末期,而且市面上流通的,也多是新老矿场退役下来的,不光10系,最近收的20系,也多是从内蒙古发出的,明知道是矿场下线的卡,我也要了,谁让行情在这呢,如果是家庭矿工进场,请务必选择20系,或者30系显卡组装,熊市来的那一天,退出残值还有,继续坚持也有选择余地,而且6片1660S,如果以目前的价格进场,无疑是进退两难。
㈦ 1660S锁算力吗
不算
?660s单卡显示为30M算力,在ETH网络上。 CFX挖矿的算力目前显示为7M,不同的体系算力显示不同,可按照比例换算
㈧ nginx 访问日志 大量 499 ,是什么问题
可能的故障点
服务器的问题,例如CPU使用率高,队列堵塞,导致无法及时处理请求,从而导致客户端超时断开连接网络出现问题,丢包或者出现网络堵塞专线线路存在问题后端服务存在性能瓶颈,当流量变大时,响应时间提高,导致客户端超时断开连接三、排查服务器问题
使用top命令,查看CPU使用率低于10%,内存使用率低于20%,没有明显的性能波动。使用vmstat 1 20命令,发现CPU队列为1,服务器具备4个CPU,使用率较低,未有明显异常,io情况也正常。初步判断与服务器无关。
排查网络问题
使用ethtool eth0命令查看网络带宽配置情况,发现 Speed: 1000Mb/s,Duplex:Full,千兆的网卡全部打满,没有进行带宽限制。使用sar -n DEV 1 20命令查看网络的实时流量,可以看到rxkB/s峰值1800多,txkB/s峰值2400多,远远未达到网络上的流量限制,通过sar -n EDEV 1 20查看有网络错误的流量,发现均为0使用抓包工具在网络出口上进行抓包,发现网络数据包均正常发送,未有明显延时的情况初步判断网络设备没有问题。
排查专线线路问题
后端服务是合作方的服务,通过专线相连接,专线有主、备两条,分别属于电信和移动运营商,主线经过电信的排查带宽无问题,排查期间将线路切换到备线,问题依旧存在。
初步判断与专线线路无关。
排查后端服务性能问题
由于超过2s客户端主动断开了连接,无法判断后端服务是否收到了请求且是否正常响应。在nginx location模块的配置中添加配置: proxy_ignore_client_abort on;,添加此配置以后,虽然客户端到达2s以后会主动断开连接,但是nginx会继续转发到后端服务且等待后端服务返回,并打印日志。
添加完此配置以后,发现日志中已经没有出现499的响应码,查看response time大于2s的请求,发现均正常返回,但是响应时间超过2s,高峰之时,响应时间最高超过10s。
由此可以判断,后端服务是能够正常收到请求的,只是由于后端服务网络设备或者是后端服务在大流量的情况下性能不足,导致响应缓慢,从而出现大量499响应码。
排查结果
当流量升高时,大约1000TPS左右,响应时间显著提高,从原来毫秒级别变成最大超过10秒钟,此时使用ping发现没有网络延时,可以确定是后端服务存在性能问题。
㈨ 华为三层交换机连接服务器怎么做端口聚合
比如交换机名为a,用gigabitethernet 0/0/1 和 0/0/2与服务器连接
用console或telnet连接交换机后,进行配置
<a>system-view ;进入系统
[a]interface eth-trunk 1;建个聚合端口
[a-Eth-Trunk 1]port link-type trunk ;属性为透传,
[a-Eth-Trunk 1]port trunk allow-pass vlan xxxx/all;需要通过的vlan
[a-Eth-Trunk 1]q
[a]interface gigabitethernet 0/0/1 ;进入g 0/0/1端口
[a-gigabitethernet 0/0/1] eth-trunk 1 ; 加入Eth-Trunk 1
[a-gigabitethernet 0/0/1]q
[a]interface gigabitethernet 0/0/2 ;进入g 0/0/2端口
[a-gigabitethernet 0/0/2] eth-trunk 1 ; 加入Eth-Trunk 1
[a-gigabitethernet 0/0/2]q
㈩ 一对虚拟网桥发包为什么会影响另一对网桥上的服务器的访问速度
本文详细介绍了Openstack的网络原理和实现,主要内容包括:Neutron的网络架构及网络模型还有neutron虚拟化的实现和对二三层网桥的理解。
一、Neutron概述
Neutron是一个用Python写的分布式软件项目,用来实现OpenStack中的虚拟网络服务,实现软件定义网络。Neutron北向有自己的REST API,中间有自己的业务逻辑层,有自己的DB和进程之间通讯的消息机制。同时Neutron常见的进程包括Neutron-server和Neutron-agent,分布式部署在不同的操作系统。
OpenStack发展至今,已经经历了20个版本。虽然版本一直在更替,发展的项目也越来越多,但是Neutron作为OpenStack三大核心之一,它的地位是不会动摇的。只不过当初的Neutron也只是Nova项目的一个模块而已,到F版本正式从中剥离,成为一个正式的项目。
从Nova-Network起步,经过Quantum,多年的积累Neutron在网络各个方面都取得了长足的发展。其主要的功能为:
(1)支持多租户隔离
(2)支持多种网络类型同时使用
(3)支持隧道技术(VXLAN、GRE)
(4)支持路由转发、SNAT、DNAT技术
(5)支持Floating IP和安全组
多平面租户私有网络
图中同时有VXLAN和VLAN两种网络,两种网络之间互相隔离。租户A和B各自独占一个网络,并且通过自己的路由器连接到了外部网络。路由器为租户的每个虚拟机提供了Float IP,完成vm和外网之间的互相访问。
二、Neutron架构及网络模型
1、Neutron架构
Neutron-sever可以理解为类似于nova-api那样的一个专门用来接收API调用的组件,负责将不同的api发送到不同Neutron plugin。
Neutron-plugin可以理解为不同网络功能实现的入口,接收server发来的API,向database完成一些注册信息。然后将具体要执行的业务操作和参数通知给对应的agent来执行。
Agent就是plugin在设备上的代理,接受相应的plugin通知的业务操作和参数,并转换为具体的命令行操作。
总得来说,server负责交互接收请求,plugin操作数据库,agent负责具体的网络创建。
2、Neutron架构之Neutron-Server
(1)Neutron-server的本质是一个Python Web Server Gateway Interface(WSGI),是一个Web框架。
(2)Neutron-server接收两种请求:
REST API请求:接收REST API请求,并将REST API分发到对应的Plugin(L3RouterPlugin)。
RPC请求:接收Plugin agent请求,分发到对应的Plugin(NeutronL3agent)。
3、Neutron架构之Neutron-Plugin
Neutron-plugin分为Core-plugin和Service-plugin。
Core-plugin:ML2负责管理二层网络,ML2主要包括Network、Subnet、Port三类核心资源,对三类资源进行操作的REST API是原生支持的。
Service-plugin:实现L3-L7网络,包括Router、Firewall、VPN。
4、Neutron架构之Neutron-Agent
(1)Neutron-agent配置的业务对象是部署在每一个网络节点或者计算节点的网元。
(2)网元区分为PNF和VNF:
PNF:物理网络功能,指传统的路由器、交换机等硬件设备
VNF:虚拟网络功能,通过软件实现的网络功能(二层交换、三层路由等)
(3)Neutron-agent三层架构如下图:
Neutron-agent架构分为三层,北向为Neutron-server提供RPC接口,供Neutron server调用,南向通过CLI协议栈对Neutron VNF进行配置。在中间会进行两种模型的转换,从RPC模型转换为CLI模型。
5、Neutron架构之通信原理
(1)Neutron是OpenStack的核心组件,官网给出Neutron的定义是NaaS。
(2)Naas有两层含义:
对外接口:Neutron为Network等网络资源提供了RESTful API、CLI、GUI等模型。
内部实现:利用Linux原生或者开源的虚拟网络功能,加上硬件网络,构建网络。
Neutron接收到API请求后,交由模块WSGI进行初步的处理,然后这个模块通过Python API调用neutron的Plugin。Plugin做了相应的处理后,通过RPC调用Neutron的Agent组件,agent再通过某种协议对虚拟网络功能进行配置。其中承载RPC通信的是AMQP server,在部署中常用的开源软件就是RabbitMQ
6、Neutron架构之控制节点网络模型
控制节点没有实现具体的网络功能,它对各种虚拟设备做管理配合的工作。
(1)Neutron:Neutron-server核心组件。
(2)API/CLI:Neutron进程通过API/CLI接口接收请求。
(3)OVS Agent:Neutron通过RPC协议与agent通信。
控制节点部署着各种服务和Neutron-server,Neutron-server通过api/cli接口接收请求信息,通过RPC和Agent进行交互。Agent再调用ovs/linuxbridge等网络设备创建网络。
7、Neutron架构之计算节点网络模型
(1)qbr:Linux Bridge网桥
(2)br-int:OVS网桥
(3)br-tun:OVS隧道网桥
(4)VXLAN封装:网络类型的转变
8、Neutron架构之网络节点网络模型
网络节点部署了Router、DHCP Server服务,网桥连接物理网卡。
(1)Router:路由转发
(2)DHCP: 提供DNS、DHCP等服务。
(3)br-ex: 连接物理网口,连接外网
三、Neutron虚拟化实现功能及设备介绍
1、Neutron虚拟化实现功能
Neutron提供的网络虚拟化能力包括:
(1)二层到七层网络的虚拟化:L2(virtual Switch)、L3(virtual Router 和 LB)、L47(virtual Firewall )等
(2)网络连通性:二层网络和三层网络
(3)租户隔离性
(4)网络安全性
(5)网络拓展性
(6)REST API
(7)更高级的服务,包括 LBaaS,FWaaS,VPNaaS 等
2、Neutron虚拟化功能之二层网络
(1)按照用户权限创建网络:
Provider network:管理员创建,映射租户网络到物理网络
Tenant network:租户创建的普通网络
External network:物理网络
(2)按照网络类型:
Flat network:所有租户网络在一个网络中
Local network:只允许在服务器内通信,不通外网
VLAN network:基于物理VLAN实现的虚拟网络
VXLAN network:基于VXLAN实现的虚拟网络
3、Neutron虚拟化实现功能之租户隔离
Neutron是一个支持多租户的系统,所以租户隔离是Neutron必须要支持的特性。
(1)租户隔离三种含义:管理面隔离、数据面的隔离、故障面的隔离。
(2)不同层次租户网络的隔离性
租户与租户之间三层隔离
同一租户不同网络之间二层隔离
同一租户同一网络不同子网二层隔离
(3)计算节点的 br-int 上,Neutron 为每个虚机连接 OVS 的 access port 分配了内部的 VLAN Tag。这种 Tag 限制了网络流量只能在 Tenant Network 之内。
(4)计算节点的 br-tun 上,Neutron 将内部的 VLAN Tag 转化为 VXLAN Tunnel ID,然后转发到网络节点。
(5)网络节点的 br-tun 上,Neutron 将 VXLAN Tunnel ID 转发了一一对应的 内部 VLAN Tag,使得 网络流被不同的服务处理。
(6)网络节点的 br-int 上连接的 DHCP 和 L3 agent 使用 Linux Network Namespace 进行隔离。
4、Neutron虚拟化实现功能之租户网络安全
除了租户隔离以外 Neutron还提供数据网络与外部网络的隔离性。
(1)默认情况下,所有虚拟机通过外网的流量全部走网络节点的L3 agent。在这里,内部的固定IP被转化为外部的浮动IP地址
(1)Neutron还利用Linux iptables特性,实现其Security Group特性,从而保证访问虚机的安全性
(3)Neutron利用网络控制节点上的Network Namespace中的iptables,实现了进出租户网络的网络防火墙,从而保证了进出租户网络的安全性。
5、Neutron虚拟化设备
(1)端口:Port代表虚拟网络交换机上的一个虚拟交换机端口
虚拟机的网卡连接到Port上就会拥有MAC地址和IP地址
(2)虚拟交换机:Neutron默认采用开源的Openvswitch,
同时还支持Linux Bridge
(3)虚拟路由器VR:
路由功能
一个VR只属于一个租户,租户可以有多个VR
一个VR可以有若干个子网
VR之间采用Namespace隔离
Linux Bridge直接与物联网卡相连
每个Flat独占一个物理网卡
配置文件添加响应mapping
四、Neutron网桥及二三层网络理解
1、Neutron-Local-Bridge
仅用于测试;网桥没有与物理网卡相连VM不通外网。
图中创建了两个local network,分别有其对应的qbr网桥。Vm123的虚拟网卡通过tap连接到qbr网桥上。其中2和3属于同一个network可以通信,1属于另一个网络不能和23进行通信。并且qbr网桥不连物理网卡,所以说local网络虚拟机只能同网络通信,不能连通外网。
2、Neutron-Flat-Bridge
Flat网络是在local网络的基础上实现不同宿主机之间的二层互联,但是每个flat network都会占用一个宿主机的物理接口。其中qbr1对应的flatnetwork 连接 eth1 qbr2,两个网络的虚机在物理二层可以互联。其它跟local network类似。
3、Neutron-VLAN-Bridge
在基于linux bridge的vlan网络中,eht1物理网卡上创建了两个vlan接口,1.1连接到qbr1网桥,1.2连接到了qbr2网桥。在这种情况下vm通过eth1.1或者eth1.2发送到eth1的包会被打上各自的vlan id。此时vm2和vm3属于同一个network所以是互通的,vm与vm2和vm3不通。
4、Neutron-VXLAN-Bridge
这个是以Linux bridge作agent的Vxlan网络:
Vxlan网络比Vxlan网络多了个VXLAN隧道,在Openstack中创建好内部网络和实例后,agent就会在计算节点和网络节点创建一对vxlan vtep.组成隧道的两个端点。
Vxlan连接在eth0网口。在网络节点多了两个组件dhcp 和router,他们分别通过一对veth与qbr网桥连接在一起,多个dhcp和路由之间使用namesapce隔离,当vm产生ping包时,发往linux 网桥qbr1,通过网桥在vxlan12上封装数据包,数据通过eth0网卡出计算节点到网络节点的eth0,在vxlan12解包。到达路由器之后经过nat地址转换,从eth1出去访问外网,由租户网络到运营商网络再到外部网络。
5、Neutron-VLAN-OVS
与Linux bridge不同,openvswitch 不是通过eth1.1 eth1.2这样的vlan接口来隔离不同的vlan,而是通过openvswitch的流表规则来指定如何对进出br-int的数据进行转发,实现不同vlan的隔离。
图中计算节点的所有虚拟机都连接在int网桥上,虚拟机分为两个网络。Int网桥会对到来的数据包根据network的不同打上vlan id号,然后转发到eth网桥,eth网桥直连物理网络。这时候流量就从计算节点到了网络节点。
网络节点的ehx int网桥的功能相似,多了一个ex网桥,这个网桥是管理提前创建好的,和物理网卡相连,ex网桥和int网桥之间通过一对patch-port相连,虚拟机的流量到达int网桥后经过路由到ex网桥。
6、Neutron-VXLAN-OVS
Vxlan的模型和vlan的模型十分相似,从表面上来看,他俩相比只有一个不同,vlan对应的是ethx网桥,而vxlan对应的是tun网桥。
在这里ethx和tun都是ovs网桥,所以说两者的差别不是实现组件的差别而是组件所执行功能的差别,ethx执行的是普通二层交换机的功能,tun执行的是vxlan中的vtep的功能,图中俩tun对应的接口ip就是vxlan的隧道终结点ip。所以说虚机的数据包在到达tun网桥之前是打的是vlan tag,而到达tun之后会发生网络类型的转换,从vlan封装为vxlan然后到达网络节点。而之前的vlan类型的网络,虚机数据包的类型一直都是vlan。
7、物理的二层与虚拟的二层(VLAN模式)
(1)物理的二层指的是:物理网络是二层网络,基于以太网协议的广播方式进行通信。
(2)虚拟的二层指的是:Neutron实现的虚拟网络也是二层网络(openstack的vm机所用的网络必须是大二层),也是基于以太网协议的广播方式进行通信,但毫无疑问的是该虚拟网络是依赖于物理的二层网络。
(3)物理二层+虚拟二层的典型代表:VLAN网络模式。
8、物理的三层与虚拟的二层(GRE模式与VXLAN模式)
(1)物理三层指的是:物理网络是三层网络,基于IP路由的方式进行通信。
(2)虚拟的二层指的是:Neutron实现的虚拟网络仍然是二层网络(openstack的vm机所用的网络必须是大二层),仍然是基于以太网的广播方式进行通信,但毫无疑问的是该虚拟机网络是依赖于物理的三层网络,这点有点类似于VPN的概念,根本原理就是将私网的包封装起来,最终打上隧道的ip地址传输。
(3)物理三层+虚拟二层的典型代表:GRE模式与VXLAN模式。