当前位置:首页 » 算力简介 » 训练神经网络借助算力

训练神经网络借助算力

发布时间: 2021-07-20 08:28:56

A. bp神经网络用啥算法

自己找个例子算一下,推导一下,这个回答起来比较复杂

神经网络对模型的表达能力依赖于优化算法,优化是一个不断计算梯度并调整可学习参数的过程,Fluid中的优化算法可参考优化器。

在网络的训练过程中,梯度计算分为两个步骤:前向计算与反向传播。

  • 前向计算会根据您搭建的网络结构,将输入单元的状态传递到输出单元。

  • 反向传播借助链式法则,计算两个或两个以上复合函数的导数,将输出单元的梯度反向传播回输入单元,根据计算出的梯度,调整网络的可学习参数。

BP算法

隐层的引入使网络具有很大的潜力。但正像Minskey和Papert当时所指出的.虽然对所有那些能用简单(无隐层)网结解决的问题有非常简单的学习规则,即简单感知器的收敛程序(主要归功于Widrow和HMf于1960年提出的Delta规刚),


BP算法

但当时并没有找到同样有技的含隐层的同培的学习规则。对此问题的研究有三个基本的结果。一种是使用简单无监督学习规则的竞争学习方法.但它缺乏外部信息.难以确定适台映射的隐层结构。第二条途径是假设一十内部(隐层)的表示方法,这在一些先约条件下是台理的。另一种方法是利用统计手段设计一个学习过程使之能有技地实现适当的内部表示法,Hinton等人(1984年)提出的Bolzmann机是这种方法的典型例子.它要求网络在两个不同的状态下达到平衡,并且只局限于对称网络。Barto和他的同事(1985年)提出了另一条利用统计手段的学习方法。但迄今为止最有教和最实用的方瑶是Rumelhart、Hinton和Williams(1986年)提出的一般Delta法则,即反向传播(BP)算法。Parter(1985年)也独立地得出过相似的算法,他称之为学习逻辑。此外, Lecun(1985年)也研究出大致相似的学习法则。

B. 如何通过玩TensorFlow Playground来理解神经网络

单个神经元的数学机制很简单,它所能做的只是将数据点分成两类。而众多神经元组成的深度神经网络能提取更多特征,解决更复杂更抽象的问题。(之前相关报道:业界 | 想揭开深度学习隐藏层的神秘面纱?试试Tensor Flow的神经网络游乐场)源码:https://github.com/tensorflow/playground

神经网络和深度学习近来已经变成了互联网上的热词,你可能也想一探究竟。但是当很多人拿起教科书准备自学成才时,却最后发现自己被数学模型和公式搞得晕头转向。反正我就是这样的。

对于和我一样的人来说,我们还有一种不需要太过艰深的数学知识就能理解神经网络的方法:TensorFlow Playground,这是一个用 JavaScript 写的网页应用,能让你把玩在你的浏览器中运行的真实的神经网络,并且可以让你点击按钮和调整参数,从而了解它是怎么工作的。体验地址:http://playground.tensorflow.org/

在这篇文章中,我会向你介绍如何使用 TensorFlow Playground ,因而你能够理解神经网络背后的核心思想。然后你就能理解为什么最近这么多人会变得对这项技术感到如此地兴奋。

让计算机解决问题

计算机编程需要程序员。人类通过一行行的代码制定计算机执行的每一个步骤,从而指示计算机解决问题。但有了机器学习和神经网络,你就可以让计算机自己去解决问题了。一个神经网络就是一个函数,能够学会训练数据集中的给定输入所对应的预期输出。

神经网络就是能够从训练数据集中学习的函数

比如,为了构建能够识别猫的图像的神经网络,你可以使用大量猫图像样本训练网络。最终得到的网络就和一个函数一样,其将猫图像作为输入,然后输出「cat(猫)」标签。或者更实用的情况是——你可以向其中输入来自游戏服务器的大量用户活动日志,然后输出有较高转化概率的用户。

这是怎么办到的?让我们来看一个简单的分类问题。假设你有一个如下的数据集。其中每一个数据点都有两个值:x1(横坐标)和 x2(纵坐标)。这里有两组数据点:橙色组和蓝色组。

要区分一个数据点是橙色的还是蓝色的,你该如何编写代码?也许你会像下面一样任意画一条对角线来分隔两组数据点,定义一个阈值以确定每个数据点属于哪一个组。

你的 IF 语句的条件应该看起来是这样:

其中 b 是确定线的位置的阈值。通过分别为 x1 和 x2 赋予权重 w1 和 w2,你可以使你的代码的复用性更强。

此外,如果你调整 w1 和 w2 的值,你可以按你喜欢的方式调整线的角度。你也可以调整 b 的值来移动线的位置。所以你可以重复使用这个条件来分类任何可以被一条直线分类的数据集。

但问题的关键是程序员必须为 w1、w2 和 b 找到合适的值——即所谓的参数值,然后指示计算机如何分类这些数据点。

一个神经元:将一个数据点分为两类

现在,让我们看看 TensorFlow Playground 背后的计算机是如何解决这个特定问题的。在 Playground 上,点击左上角的「Play(播放)」按钮。蓝色和橙色数据点之间的线开始缓慢移动。点击复位(reset)按钮然后再点击播放几次,观察有不同初始值的线是如何移动的。你看到的是计算机正在试图找到权重和阈值的最佳组合,从而画出两组之间的直线。

TensorFlow Playground 上一个简单的分类问题

TensorFlow Playground 使用了一个人工神经元进行这个分类。什么是人工神经元?这是由人类大脑中生物神经元的行为所启发的一种概念。

生物神经元之间的网络

对于生物神经网络的机制的详细描述,可以参见维基网络「神经元」页面:当神经元接收到来自其相连的神经元的电信号时,它会变得兴奋(激活)。神经元之间的每个连接的强度不同。一些神经元之间的连接很强,足以激活其它神经元,而另一些连接则会抑制激活。你大脑中的数千亿神经元及其连接一起构成了人类智能。

对生物神经元的研究导致了一种新的计算模式的诞生——人工神经网络。使用人工神经网络,我们可以使用简单的数学方式模拟生物神经元的行为。为了解决上述的分类问题,你可以使用下面的简单神经网络,它只具有一个神经元(即感知器(Perceptron))。

x1 和 x2 是输入值,w1 和 w2 是权重——代表了输入与神经元连接的强度。b 是所谓的偏置(bias),表示一个神经元是否可被输入激活的阈值。这个单一的神经元可以通过下面的公式计算。

是的,这也就是前面提到的用一条直线分类数据集时所需的公式。而且实际上这也是一个神经元所能做的唯一事情:使用权重和偏置检查输入值,将一个数据点分到两类中的一类。带有两个输入时,一个神经元可以使用一条直线将一个数据点在一个二维空间中分成两类。如果有三个输入,一个神经元可以使用一个平面将一个三维空间分成两部分,以此类推。这就是所谓的「使用一个超平面分割 n 维空间(dividing n-dimensional space with a hyperplane)」。

一个神经元可以将任何数据点分为两类

使用单个神经元执行图像识别

一个「超平面(hyperplane)」如何解决日常问题呢?举个例子,假设你有大量如下的手写文本图像:

手写文本的像素图像

你可以训练一个神经元将一组图像分类为「数字 8 的图像」和「其它」两类。

你该怎么做呢?首先,你需要准备数万张用于训练的样本。假设单张图像是 28×28 像素的灰度图像,它可对应于一个 28×28=784 个数字的数组。假设给定 55,000 张样本图像,那就将得到一个带有 784×55000 个数字的数组。

对于这 5.5 万个样本中的每一张样本图像,你都可以将 784 个数字输入到一个神经元中,这些每个样本都带有一个训练标签——是否表示了「8」。

正如你在 Playground 演示中看到的那样,该计算机会尝试寻找权重和偏置的最优组合,进而分辨每张图像是否是「8」。

在经过了 5.5 万个样本的训练之后,该神经元会生成如下的一个权重集合,其中蓝色代表正值,红色代表负值。

就是这样的。即使是这样非常原始的单个神经元,你也可以在手写文本图像的识别上实现 90% 的准确度[1]。要识别 0-9 这 10 个数字,你只需要 10 个神经元就能达到 92% 的准确度。

再说一次,这个神经元所能做的只是将数据点分成两类:「8」或「其它」。什么才能算作是一个「数据点」?在这个案例中,每一张图像包含 28×28=784 的数字。从数学的角度上说,你可以说每张图像都代表了 784 维空间中的一个点。该神经元用一个超平面将这个 784 维空间分成了两个部分,从而将每张图像(每个数据点)分为了「8」或「其它」。(是的,我们几乎不可能想象维度空间和超平面看起来是怎样的。还是不要去想了。)

在上述例子中,我们所用的样本数据是手写文本的图像,但你也可以使用神经网络分类其它许多类型的数据。比如,网络游戏提供商可以通过检查玩家活动日志来识别作弊的玩家;电子商务提供商可以通过网页服务器访问日志和交易历史识别优质客户。换句话说,你可以将任何可以转换成数字表示的数据表示成 n 维空间中的数据点,然后让神经元找到所需的超平面,看它是否能帮你有效地分类你的问题。

怎么训练神经网络?

如你所见,神经网络是用基础数学实现的简单机制。神经网络和传统编程之间的唯一不同是:你让计算机通过学习训练数据集来确定参数(权重和偏置)。换句话说,我们的样本中训练出的权重模式不是由人类编程的。

在这篇文章中,我不会详细地讨论你可以如何使用反向传播和梯度下降等算法训练参数。我只想说,训练过程中的计算机会尝试一点点增大或减小每个参数,看其能如何减少相比于训练数据集的误差,以望能找到最优的参数组合。

你可以将计算机看作一个学生或初级员工。开始的时候,计算机会犯很多错,它需要一些时间才能找到解决真实世界问题(包括可能的未来问题)的实际方法并最小化误差(即所谓的泛化(generalization))。

在其可以最小化误差之前,一个神经网络需要训练时间

我们可能会在未来的一篇文章中重新谈到这一主题。至于现在,你只需要知道 TensorFlow 这样的神经网络库已经囊括了大部分训练必需的数学知识,而不必过于担心。

更多神经元,更多提取特征

我们已经展示了单个神经元进行简单分类的方式,但你可能也想知道如何使用单个神经元建立能够识别数千张不同图像、以及能与专业围棋手对抗的网络。有一个原因可以解释为什么神经网络能变得比我们上面描述的更聪明。让我们看一下来自 TensorFlow Playground 的另一个样例。

这个数据集不能被单个神经元分类,因为两组数据点不能被一条直线分开。这就是所谓的非线性分类问题。在现实世界中,非线性和复杂的数据集是无限的,比如上面这个,而问题是如何捕捉这种类型的复杂模式?

答案是在输入值与输出神经元之间增加一个隐含层(hidden layer )。

TensorFlow Playground 上的非线性分类问题

这里发生了什么?如果你点击隐含层中的每一个神经元,你就会看到它们每一个都在进行简单的单条直线的分类:

第一个神经元检查数据点是在左边还是在右边

第二个神经元检查它是否在正右方

第三个检查它是否在右下方

这三个结果被称为数据的特征。这些神经元的输出表示相应特征的强度。

最终,输出层的神经元使用这些特征对数据分类。如果你绘制一张包含这些特征值的三维空间图,这个最终神经元能用一个平面简单的划分该空间。这里有一个将原始数据转换为特征空间的例子。

一个隐层将输入变换为特征空间,使其可线性分类

在 Playground 的演示例子中,这样的变换导致多种特征对应一个三角形或矩形区域。如果你通过点击「plus」按钮加入更多神经元,你将看到输出神经元能捕捉数据集中更多复杂的多边形。

回到工作者的类比,你可以说这种变换是一个经验丰富的专家在日常工作中提取见解。一个新职员会被来自邮件、手机、老板、消费者等各方的任意信号所困惑,但高级职员在从这些输入中提取关键信号却很高效,并且能根据一些重要原则组织这些杂乱事项。

神经网络同样如此,试图提取数据集中最重要的特征解决问题。这也是为何有时神经网络在处理一些复杂的任务上能够相当聪明。

神经网络(看起来)似乎可以从随机信号中提取见解

我们需要更深入:建立抽象的层次结构

一个单隐含层有更多的神经元,你就能捕捉更多的特征。而且有更多隐层,意味着你能从数据集中提取更多复杂的构造。在下一例子中,你可以看到它是如何的强大。

分类此数据集你会编写什么样的代码?几十个 IF 语句带有大量的条件和阈值,每一个都会给定的数据点应该位于哪个小区域。我个人是不想这么做。

这个是机器学习和神经网络超过人类程序员表现的展示。

在 TensorFlow Playground 上的双螺旋问题

很酷,不是吗?你刚才看到的是计算机试图建立深度神经网络的抽象层次结构( hierarchy of abstraction)。第一张隐层中的神经元正在进行同样简单的分类,然而第二、第三隐含层中的神经元正在从简单特征中组合出复杂特征,并最终产出双螺旋模式。

更多神经元 + 更深的网络 = 更复杂的抽象。这也是简单的神经元如何变得更聪明,并在图像识别、围棋这些特定问题上表现如此之好的原因。

Inception:谷歌公开的一个图像识别模型

一些公开的深度网络可视化样例展示了它们进行训练、建立识别模式的层级结构的方式——从简单的边缘和斑点,到目标的部分部位以及整体类别。

两大挑战:计算能力和训练数据

在此文章中,我们看到了一些 TensorFolw Playground 演示解释了神经网络的机制和能力。就像你看到的那样,这一技术的基础非常简单。每一个神经元只将一个数据点分类成两个类别中的一个。然而,通过有更多的神经元和深度层,一个神经网络能提取出训练数据集中隐藏的见解和复杂模式,并且建立抽象的层级结构。

接下来的问题是,为什么如今还不是每个人都在使用这一伟大的技术?这是因为神经网络还有两大挑战。第一个是训练深度神经网络需要大量的算力。第二,它们需要大量的训练数据集。一个强力的 GPU 服务器可能要花费数天、甚至数周的时间,才能使用数百万张图像的数据集训练出一个深度网络。

而且,为了得到最好的训练结果,需要结合不同的网络设计与算法,并进行大量的试错。如今,一些研究者会使用几十个 GPU 服务器,甚至超级计算机来进行大规模分布式的训练。

但在不久的将来,全面管理的分布式训练与预测服务——比如谷歌 TensorFlow 云机器学习平台——可能会解决这些问题,为大家提供成本合理的基于云的 CPU 和 GPU,而且也可能会把大型的或深度的神经网络的能力开放给每一个人。

C. 华为的AI训练集群适用于哪些场景

近日,华为在全联接大会上又宣布了一项重大消息,就是华为AI训练集群Atlas 900要发布了,这款Atlas 900可是由数千个升腾910 AI处理器组成,因此Atlas 900也号称为全球最快AI训练集群。那么,这么牛的AI训练集群适用哪些场景呢?

具有超强算力的华为Atlas 900能运用到科技这样重大领域中,不得不让人对华为刮目相看,因为目前为止还没有哪家公司那么牛,能自主研究出那么强大的AI训练集群,所以大家也都非常期待华为能给我们带来更多的惊喜。

D. 人工神经网络,人工神经网络是什么意思

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。

E. matlab神经网络工具箱训练出来的函数,怎么输出得到函数代码段

这样:

clear;

%输入数据矩阵

p1=zeros(1,1000);

p2=zeros(1,1000);

%填充数据

for i=1:1000

p1(i)=rand;

p2(i)=rand;

end

%输入层有两个,样本数为1000

p=[p1;p2];

%目标(输出)数据矩阵,待拟合的关系为简单的三角函数

t = cos(pi*p1)+sin(pi*p2);

%对训练集中的输入数据矩阵和目标数据矩阵进行归一化处理

[pn, inputStr] = mapminmax(p);

[tn, outputStr] = mapminmax(t);

%建立BP神经网络

net = newff(pn, tn, [200,10]);

%每10轮回显示一次结果

net.trainParam.show = 10;

%最大训练次数

net.trainParam.epochs = 5000;

%网络的学习速率

net.trainParam.lr = 0.05;

%训练网络所要达到的目标误差

net.trainParam.goal = 10^(-8);

%网络误差如果连续6次迭代都没变化,则matlab会默认终止训练。为了让程序继续运行,用以下命令取消这条设置

net.divideFcn = '';

%开始训练网络

net = train(net, pn, tn);

%训练完网络后要求网络的权值w和阈值b

%获取网络权值、阈值

netiw = net.iw;

netlw = net.lw;

netb = net.b;

w1 = net.iw{1,1}; %输入层到隐层1的权值

b1 = net.b{1} ; %输入层到隐层1的阈值

w2 = net.lw{2,1}; %隐层1到隐层2的权值

b2 = net.b{2} ; %隐层1到隐层2的阈值

w3 = net.lw{3,2}; %隐层2到输出层的权值

b3 = net.b{3} ;%隐层2到输出层的阈值

%在默认的训练函数下,拟合公式为,y=w3*tansig(w2*tansig(w1*in+b1)+b2)+b3;

%用公式计算测试数据[x1;x2]的输出,输入要归一化,输出反归一化

in = mapminmax('apply',[x1;x2],inputStr);

y=w3*tansig(w2*tansig(w1*in+b1)+b2)+b3;

y1=mapminmax('reverse',y,outputStr);

%用bp神经网络验证计算结果

out = sim(net,in);

out1=mapminmax('reverse',out,outputStr);

(5)训练神经网络借助算力扩展阅读:

注意事项

一、训练函数

1、traingd

Name:Gradient descent backpropagation (梯度下降反向传播算法 )

Description:triangd is a network training function that updates weight and bias values according to gradient descent.

2、traingda

Name:Gradient descentwith adaptive learning rate backpropagation(自适应学习率的t梯度下降反向传播算法)

Description:triangd is a network training function that updates weight and bias values according to gradient descent with adaptive learning rate.it will return a trained net (net) and the trianing record (tr).

3、traingdx (newelm函数默认的训练函数)

name:Gradient descent with momentum and adaptive learning rate backpropagation(带动量的梯度下降的自适应学习率的反向传播算法)

Description:triangdx is a network training function that updates weight and bias values according to gradient descent momentumand an adaptive learning rate.it will return a trained net (net) and the trianing record (tr).

4、trainlm

Name:Levenberg-Marquardtbackpropagation(L-M反向传播算法)

Description:triangd is a network training function that updates weight and bias values according toLevenberg-Marquardt optimization.it will return a trained net (net) and the trianing record (tr).

注:更多的训练算法请用matlab的help命令查看。

二、学习函数

1、learngd

Name:Gradient descent weight and bias learning function(梯度下降的权值和阈值学习函数)

Description:learngd is the gradient descentweight and bias learning function, it willreturn theweight change dWand a new learning state.

2、learngdm

Name:Gradient descentwith momentumweight and bias learning function(带动量的梯度下降的权值和阈值学习函数)

Description:learngd is the gradient descentwith momentumweight and bias learning function, it willreturn the weight change dW and a new learning state.

注:更多的学习函数用matlab的help命令查看。

三、训练函数与学习函数的区别

函数的输出是权值和阈值的增量,训练函数的输出是训练好的网络和训练记录,在训练过程中训练函数不断调用学习函数修正权值和阈值,通过检测设定的训练步数或性能函数计算出的误差小于设定误差,来结束训练。

或者这么说:训练函数是全局调整权值和阈值,考虑的是整体误差的最小。学习函数是局部调整权值和阈值,考虑的是单个神经元误差的最小。

它的基本思想是学习过程由信号的正向传播与误差的反向传播两个过程组成。

正向传播时,输入样本从输入层传入,经各隐层逐层处理后,传向输出层。若输出层的实际输出与期望的输出(教师信号)不符,则转入误差的反向传播阶段。

反向传播时,将输出以某种形式通过隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。

F. 如何借助hadoop实现神经网络算法并行计算实现预测

torm用于处理高速、大型数据流的分布式实时计算系统。为Hadoop添加了可靠的实时数据处理功能 Spark采用了内存计算。从多迭代批处理出发,允许将数据载入内存作反复查询,此外还融合数据仓库,流处理和图形计算等多种计算范式。

G. 给人工智能提供算力的芯片有哪些类型

给人工智能提供算力的芯片类型有gpu、fpga和ASIC等。

GPU,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理器,与CU类似,只不过GPU是专为执行复杂的数学和几何计算而设计的,这些计算是图形渲染所必需的。

FPGA能完成任何数字器件的功能的芯片,甚至是高性能CPU都可以用FPGA来实现。 Intel在2015年以161亿美元收购了FPGA龙 Alter头,其目的之一也是看中FPGA的专用计算能力在未来人工智能领域的发展。

ASIC是指应特定用户要求或特定电子系统的需要而设计、制造的集成电路。严格意义上来讲,ASIC是一种专用芯片,与传统的通用芯片有一定的差异。是为了某种特定的需求而专门定制的芯片。谷歌最近曝光的专用于人工智能深度学习计算的TPU其实也是一款ASIC。

(7)训练神经网络借助算力扩展阅读:

芯片又叫集成电路,按照功能不同可分为很多种,有负责电源电压输出控制的,有负责音频视频处理的,还有负责复杂运算处理的。算法必须借助芯片才能够运行,而由于各个芯片在不同场景的计算能力不同,算法的处理速度、能耗也就不同在人工智能市场高速发展的今天,人们都在寻找更能让深度学习算法更快速、更低能耗执行的芯片。

H. R语言AMORE包可以分析神经网络自变量重要性吗代码是什么求大神指教

说明
神经网络由一组互联的结点组成,这些节点分别负责网络的输入,连接,处理以及输出。神经网络被广泛用于诸如分类、聚类、预测等诸多领域。借助neuralnet训练得到神经网络模型。

操作
导入数据集,并将数据分为训练集和测试集

data("iris")
set.seed(2)
ind = sample(2,nrow(iris),replace = TRUE,prob = c(0.7,0.3))
trainset = iris[ind == 1,]
testset = iris[ind == 2,]
1
2
3
4
5
导入与安装包

library(neuralnet)
1
根据数据集在species列取值不同,为训练集新增三种数列

I. 关于人工神经网络(ANN)的编程(c)

我不懂什么落石,既然要用c语言做神经网络其实过程很麻烦,神经网络里有很多矩阵的运算,比如转置,求逆,所以需要非常熟悉矩阵运算,毕竟不是在matlab里那样调用函数,我个人感觉直接用c会太麻烦,可以在PC上先用matlab或者借助一些专业的神经网络库软件训练好参数,也就是样本离线训练,训练好的权值放入嵌入式c语言里就可以了,计算量还是蛮大的,我以前用c写过一些辨识的,用c写矩阵运算 高斯消元法是精髓

J. 脉冲神经网络的简介

脉冲神经网络 (SNN-Spiking Neuron Networks) 经常被誉为第三代人工神经网络。第一代神经网络是感知器,它是一个简单的神经元模型并且只能处理二进制数据。第二代神经网络包括比较广泛,包括应用较多的BP神经网络。但是从本质来讲,这些神经网络都是基于神经脉冲的频率进行编码( rate coded)。
脉冲神经网络,其模拟神经元更加接近实际,除此之外,把时间信息的影响也考虑其中。思路是这样的,动态神经网络中的神经元不是在每一次迭代传播中都被激活(而在典型的多层感知机网络中却是),而是在它的膜电位达到某一个特定值才被激活。当一个神经元被激活,它会产生一个信号传递给其他神经元,提高或降低其膜电位。
在脉冲神经网络中,神经元的当前激活水平(被建模成某种微分方程)通常被认为是当前状态,一个输入脉冲会使当前这个值升高,持续一段时间,然后逐渐衰退。出现了很多编码方式把这些输出脉冲序列解释为一个实际的数字,这些编码方式会同时考虑到脉冲频率和脉冲间隔时间。
借助于神经科学的研究,人们可以精确的建立基于脉冲产生时间神经网络模型。这种新型的神经网络采用脉冲编码(spike coding),通过获得脉冲发生的精确时间,这种新型的神经网络可以进行获得更多的信息和更强的计算能力。

热点内容
平安银行的区块链 发布:2025-09-15 22:21:47 浏览:805
超级比特币矿机最新 发布:2025-09-15 22:20:34 浏览:297
矿币场景 发布:2025-09-15 22:06:45 浏览:975
比特币850万倍 发布:2025-09-15 21:53:37 浏览:654
以太坊提供的接口 发布:2025-09-15 21:44:12 浏览:45
虚拟区块链黑平台吃钱 发布:2025-09-15 21:36:29 浏览:858
市民中心地铁站去宝安中心 发布:2025-09-15 21:30:51 浏览:636
eth变pos 发布:2025-09-15 21:22:09 浏览:622
显卡矿机挖掘比特币 发布:2025-09-15 21:20:13 浏览:339
比特币主要中国人 发布:2025-09-15 21:11:03 浏览:687