神经网络优缺点,
优点:
(1)具有自学习功能。例如实现图像识别时,只在先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。
自学习功能对于预测有特别重要的意义。预期未来的人工神经网络计算机将为人类提供经济预测、市场预测、效益预测,其应用前途是很远大的。
(2)具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想。
(3)具有高速寻找优化解的能力。寻找一个复杂问题的优化解,往往需要很大的计算量,利用一个针对某问题而设计的反馈型人工神经网络,发挥计算机的高速运算能力,可能很快找到优化解。
缺点:
(1)最严重的问题是没能力来解释自己的推理过程和推理依据。
(2)不能向用户提出必要的询问,而且当数据不充分的时候,神经网络就无法进行工作。
(3)把一切问题的特征都变为数字,把一切推理都变为数值计算,其结果势必是丢失信息。
(4)理论和学习算法还有待于进一步完善和提高。
扩展资料:
神经网络发展趋势
人工神经网络特有的非线性适应性信息处理能力,克服了传统人工智能方法对于直觉,如模式、语音识别、非结构化信息处理方面的缺陷,使之在神经专家系统、模式识别、智能控制、组合优化、预测等领域得到成功应用。
人工神经网络与其它传统方法相结合,将推动人工智能和信息处理技术不断发展。近年来,人工神经网络正向模拟人类认知的道路上更加深入发展,与模糊系统、遗传算法、进化机制等结合,形成计算智能,成为人工智能的一个重要方向,将在实际应用中得到发展。
将信息几何应用于人工神经网络的研究,为人工神经网络的理论研究开辟了新的途径。神经计算机的研究发展很快,已有产品进入市场。光电结合的神经计算机为人工神经网络的发展提供了良好条件。
神经网络在很多领域已得到了很好的应用,但其需要研究的方面还很多。其中,具有分布存储、并行处理、自学习、自组织以及非线性映射等优点的神经网络与其他技术的结合以及由此而来的混合方法和混合系统,已经成为一大研究热点。
由于其他方法也有它们各自的优点,所以将神经网络与其他方法相结合,取长补短,继而可以获得更好的应用效果。目前这方面工作有神经网络与模糊逻辑、专家系统、遗传算法、小波分析、混沌、粗集理论、分形理论、证据理论和灰色系统等的融合。
参考资料:百度百科-人工神经网络
神经网络中的对抗攻击与对抗样本
对抗攻击
对抗攻击论文参考:
《Intriguing properties of neural networks》
《神经网络有趣的特性》
《Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey》,以下简称『Survey』。
图片做适当修改后能欺骗深度学习模型的可能性
1.举例理解:
左边是一张能够被GoogLeNet正常分类为熊猫的图片,在添加一定的噪音后变成右图,在人的肉眼看来,它还是熊猫,但GoogLeNet会判定为长臂猿。这种被修改后人类无法明显察觉,却被机器识别错误的数据即为 对抗样本 ,而这整个过程就可以理解为 对抗攻击 。
2.数学理解:
神经网络中每层神经元的输入 a = g(Wx+b),其中 g 为激活函数,W 为权重参数,x 为上一层的样本数据,b 为偏置参数,那么从拓扑学角度来看,在一个二维平面上,这个过程相当于哪几个步骤呢?
(1)一次使用权重参数矩阵 W 的线性变换
(2)一次使用偏执向量 b 的移动
(3)一次应用非线性激活函数 g 的变换
在 二维平面 ,其实是将整个平面进行了 旋转、移动和拉伸 三步。
分类问题
简单分类问题:通过较少几次变换将问题转换为一条直线可分割的空间。
既是一层神经网络就可以完成分类,通过变换空间布局,最终通过一条直线完成分类。
举例:
简单转换ing........
转换结果看下图
复杂分类问题:通过多几次的转换完成将问题转换为一条直线可分割的空间。
就是多层神经网络完成分类,通过变换空间布局,最终通过一条直线完成分类。
举例:
动态多步转换
以上是从低维度理解神经网络的训练,其中也有难以拉伸的例外,下图所示的圆套圆的情况,就是难以在二维空间将其拉伸到理想的位置的例子。
但,增加神经元,可以在 三维空间 中轻松将其分离。
看!
归纳 同样对于复杂问题可以通过,增加神经元在高维度通过更长且复杂的方式解决。
但是例如两个相互套起来的环,按照推测需要在四维空间中才能完全分开,然而我们难以想象四维空间,在现实世界的数据集中,这种死结或者缠绕问题可能会更复杂。
对于神经网络来,可以选择 将打成死结的数据尽可能拉伸开,而不是完全解开 ,如下图,对于分类问题来说,已经具有较高的准确率和召回率。
部分情况下,为了更精确地分类,较宽的神经网络可能相对深度来说更重要。
综上所述
1. 神经网络中包含语义信息的不在每个独立的神经单元,而是整个空间。 神经网络在最后一层能将样本中诸多变化的因子理清楚并理解其语义,并不是因为某个独立神经元中包含了什么特定的语义,而是 对整个空间进行变换后从最终的表征层中学到的 ,经过学习,神经网络会 放大某些相关因子,同时缩小某些无关因子 。
2. 神经网络学习到的输入到输出的映射在很大程度上是不连续的。 就像上面图中为了解开一个死结所做的拉伸结果一样, 在人看来,在拉伸距离较大的地方我们可以认为这种映射是连续的, 然而 对于仍然缠绕在一起的部分,之前可以用来划分界限的直线或者超平面已经无法连续 。
通过仔细观察可以区分出来,但是上文只是一个简单的例子,现实世界中的真实数据较为复杂,对于肉眼来说可能很难分清楚缠绕在一起的部分。对于神经网络来说, 对抗样本已经严重的跨过了用于分类的界限 ,而对于肉眼其实还 看不出来它有移动。
()线性特性的攻击行为()和()高效制造对抗样本的方法()
参考论文:
《Explaining and harnessing adversarial examples》
《对抗性例子的解读和掌握》
深度神经网络在高纬空间中的线性特性已经足以产生这种攻击行为 ,并提出了一种 更高效生成对抗样本的方法 ,接下来我们就简单分析一下这一理论和方法。
目前神经网络为了提高训练效率所使用的激活函数在局部都过于线性。
例如:
类比先前举出的拓扑学例子,在 最后的表征层 都是 通过直线或超平面完成的分类 ,在线性的假设下,暂且不通过二维或三维空间来理解,先从一个简单的数学公式角度开始。
数学解释
公式内容解释:
w 是训练好的参数向量
x 表示真实样本数据向量
η 表示给图像加入的噪音向量
x ~表示加入噪音后新生成的样本
当加入足够小的 η 时,肉眼无法区分出 x 的变化,直观感觉上左边的式子可能也不会变化很大。
事实上 ,然而 η 当的方向与 w 完全一致的时候,即使很小,也会使整个激活值变化很大。
假设证明:
如果 w 是一个 n 维向量,而其权值的平均大小为 m,那么激活值将会增加 nm。可见,在一个肉眼几乎无法差觉的扰动干扰下,对神经网络最终激活层的计算会产生巨大的干扰,从而迷惑神经网络训练出来的模型。
寻找正确方向
当 η 与 w 的方向一致时会使激活值最大,那么,如何找到这个正确的方向呢?
结论,那就是损失函数在待构造样本上的梯度方向,即下面的式子。
ε 是一个调节系数
sign() 是一个符号函数,代表的意思也很简单,就是取一个值的符号
(当值大于 0 时取 1,当值等于 0 时取 0,当值小于 0 时取 -1)
▽ 表示求 x 的梯度,可以理解为偏导,
J 是训练模型的损失函数。
结论的由来
在正常的神经网络模型训练过程中,有一个过程叫反向传播,就是对参数求偏导,然后将参数更新,我们结合下面这张图看一下。
假设图中的函数即为 损失函数 ,为了使损失函数降到最低,我们会根据当前值的梯度去调整。
当梯度小于 0 的时候我们可以看出,当前值需要右移。
而当梯度大于 0 的时候,当前值需要左移。
这个过程实际上就是用 θ 减去 θ。扩展到损失函数 J(θ, x, y) 中,θ 即为 我们要调整的参数 ,因此在样本 x 和 y 不改变的情况下,我们会**不断去调整参数 θ **以寻求局部最优解,即 θ = θ - θ 。
生成对抗样本,也可以采用类似的方法,那就是 固定参数 θ,调整 x 同时使损失函数增大 ,而不是变小,此时就应该让 x 往相反的方向走,即 x = x + x ,这样是不是很容易可以理解上面 η 的定义呢?在实践中,我们还需要通过 ε 这个参数来 调节噪音的大小 ,这种方法相比之前提到的优化方法非常高效,基本只需要一次计算就可以找到对抗样本,因此作者将这种方法叫做 快速梯度符号法 (Fast Gradient Sign Method,FGSM)。总结一下FGSM,这种方法通过替换目标值 y 就可以 让攻击样本朝着指定的分类目标走 ,即,可以做任意目标的欺骗。
将线性假设简化到二维空间,我们要求的 η 其方向正好就接近于参数 w 的方向,不再展开说明,有兴趣的读者可以自行画一画。
建立在一个高维空间线性的假设或猜测前提下,需要 实验 支撑,根据下列图片分析展开。
图片解释
这张图是对数据集CIFAR-10的分类器的决策边界示意图。
其中每个小格子代表的是不同的CIFAR-10样本,
每个小格子中:
横向从左往右代表的是FGSM算法中的梯度方向,
纵向代表的是FGSM梯度方向的正交方向,
白色表示模型能分类正确的情况
彩色代表预测出错的情况
不同的颜色代表不同的错误预测分类。
可以看出,在出错的区域都程线性分布,另外,如果横轴的方向走的不够远,即便再往其他方向走都无法使模型出错,而一单进入这个区域,就会出现大量的对抗样本。而在随机找到的对抗样本中,这种分布也是很随机的,甚至很难找到,见下图。
从实验结果表明
高维空间中的线性假设也是合理的
举例
一匹叫做 Clever Hans 的马,刚出现的时候人们认为这匹马会做算术,但实际上它只是会阅读人的表情,当它点马蹄的次数接近正确答案时,人们的表情会更兴奋,它就知道该这个时候停止了。
隐喻神经网络,一个测试效果良好的分类器,其实并不像人类一样学习到了所分类样本的真正底层概念,只不过刚好构建了一个在训练数据上运行相当良好的模型,所以,你以为你以为的就是你以为的吗?
分类器能够在训练集的不同子集上训练时获得大致相同的分类权重,因为机器学习算法能够泛化, 基础分类权重的稳定性反过来又会导致对抗性样本的稳定性。因此, 对抗攻击可以认为是存在于任何神经网络模型。
以上是论文二的线性特性的攻击行为
高效制造对抗样本的方法
目前来看还没有能够完全抵抗这种攻击的方法,其实结合攻击的原理也不难看出,即便分类器做得再好,总能使一个样本用最小的干扰走到错误的分类区域,我们能做的更多是如何构造鲁棒性更强的模型,同时也保持对这个领域的关注。『Survey』(注意第一篇论文的引用有注释)中总结的目前抵御攻击的办法可以分为三大类:
1.修改训练样本 ———— 通过添加更多的对抗样本到训练集中可以有效避免一部分攻击 ,但这更像是一种无奈的做法, 当扩大样本集的时候,其实分类边界有可能也在随之扩大 。
2.修改训练网络 ,这类方法会对训练网络做出一定调整,其中有一种方式是模拟生物学 在最后一层使用更加非线性的激活函数 ,但这种方式又会 导致训练效率和效果下降 。修改训练网络的方法分为 完全抵抗 和 仅检测 两种方式,完全抵抗其实就是让模型能将对抗样本识别为正确的分类,而仅检测是为了发现这种攻击样本,从而拒绝服务。
3.附加网络 ,这种方式是在 不改变原有模型的情况下使用额外的网络进行辅助 ,这样可以使原有网络保持不变,其中最有效的一种方式是生成式对抗网络——GAN。同样的,这种方式也分为 完全抵抗 和 仅检测 两种方式。
总结一下
定义:
对抗样本:是指在数据集中通过故意添加细微的干扰所形成的输入样本,会导致模型以高置信度给出一个错误的输出。
原因分析:
对抗样本出现的主要原因之一是过度线性, 神经网络主要是基于线性块构建的,实现的整体函数被证明是高度线性的,如果一个线性函数具有许多输入,那么它的值可以非常迅速地改变。
参考:
复数神经网络缺陷
复数神经网络缺陷是“黑盒子”性质。复数神经网络神经网络最打的缺点就是它们的“黑盒子”性质即不知道神经网络如何以及为什么会产生一定的输出,很难理解是什么导致复数神经网络产生某种预测。
人类无法感知理解的机器知识在爆发增长:4.5星|王维嘉《暗知识》
关于人工智能的科普。包括技术原理、商业应用的现状与展望、人工智能未来发展等方面。
作者在斯坦福的博士导师是神经网络鼻祖之一,书中对人工智能原理的介绍比较深入。
对人工智能的商业应用,书中花了比较多的篇幅说自动驾驶,看得出来作者在这个领域有比较深入的研究。其他许多领域如医疗、金融、翻译、科研、写作、绘画等也有介绍。
所谓暗知识,就是人工智能发现的、人类无法感知和理解的知识,比如AlphaGo的围棋决策。作者介绍说这类暗知识在爆发式增长,很快会对人类 社会 产生深远的影响。
书中还有以下重要的信息或观点:
1:暗知识非常容易在机器间传播;
2:未来AI需要用到的数据,大部分都不在当前互联网巨头们手里;
3:AI不会像互联网一样赢家"通吃";
4:自动驾驶生态系统中,谁将是产业链龙头还有待观察,可能是芯片或操作系统企业,也可能是内容服务提供商;
5:即使自动驾驶局限在狭义的造车产业,也将会创造全球每年2万亿美元的机会;
6:一场最深刻的革命很可能发生在自然语言翻译和理解领域;
7:军用人工智能技术的发展会落后于民用技术;
8:很难对自动化武器的可靠性进行测试,会思考的机器的行事方式也可能会超出人类控制者的想象;
9:虽然人工智能在记忆和识别这两个基础智能方面超过了人,但在推理、想象等高级智能方面还和人相去甚远;
10:女性 情感 比男性丰富,所以比男性更难被机器取代;
11:不论是个人生活中的决策,还是商业决策,只要机器有过在类似场景下大量的测试,就可以信任机器;
12:目前人工智能离产生意识还有很大举例;
总体评价4.5星,非常好。
一个小疑问,书中的图4-2,AI的产业链金字塔结构,塔尖是基础,塔底是应用,有点别扭,改成树状把塔尖塔底倒过来更符合常规做法。
以下是书中一些内容的摘抄:
1:AlphaGo Zero证明了即使在最具有挑战性的某些领域,没有人类以往的经验或指导,不提供基本规则以外的任何领域的知识,仅使用强化学习,仅花费很少的训练时间机器就能够远远超越人类的水平。P7
2:当然最震撼的就是第三个方面。我们也许知道我们不知道很多,甚至能用逻辑推断出未知知识里有比已知知识更高深的知识,但我们怎么也想不到这些知识是人类根本无法理解的。这是人类 历史 上第一次遇到这样的问题,我们给自己造了个“上帝”! P9
3:也就是说,机器发现了人类既无法感受也无法表达的知识。用更通俗的话说就是,机器发现了那些既无法“意会”又无法“言传”的知识。P9
4:目前,脑神经科学的最新研究发现,可表达的记忆并不是对应着一组固定神经元的连接,而是大致地对应于散布在大脑皮层各处的一些连接。原因是用来表达的语言和文字只能是体验的概括和近似。这类可以用语言表达或数学公式描述的知识就是人类积累的大量"正式知识",也可以称为"明知识"。它们记载在书籍、杂志、文章、音频等各种媒体上。P20
5:而绝大部分知识无法用语言表达,如骑马、打铁、骑自行车、琴棋书画,察言观色、待人接物、判断机会和危险等。这些知识由于无法记录,所以无法传播和积累,更无法被集中。英籍犹太裔科学家、哲学家波兰尼(Michael Polyani,1891-1976)称这些知识为"默会知识"或者"默知识"。波兰尼举了骑自行车的例子。P23
6:第三个问题最有意思。由于机器萃取出的知识是以神经网络参数集形式存在的,对人类来说仍然不可陈述,也很难在人类间传播。但是这些知识却非常容易在机器间传播。一台学会驾驶的 汽车 可以瞬间“教会”其他100万台 汽车 ,只要把自己的参数集复制到其他机器即可。机器间的协同行动也变得非常容易,无非是用一组反馈信号不断地调整参加协同的每台机器的参数。P26
7:既然可以感受的是默知识,可以表达的是明知识,那么机器刚刚发现的,既无法感受也无法表达的知识就是暗知识。P27
8:我们现在可以回答“一个人类无法理解的暗知识的表现形式是什么样的”,暗知识在今天的主要表现形式类似AlphaGo Zero里面的“神经网络”的全部参数。P29
9:我们可以预见一幅未来世界的知识图谱:所有的知识分为两大类界限分明的知识——人类知识和机器知识。人类的知识如果不可陈述则不可记录和传播。但机器发掘出来的知识即使无法陈述和理解也可以记录并能在机器间传播。这些暗知识的表现方式就是一堆看似随机的数字,如一个神经网络的参数集。这些暗知识的传播方式就是通过网络以光速传给其他同类的机器。P31
10:暗知识就是那些既无法被人类感受又不能表达出来的知识。也就是说人类本身无法理解和掌握这些知识,但机器却可以。机器有两种方法可以掌握这些知识模仿人脑和模仿演化。P42
11:机器学习中一共有五大学派,最后一个学派是进化学派。他们是激进主义经验派,是彻底的不可知论者。进化学派不仅觉得因果关系是先验模型,甚至觉得类比,神经元连接也都是先入为主的模型。他们认为不管选择什么样的先验模型,都是在上帝面前耍人类的小聪明,世界太复杂,没法找到模型。进化学派的基本思路是模仿自然界的演化随机的基因变异被环境选择,适者生存。P43
12:所以这四个词有下面的包含关系:人工智能机器学习神经网络深度学习。P46
13:为什么深度学习有许多层神经元?这是因为世界上许多信息和知识是可以通过分层表达的。例如人脸是很复杂的一幅图像,但人脸可以先分解成五官,五官的复杂程度就比人脸低了,五官又可以进一步分解为线条。深度学习就是用一层神经元去识别一个层级的信息。P62
14:引起你注意的东西往往都是一小块,例如人的眼睛、天空中的鸟、地上的花。这个叫作图像中信息的局域性。图像的第二个特点是可以分解为更简单的元素,例如风景分解为天空、大地、植物、动物,人物分解为五官。卷积神经网络就是利用图像的以上两个特点进行了大幅度的运算简化。P65
15:这类问题的特点是答案不唯一但知道结果的对错。这种通过每次结果的反馈逐渐学习正确"行为"的算法就叫"强化学习"。在强化学习算法中有一个"奖惩函数",不同的行为会得到不同的奖惩。P76
16:以后哥俩就这么不断重复下去。AlphaGo Zero诞生后的第一局的第一个中盘,哥俩完全是乱下,但第一盘走完就多了一点点知识,哥俩用这点可怜的知识走第二盘就比第一盘靠谱了一点点,架不住计算能力强大,AlphaGo Zero在下棋时每秒钟可以走8万步,平均一盘棋不到400步,所以哥俩一秒钟相当于下200盘棋。每盘长进一点,到第7个小时,也就是相当于下了500万盘棋后就下得像模像样了。P77
17:所以对这个悖论的回答是,人工神经网络虽然是模仿大脑,但它具备了人类没有的三个优势能"感受"人类感受不到的信息,与人脑相比又快又准,每一个神经元的状态都是可测量的。P80
18:打比方说,如果一直用各个品种的白色狗来训练神经网络,让它学会"这是狗"的判断,神经网络会发现这些狗最大的相关性就是白色,从而得出结论白色=狗。在这种情况下,让这个神经网络看见一只白猫,甚至一只白兔子,它仍然会判断为狗。P86
19:神经网络的另一个局限性是无法解释结果为什么是这样,因为人类无法理解暗知识,所以更无法解释。对于神经网络这个"满是旋钮的黑盒子",每个旋钮为什么旋转到那个位置,而不是多一点或者少一点,都是无法解释的。这个不可解释性在许多涉及安全和公共政策的领域都是很大的问题。P87
20:所以今天融资的新创技术型公司都可以说自己是"AI公司"。如果这些公司的技术都使用开源编程框架,它们的技术差别就很小。因此这些公司比拼的是对某个行业的理解和在该行业的营销能力,以及对该行业数据的占先和占有程度。P112
21:今天互联网公司的数据主要是人们使用电脑和手机产生的浏览数据,它们并不掌握下列几大类对人类有用的,AI也需要用的数据。(1)人类本身的数据,例如身体数据和心理数据。(2)环境数据,其中包括自然环境、 社会 环境。(3)各种人类劳动过程数据,例如农业、工业、服务业的过程数据。P118
22:自2012年以来,在AI训练运行中所使用的计算能力呈指数级增长,每3.5个月增长一倍。2012-2018年,这个指标已经增长了30万倍以上。具体说就是2018年谷歌的A1phaGo Zero比2012年ImageNet大赛获胜的AlexNet快了30万倍。P121
23:但在AI产业里目前还没有看到这样的机会,不论是自动驾驶还是人脸识别都是一个一个山头去攻,无法在短期内形成垄断。造成融资泡沫的一个重要原因就是有些投资人还以为AI和互联网一样赢家"通吃",只要投中第一名,多贵都值。P125
24:简单用一句话说就是互联网是toC(对用户)的生意,AI是toB(对企业)的生意。AI中toC的生意都会被现有互联网巨头吸纳,创业者的机会在于toB。P125
25:激进派的代表是谷歌的自动驾驶公司Waymo,谷歌的实验车根本没有方向盘。这一派认为L2和L3很危险,什么时候该人管,什么时候该机器管不仅很难分清,而且两者之间的切换也会产生问题(例如人打盹儿睡着了叫不醒),一步到位全让机器开车反而安全。P139
26:在传统 汽车 产业链中,整车厂商毫无疑问居于龙头地位,具有最强的砍价能力,但是在自动驾驶生态系统中,谁将是产业链龙头还有待观察。如果 汽车 嬗变为电脑和手机,那么掌握核心芯片和操作系统的厂商可能变为龙头。如果 汽车 嬗变为像互联网一样的信息数据平台,那么掌握用户的内容服务提供商可能变为龙头。P152
27:在这三个集团中,英伟达集团的AI芯片能力最强,但Mobileye集团几乎垄断了L2半自动驾驶市场。未来的争斗将主要在这两个集团之间进行。P153
28:即使自动驾驶局限在狭义的造车产业,也将会创造全球每年2万亿美元的机会。如果加上对其他行业的影响,自动驾驶产生的商业机会可能在十年后达到每年十万亿美元的数量级。自动驾驶将是中国今后10~20年面临的最大的一个全球性产业机会。P159
29:自动化写作无论是对新闻行业还是对读者来说,都带来了显而易见的好处。对新闻工作者来说,他们可以把程式化、重复化的劳动交给机器,自己进行更深度的思考与写作,并且在写作过程中能够得到人工智能的支撑,写作后有系统校对。P196
30:当所有人对AI的注意力都集中在诸如自动驾驶、人脸识别等"低垂果实"上时,一场最深刻的革命很可能发生在自然语言翻译和理解领域。这场革命可能改变自几十万年前智人发出第一声有意义的"哼哼"以来的人类文明史。人类有可能第一次无障碍地盖起一座“巴别塔”。P216
31:基于以上原理,机器学习适合做极其复杂的决策,例如制定像 健康 保险这样极其复杂的公共政策,策划诸如诺曼底登陆这样包含大量变量的军事行动。P228
32:由于开放性的学术交流和开源软件,民用技术将进展神速,巨大的商业前景也会造成空前激烈的市场竞争。这一切都会推动人工智能在民用和商用方面快速进展。而军用技术的发展则会落后于民用技术,许多军用技术研发最便宜的方法都是依托在民用技术之上。P251
33:自主化武器失控和错判的风险将一直存在,比如软件代码错误,或者受到网络攻击。这可能导致机器失灵或攻击自己人,或由于系统升级太快,人类伙伴无法及时响应。很难对自动化武器的可靠性进行测试,会思考的机器的行事方式也可能会超出人类控制者的想象。P256
34:但当谷歌让14台机器一起学习的时候,学习的时间就缩短到了100/14-7天。这14台机器都互相联网,当一台机器找对地方或学会了一个技能时,其他所有的机器瞬间都学会了。这种机器之间的交流不仅是无障碍的而且是以光速进行的。P258
35:简单地说,虽然基于神经网络的人工智能在记忆和识别这两个基础智能方面超过了人,但在推理、想象等高级智能方面还和人相去甚远。未来最佳的结合就是人类和机器合作,互相取长补短。P261
36:目前主要的成功案例来自一名叫作威廉姆·多贝尔(William Dobelle)的科学家。1978年,多贝尔在一位盲人的脑内植入了由68个电极组成的阵列,这种尝试使盲人产生了光幻视(视网膜受到刺激时产生的感觉)。在随后的调试中,接受这种治疗的盲人能够在有限的视野内看到低分辨率、低刷新率的点阵图像。P264
37:女性 情感 比男性丰富,所以比男性更难被机器取代。机器取代人的难易程度从易到难将是四肢(体力)——小脑(模仿性工作)——大脑(推理逻辑常识)——心( 情感 )。P278
38:那么这次的AI浪潮又会造成什么样的权力分配呢?在过去几年中我们明显看到AI进一步将权力集中到大公司和政府手中。P287
39:机器已经正确地诊断了许多其他类似的病人。所以不论是个人生活中的决策,还是商业决策,只要机器有过在类似场景下大量的测试,就可以信任机器。当然这里不排除机器出错的概率,这和不排除有经验的医生误诊,不排除大型客机的软件出故障一样。P288
40:目前的人工神经网络是一个确定性系统,虽然我们可以在网络里引人随机性,但是我们并不清楚在哪里和怎样引入这些随机性。这样的随机性有几乎无数的可能组合,任何“不对”的组合都可能使系统无法产生“涌现”。人脑是动物几十亿年进化的结果,其中淘汰了无数无法产生意识的随机组合。P295
0条大神的评论