当前位置:首页 > 企业新闻 >

北大计算机系黄铁军CCF-ADL讲习班上篇:从计算机发展史讲解制造超人工智能的正途——类脑计算【快三平台】

编辑:首页 来源:首页 创发布时间:2021-07-10阅读30888次
  

可以展开。 类脑计算的概念,和在这个方向和领域下,必须做什么样的工作,必须做什么水平的工作,每个人解读可能都不一样,但现在渐渐构成了一定的共识。

快三平台

在这次讲座中,我们邀请了七位演讲者。 今天上午我要谈谈我解读的计算类脑的概念和一些国内外进展。

我用英语标题——Brain-like Computing类的大脑计算的。 有些老师讨厌被称为Brain-inspired computing,接受大脑灵感计算了,但我更讨厌计算类脑。 neuromorphic computing一词更专业、更学术,但刊登在媒体上说明,类脑计算可以让公众更了解。 但是,这背后也有很多歧义。

大家都像大脑一样,怎么像大脑一样,马上就有很多各自的解读和说明。 神经形态计算这个词更准确。 我们建立的这个新的计算模型,计算范式,实质上是神经形态。

我稍后说明神经形态。 如果是学术上写论文的话,建议不要使用“神经形态计算”这个词,寻找以前的文献和更正确的文献。 其实我是真正制造电脑的所有人,心理一定有人工智能的梦想。

计算机可以说是人类历史上影响最小的发明者,这个发明者到底能做什么呢? 制造计算机的人希望计算机能实现更强的计算逻辑和各种信息处理能力。 有必要更换大脑吗? 最大需要进入大脑吗? 我们比较电脑和大脑的时候,我们通常走不远。 我在媒体上见过霍金和马斯克谈论人工智能。

我承认如果发展人工智能,对人类社会的影响不会很大,但如果超人工智能经常出现,我们人类就不会遭受灭绝的灾害。 很多人赞成霍金和马斯克,指出超人工智能是不可能的,但没有充分的证据。 2014年左右,我指出不存在这条路的身份,所以必须沿着这条路构筑这件事。

我1月7日在中华读报,发表了源于生产超脑的文章。 后来在2月,出版了一本书,名为《超级智能》。

总的来说,基本上有更多的人指出超智能是可能的,不存在那样的道路。 回到计算机学科,去年是图灵明确提出计算机模型的80年,第一批计算机发明者70多年,人工智能概念明确提出的60多年,是深造的science PaER公开发表10周年。

去年的类脑计算或神经平台计算已经发生了很多象征性的事件,所以我们相信下一代计算机已经经常发生,因为计算机已经进入了新的历史时期所以我们今天关于现在已经再次发生的事情一、人工智能掌握了身份最初是人工智能,我说人工智能掌握了身份。 当然,人工智能已经做了60年了。 你为什么说今天再向正确的方向发展一次? 虽然以前不是大家都聚集在一起,但是以前曲折的各种想法现在已经成为主流方向了。

这个方向是我们的终极问题,有可能被突破。 今天我们说到人工智能,当然计算机有可能作为平台构筑人工智能,这基本上成为了思考方法。 但是,实际上我们必须看今天的电脑来完成这样的历史使命吗? 这个问题是我们第一个考虑的问题——依靠什么来构建人工智能或未来强大的人工智能呢? 计算机起源于实质上要求我们今天的计算机,不是构建人工智能的合适平台。 图灵当时要求电脑,图灵没有明确地提出电脑。

那时,他为解决问题解决了一个数学问题:希尔伯特的23个问题中的第十个问题明确提出了概念模型,构建了标准化机器,该标准化机器证明了数域中存在无法计算的数量的这个问题。 我们都做电脑,都是正确的图灵机概念,但图灵机是副产品,不是图灵为设计电脑而设计的。 图灵在80年代之前正确地说了电脑的无限大。 今天很多人说只要我写得好程序,算法设计得好,电脑什么都能做。

你问这个问题的时候,根据什么逻辑说的,你觉得电脑什么都能做吗? 显然不是这样。 我很接近同意。 当然,我们另一个最好的贡献是香农的贡献。

数学模型是抽象的,不能再执行了。 香农把数学和物理联系起来,确保计算机运行。 这种贡献告诉大家,还是数学的概念模型,可以用机器非常简单的模型传达各种简单的数学题。 他最好的是用一个器件就能解决问题的各种冲突、各种逻辑和数学计算。

那是1947年,1948年的时候,那时还没有晶体管,物理上总是有电源,灯也是电源,我可以用多个电源组装我们需要的这样的计算逻辑功能。 就是把问题抽象得淋漓尽致,把问题弄清楚。

当然还有冯诺伊曼体系结构,这也是历史贡献——把软件和硬件分开。 计算机的最好之处是标准化计算的逻辑机器可以实现基本的逻辑和运用。 但是你完成任务必须依靠程序,需要软件和命令。

这样你就可以销售机器,安装不同的程序,继续执行不同的任务。 当然为了达到通用性,效率是有损失的。 你为了解决问题而解决问题。

需要更多专用电路。 标准化的东西没有符号成本,但这些成本会大大扩大应用范围,所以这也有贡献。 所以我花了时间说了图灵的模型,香农的电路和冯诺伊曼架构三件事。 因为我们设计了新一代的计算机,类脑计算。

一定程度上必须考虑类似的问题。 我们需要建立一些人工智能任务,比如数学模型是什么,是用什么样的设备构建的,你是什么样的体系结构。

否则,计算机就不可能构建强大的人工智能。 计算机发展到今天,第一台电脑经常有70年了。 背后的逻辑是正确的,数学物理和体力的结构,在那个地方很清楚。

但是,你可以仔细看看历史,告诉未来该怎么办,而不是实现智能的平台。 接下来我们来看看人工智能。 图灵在1951年明确提出机器可以思考。 这当然是人工智能的问题,但只有那时,这句话还没用。

1956年,一些图灵奖获得者构建了人工智能一词。 他们写道,申请人在研究经费时,我们有可以正确记述机器建模、自学、智能等其他课程各方面的想法。 到目前为止,这个想法是很多人解读人工智能的经典想法。 我们怎么做智能和自学? 实质上我们可以将其一般化,给出正确的描述,用计算机构筑。

他们指出现在的计算机速度、存储能力还非常快不是问题。 问题是,通过我们写出程序,这个软件可以解决问题的智能问题。

我们今天的很多想法依然延伸了这样的想法,当然这种想法是对的还是错的,我们必须考虑。 过去60年人工智能发展了许多技术路线,发生了许多变革。

从第一个符号系统到今天的阿尔法狗,有很多象征性的事件。 每次都说人工智能发展这么慢,很快就能打破人类,但之后就没有找到可靠的构筑。 在历史的发展中,大致三个流派仍在竞争,是第一符号主义,这是古典的人工智能,必须经常将其符号化、一般化、精确化、叙述,然后用机器构筑。

二是神经网络,连接主义,实质上背后的构想是人的智能是由神经网络产生的。 我也建立了神经网络,期待它产生智能。

产生什么样的智能,是训练和模型的事。 首先,我们回顾的技术路线是神经网络第三,行为主义,主要是生物学。 他们实质上是我们一个人也好,动物也好,我们生物第一个单细胞的原生命形态也好,其智能来自哪里呢? 是在与环境的互动过程中产生的。

一个孩子天生没有能力,但在与环境的互动中能力不会慢慢提高。 当然有人说上学,学习书本知识,动物不学这个,互动也可以。

但是,如果不知道从大脑开始,终极问题依然无法解决。 这个主意并不新。

我想起了1956年。 他们讨论了七个问题。

自动计算机、编程语言、神经网络、计算规模理论、自我改良、抽象化、随机性和创造性。 目前,自动计算机、编程语言、计算的规模理论已经明确,但神经网络、自我改良、抽象化、随机性和创造性等问题还不清楚。 他们当时认为一群神经元是如何构成概念的,我们今天深刻的自学也不会成为概念。 另外第五个问题是一个智能如何能自我提高。

现在,深度自学是用大数据训练的,在一定程度上可以提高。 如果你使用数据,我的智能不会自动提高,但没有自我和选择性。

未来的计算机,如果也叫计算机,只有具有确实的随机性才能有创造性。 本来不存在这个系统的东西,经常随机出现。 为什么后面的一些问题依然发展受限,背后有两个原理。

一是因为我们还使用计算机实现智能,在计算机上实现神经网络,深度自学。神经网络不太中心,很多节点简单地展开交互网络,计算机西二是没有对神经网络体系结构的硬件,晶体管增进了计算机的缓慢发展,但没有合适的神经部件,无法制作物理上柔软的神经网络,无法制作符合我们期待的模型。 所以神经网络发展了这么多年,有高潮,有低潮,但总是有人坚决。

1985年Hinton明确提出了boltzman机型号。 今天在深造中boltzman机在谈论多层网络时,是新的样子。

从1985年到2006年,没有人做的时候,我也坚决做这个。 这是报告这种心情,坚决做神经网络。

我1995年读博士,1996年选择了。 那时,我们的11个博士生只有一个人建立神经网络。

这种精神首先必须确认你的逻辑是正确的。 你必须确认是对的。

你会坚决做Hinton是布尔曾经的孙子,布尔逻辑布尔的后代,这些人有贵族精神,指出受民俗影响,我指出这个方向是对的,我坚决做,渐渐征收,有人工作2006年,Geoffrey Hinton在《Science》发表了关于深度神经网络的论文,但现在深度自学已经短路了。 2011年,当深度自学不那么冷的时候,我采访了斯坦福大学半年。 他们是在layer中实现图像识别、语音识别、自然语言处理提高的点数。

当然,几个百分点,还不到10%。 之后,李飞飞组织的深度自学在比赛中提高了图像识别的能力11个百分点。 现在用更好的数据,用深入的网络,调整参数,然后变成一个结果,这没什么,从研究的角度来看没什么意义,但我们讨厌蜡。

阿尔法戈的构建有很多新的想法,是象征性的事件,虽然这还不是强大的人工智能、自主智能,但远远超过了我们传统人工智能的解读——,必须经常将很多东西一般化传达。 其突破将棋手识别为图像,这与人识别的过程相似。

所以我们说话的高手是围棋的感觉。 围棋的感觉来自哪里? 是你下的棋数。 下的棋数多,看的棋谱多,阿尔法狗看完了3000万局棋,棋的感觉已经远远超过了人。

围棋的感觉一般指的是只有人类才有,和机器一样可以有。 这种神秘性指出了独特的东西,逐渐被机器取代了。

因此,在2030年国家根本科技项目中,潘院士托付了五个方向:大数据智能、媒体间智能、集体智能、混合强化智能、自主无人系统。 在2030年,计算机超过了什么能力? 逼近人脑的信息处理能力,制定了具备自我理解、自律的标准化人工智能的目标。 以上是一些背景,花了很多时间,但以后应该比较容易说话。

二、生产强人工智能的第二个话题是生产强人工智能。 强大的人工智能也被称为标准化人工智能,到目前为止包括阿法犬在内都是弱人工智能,是专用人工智能。

专用人工智能是指解决有问题的智能问题。 强大的人工智能是为了超过人类的水平,需要适应外界环境挑战的有自我意识的人工智能。

超过人类的水平,就不会达到人类的水平,所以强大的人工智能是我们必须应对的挑战,这个挑战也许在我们人类经常出现之后就必须应对下一个挑战。 实质上世界上不存在超人工智能,原来我们,我们本来就是强大的人工智能,我们强大的人工智能是基于我们的大脑,神经系统。 迄今为止,除了人脑以外,没有自然和人工智能系统。

你必须适应新的环境,新的挑战。 人类有最典型的强大人工智能。

既然人能拥有,我们怎么让机器? 一开始我就说了类脑计算这个词。 比如Brain-inspired computing,受大脑灵感的计算,已经从人工智能开始,大家都在做。 大脑给了我们一些模型原理。

虽然受到限制,但是我们得到了一些理解。 只是,背后在某种程度上有理解的应用。 但是,这种解释不能解决问题。

我说的强大的人工智能问题。 这种想法迷惑了我们。

我们刚才说人脑有强大的人工智能,人脑的强大智能为什么经常出现? 在别的说法中,是人的意识怎么样,或者人的思考怎么样,人的意识的起源是什么,意识背后的原理是什么的问题。 这样的问题,是我们人类的三大科学问题。

人类面对三个下一个科学问题,第一个宇宙的起源,生命的起源,意识的起源,这三个科学问题,是很难的问题,否则就不会被称为大问题。 这么大的科学问题,问脑科学家什么时候能解决问题,有人说即使进行过激的脑科学家,也能在100年内解决问题,一般说几百年左右的时间,不是1000年的时间。 可能有一天解决不了。

因为这么大的问题,他们没有寻找不现实的方案,所以不能说在这个方向上有很大的探索,所以不能给确认的答案。 因为很难。 如果他们不能告诉他我们的话,大脑是怎么产生我们意识这种强大的人工智能的,我们该怎么办? 别人没有给你模型,我们等模型出来再做吧? 我们这样教育了很多年。

科学是基础,技术是以科学为基础的。 我们可以发展新技术。 但是,这个想法有时是正确的,但很多时候都有问题。 例如,飞机和空气动力学在1903年莱特兄弟上了飞机,但在1939年,空气力学经常出现,说明飞机为什么可以飞行。

但是今天的飞机通过空气动力学的指导可以更好,但那更好。 第一架飞机没有科学理论基础。

总结起来,我们人类历史上的技术变革和科学变革,技术变革完全领先于科学变革,具有原创性、卓越性。 中国的四大发明,没有一个有科学原理。

说中国没有科学技术,中国有技术,指南针已经使用了。 郑和也不告诉地球是圆的,也不告诉指南针知道指南,但我们做到了。

然后等到科学慢慢变成磁学。这些地球告诉我们发生了什么时,我们破译了为什么指南针可以引导。

所以我们为了实现标准化的人工智能、强大的人工智能,必须问什么是——智能呢? 大脑到底是怎么产生的,我们必须问这个问题吗? 等几百年再做,这件事已经不适合讨论了。 实质上并非如此。 类脑计算不是Brain-inspired computing,类脑计算是Brain-like。

什么是类脑计算? 我们现在不知道大脑为什么不产生这么高级和创造性的感觉。 但是我会告诉你什么样的物理系统产生了这个功能。 这个大脑在物理上发生了什么,在物质上发生了什么,在精神上不能说是思考的智能,神经系统是怎么样的,什么样的生物系,什么样的神经网络,这样的简单现象再次发生了。

所以这是大脑的解析模型,大脑不能进入解剖学,不能画大脑,我们必须清楚,我们必须看是什么样的结构在做,再次发生这样的不道德。 所以你可以做这件事。 我不会告诉你以后画到哪里。 二是大脑神经元、神经网络的结构产生了高级功能,电子也做不到一个。

当然我们不需要复制生物的东西。 使用神经元和神经网络的功能,联系也同样可以建立某种程度的系统。 神经元也是信号处理,图像是信号的加工,这样的功能我们可以用电子器件制作。

人脑也一样。 如果你逃避某种程度的结构相似形,就不会出现很相似的功能。 如果结构的相似性在某种程度上是正确的,那么复杂性可能经常出现。

这就是为什么像葫芦一样画葫芦做东西的原因。 不要问我为什么。 这样的系统,你可以训练它。

就像今天我们说的,深造的自学谁也不能怪。 深刻的自学功能就在那里。

多层网络在那个地方。 如果用大量的数据训练它,就不会经常出现抽象化能力,而是分类识别各种能力。

如果你制作脑神经网络的东西并训练它,以动态、各种各样的性刺激训练它,那应该也会出现很相似的现象。 简单的网络,不会发生更简单的现象。 不会像非常简单的神经网络那样发生非常简单的现象,简单的网络不会发生简单的现象。 人类一定会重新解读机器的智能,最后解读我们自己的智能。

因为从可以实现的方面来看,也应该这样做。 所以,你回顾了四步,最后建立了解读意识。 但是,以通常科学决定的想法,如果来到上面,就会问意识怎么样。

这四步也没必要回头。 我们当场等着就行了。 有类脑计算。

我有可靠的下一代电脑。 今天大家会跟我说三个小时,可以详细说。 2015年,为了对北京市说正确的话,我总结了三句话。

他们说他们明白了。 你们试试吧。

结构水平仿照大脑,器件水平逼近大脑,智能水平打破大脑。 结构水平模仿,明确大脑的神经网络结构,对大脑建模,这是大脑的偏移工程学。 二是制作神经形态器件,在尺寸功能上逼近生物神经元。

在智能水平上破脑就像我们今天训练神经网络一样,可以用大数据,用各种各样的感觉,当然在虚拟现实和虚拟环境中对其进行性刺激,产生简单的不道德。 就像我刚才说的,类似于行为主义的训练。 完成这三个级别后,该系统将无法享受高级简单的功能。 就是这样的路径 因此我们所谓的类脑计算,类脑计算机是模仿生物神经网络,以使用神经形态器件结构的时空信息处理为中心的智能机器。

为什么要特别强调时空信息处理,因为杨家说是简单的环境。 图灵机处理的数据流实质上已经是外汇市场的时空信息,尽管能视频,但能视觉化,能完成现在的简单任务。 但是,最后的时间,空间全部分解,成为一起展开的数据流。 一旦时间和空间被破坏后,很多智能任务就很难了。

我们的生物视觉、生物听力没有破坏时间、空间。 我们的眼睛看着世界,时间和空间最后都没有成为一心一意的流动。 我们确实在逐步执行。 这台新机器需要处理信息以便在必要时出现。

这以时空信息处理为中心,如果时空不被破坏,时空不被破坏,则必须适用。 需要展开处理。

所以,这种神经形态计算机,或者类脑计算机,和我们刚才说的不同,与古典计算机相比,必须在各种各样的水平上做出一些变化。 新的神经形态计算机其基本器件不是晶体管而是神经元和神经神经元,这是神经形态器件,当然是人工的、电子的。 第二,古典计算机是人类定义的,是冯诺伊曼定义的架构。

神经计算机是模拟生物的神经网络,已经没有这个功能的结构,我们用电子芯片的方法构建它,对这样的网络进行管理,我们今天的操作系统管理硬件的很多功能但是,你构建了网络的各种东西,将如何给出的生物网络模型同质化在这样的同一个硬件上,进行网络的部署和管理。 从硬神经网络到软神经网络的同构是基本的拒绝。

所以毕竟,这样的机器,为了实现以前我们说的智能,科学家,必须问清楚智能是怎么样的。 他可以告诉你一些事情。 那些东西真的是做电脑模型的,不能解决问题。

像中医一样,我可以跟你说几个道理,但那个道理解决不了任何问题。 所以我放弃,和他们退后再去论证。 否则,人们成了杨家,将来连这个问题都解决不了。

因为是3个小时的演说,所以内容很丰富。 这是前篇。 前面的内容请看下面的《北大计算机系朱铁军CCF-ADL讲习班下篇:编撰神经形态计算出来与AI生物视觉前沿》课程。

这个课程是收费课程。 2017年8月在AI慕课学院独家不在线。 成本2500元(CCF会员)的在线课程现在以特价699元出售。 感兴趣的学生是3358。

相关文章:北大计算机系朱铁军CCF-ADL讲习班次编:编纂神经形态计算AI生物视觉前端面具说的与脑机融合有多近? 确实的脑机科学技术的前端让他真正犯人| CCF ADL 81类脑计算前端班总结重磅讲座预告片:朱铁军、陈云雯等专家聚集在CCF ADL,共享类脑计算和深度自学处理器|开学选拔中的原创文章,发出许可禁令刊登。 以下,听取刊登的心得。。

本文来源:快三平台-www.julaszakovits.com

0171-579175405

联系我们

Copyright © 2010-2014 榆林市快三平台科技股份有限公司 版权所有  陕ICP备26223196号-5