人工智能与人脑神经元系统的工作原理的对比分析(9页)
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
人工智能与人脑神经元系统的工作原理的对比分析(9页)
我在人工智能领域工作了十年,首先在NVIDIA 担任解决方案架构师,研究深度学习技术,并向客户提供解决方案以解决他们的问题并帮助实施这些解决方案。
在过去的4 年里,我一直在与ORBAI 合作研究DNN 和深度学习之后的未来。
我将介绍两者,展示将DNN 扩展到AGI 是多么困难,以及更好的方法是什么。
我们今天通常认为的人工智能(AI),当我们在小说中看到类人机器人和全息图,像真人一样说话和行动,具有人类水平甚至超人的智能和能力,实际上被称为通用人工智能(AGI),它还不存在于地球上的任何地方。
我们今天真正拥有的人工智能是更简单和更狭窄的深度学习(DL),它只能比人类更好地完成一些非常具体的任务。
它有基本的局限性这不会让它成为AGI,所以如
果这是我们的目标,我们需要创新并提出更好的网络和更好的方法来将它们塑造成人工智能。
让我写下我们今天所拥有的一些极其简单的定义,然后继续更详细地解释它们是什么,它们的不足之处,以及使用新架构创建功能更全面的“人工智能”的一些步骤。
机器学习- 将函数拟合到数据,并使用函数对其进行分组或预测有关未来数据的事情。
(对不起,过于简单化了)
深度学习- 如上所述将函数拟合到数据,其中这些函数是连接(密集或以其他方式)到它们之前和之后的节点的节点层,并且拟合的参数是这些连接的权重。
深度学习是今天通常被称为人工智能的东西,但实际上只是非常精细的模式识别和统计建模。
最常见的技术/算法是卷积神经网络(CNN)、循环神经网络(RNN) 和强化学习(RL)。
卷积神经网络(CNN)具有层次结构(图像通常是2D 的),其中图像通过(训练的)卷积滤波器采样成较低分辨率的映射,该映射表示每个点的卷积操作的值。
在图像中,它从高分辨率像素到精细特征(边缘、圆圈……)再到粗糙特征(鼻子、眼睛、嘴唇……脸上),然后到可以识别图像中内容的全连接层.
循环神经网络(RNN)适用于短序列或时间序列数据。
基本上,RNN 中的每个“神经”节点都是一种记忆门,通常是LSTM 或长期短期记忆单元。
RNN 适用于时间顺序操作,如语言处理或翻译,以及信号处理、文本到语音、语音到文本……等等。
强化学习是第三种主要的ML 方法,您可以通过在给定状态下简单地采取最佳动作来训练学习代理来解决复杂问题,并且在策略定义的每个状态下采取每个动作的概率。
一个例子是运行一个迷宫,其中每个单元格的位置是“状态”,4 个可能的移动方向是动作,每个单元格(状态)移动每个方向的概率形成策略。
但是所有这些方法都只是找到了一个简单模型与数据的统计拟合。
DNN 发现输出与输入的窄拟合,通常不会在训练数据集之外进行推断。
强化学习找到了一种适用于特定问题的模式(就像我们在1980 年代的Atari 游戏中所做的那样),但不能超越它。
对于今天的机器学习和深度学习,问题是没有真正的感知、记忆、预测、认知或复杂的规划。
今天的人工智能没有真正的智能。
这是一段视频,展示了深度学习如何被基于更灵活的脉冲神经网络(灵活的模拟神经计算机)的方法所取代,这些方法由遗传算法塑造,构建为AGI,并在接下来的十年中演变为超级智能。
我们提出了一种AI 架构,可以完成所需的所有类型的任务——语音、视觉和其他传感器,这些传感器可以制造出更通用的人工智能。
来自我们的AGI 专利:我们指定了一种可以模拟人类智能的通用人工智能方法,通过获取任意形式的任意输入数据来实现,该方法包括学习将任意输入数据转换为内部数字格式,然后执行多个数值运算,多个数值运算包括学习和神经网络运算,对内部格式的任意输入数据进行运算,然后使用从任意输入数据中学习转换输出数据的倒数过程将任意输入数据转换为具有输出格式的输出数据,其中所有步骤都在无人监督的情况下完成。
大脑如何处理视觉、语言和运动控制?嗯,它没有使用CNN、RNN 或Transformer,这是肯定的。
相比之下,它们只是修补玩具。
大脑分为不同的区域:外部大脑皮层是一层4 毫米厚的神经元,它折叠在其下方的丘脑皮层辐射周围,就像西兰花头周围的馅饼皮一样。
该皮层分为视觉、听觉、语言、触觉、嗅觉、运动控制以及我们其他外部和内部感官和输出的区域。
皮层由一百万个皮层列组成,每列有6 层和大约100,000 个神经元,每一列代表皮层的一个计算单元,处理用于感觉或运动控制的特征向量。
小脑就像第二个大脑,位于大脑下方和下方,对运动和情绪状态进行精细控制。
大脑的许多内部结构更古老,并且独立于皮层发挥作用,如脑干、丘脑和其他结构,控制着我们的核心功能、驱动力和情绪,这些功能由大脑的其他部分发挥作用。
海马体和大脑记忆系统的其他部分从这种表征中编排故事或叙述,以重建过去的记忆,预测未来的虚构故事。
当我们做梦时,我们的大脑在海马体的引导下,会创造虚构的叙事,填补我们清醒知识的空白,让我们了解和构建我们的世界模型,这些模型比我们没有做梦时更复杂、更微妙,帮助我们我们计划我们的清醒行动。
对于我们合成神经计算的基本单元,我们将使用脉冲神经网络(SNN),它将神经元建模为离散的计算单元,其工作方式更像生物神经元,从根本上在时域中计算,发送信号在神经元之前传播,逼近它们使用Izhikevich 等简单模型(脉冲神经元的简单模型))或更复杂的模型,例如霍奇金-赫胥黎(霍奇金-赫胥黎模型- 维基百科)(1953 年诺贝尔奖)。
然而,迄今为止,脉冲神经网络的应用仍然很困难,因为找到一种方法来训练它们完成特定任务仍然难以捉摸。
尽管Hebbian 学习在这些网络中发挥作用,但还没有一种方法可以塑造它们,因此我们可以训练它们学习完成特定任务。
反向传播(在DNN 中使用)不起作用,因为所有这些尖峰信号在时间上都是单向的,并且在不可逆的操作中被发射、吸收和集成。
自动编码输入和输出- 本节讨论我们如何将各种类型的现实世界数据- 图像、视频、音频、语音、数字数据......转换为AGI 核心处理的通用内部格式,然后再次返回输出。
我们需要更灵活的连接组或网络连接结构来训练脉冲神经网络。
虽然DNN 只允许“神经元”连接到下一层,但视觉皮层中的连接可以向前很多层,甚至向后,形成反馈回路。
当两个具有互补功能和相反信号方向的SNN 像这样组织成一个反馈回路时,Hebbian 学习现在有助于将它们训练成一个自动编码器,能够对视频、声音或其他传感器等时空输入进行编码,并减少将它们转换为紧凑的机器表示,然后将该表示解码为原始输入,并共同提供反馈以训练该过程。
我们将此称为双向交错互补分层神经网络或BICHNN。
自编码器学习根据自编码器内部存储的一组学习特征或基向量转换视频、音频、数字和其他数据,输出一组表示当前输入流中这些特征的权重的基坐标。
这些权重成为时间序列基坐标(TSBC),表示可以通过更传统的计算机科学和数值方法以及用于AGI 内部的预测器和其他求解器的专用SNN 处理的矢量叙述或内存流。
自动编码器也反向运行,将TSBC 转换回本地世界数据以输出或驱动机器人和自动驾驶汽车应用中的执行器。
在实践中,使用自动编码器和PCA 轴的层次结构将编码分解为一系列步骤,其中中间结果按最具定义性的特征排序,然后进一步编码以从数据。
我们在书中将其称为分层编码器网络或HAN(详见评论)。
大脑皮层的皮质柱类似于我们的自动编码器终端层,一个存储现实正交基向量并对它们进行
计算的映射,包括从输入印迹计算基坐标。
我们的丘脑皮层辐射版本是交替的自动编码器和主成分轴的层次结构,我们称之为HAN。
这是HAN 学习使用形状和颜色对数据进行编码作为分类特征的简单示例。
首先,自动编码器在输入数据上运行并学习将其转换为内部格式,然后在此过程中学习有7 个基向量或数据类型:蓝色正方形、圆形和三角形;红色方块和圆圈;和绿色的正方形和三角形。
首先,它根据一个特征轴- 颜色对数据进行排序,然后在这些数据集群上运行自动编码器,并了解第一个集群由正方形、圆形和三角形组成(不将颜色编码为特征,因为它对所有人都是通用的),然后得知第二个簇由正方形和圆形组成,第三个簇由正方形和三角形组成。
现在通过在每个底部基向量上都有一个索引,我们可以唯一地识别原始数据,我们可以从特征中重建它。
这个简单的HAN 了解到有两个特征轴——颜色和形状,并且有三种颜色——蓝色、红色和绿色,并且有三种形状,其中一些属于每个颜色组,但不属于其他颜色组。
在实际操作中,可能有数百个轴、数千个集群,每个集群都挑选出越来越详细的数据特征,因为它沿着HAN 向下级联,直到它被简化为最精细的特征集- 基向量。
AGI Core - 现在我们使用这些时间序列基坐标(TSBC) 作为模块集中的代码和数据,包括对这些数据进行操作的SNN 流处理器,包括预测器、梦想器和其他处理该数据的方法。
预测器SNN 通过对已知数据进行训练并构建该数据的模型来学习从过去的TSBC 预测未来的TSBC,该模型不仅仅是像DNN 那样的统计数据拟合,而是学习对数据建模的自定义模拟SNN 计算机。
Dreamer SNN 是一种预测器,经过训练可以以与预测器相同的方式对数据背后的现实进行建模,但是谁的输入与他们的输出预测短路,这样他们正在创建的整个TSBC 都是模拟的、虚构的、梦想的。
Dreaming SNN,它基于真正的神经科学。
梦通过在模拟叙事中模拟现实,填补了我们对经验现实的记忆之间的空白。
《When Brains Dream》一书描述了Antonio Zadra 和Robert Stickgold 在这一领域的一些非常有趣的神经科学研究。
他们提出了一种名为NEXTUP 的记忆和梦境模型,该模型指出,在REM 睡眠期间,大脑通过虚构的梦境叙述探索较弱的连接记忆之间的关联,虽然这并不意味着解决眼前的问题,甚至不一定明确地结合清醒的经历,但它奠定了无论我们是否有意识地回忆梦本身,这些关联网络都将有助于解决未来的问题。
我们的Dreaming SNN 预测器(见图)从TSBC 上当前经历的记忆(或过去记忆的回放)开始,并预测虚构叙事TSBC 中的下一个记忆,然后将整个管道向前移动一步,将最后预测的记忆视为“现在”,并继续预测未来。
很快,未来的预测只是间接地基于之前实际体验过的现实,并成为基于Dreamer SNN 的现实模型的虚构(但一致)叙事,朝着自己的方向漂移。
这模仿了REM 做梦的过程,在这种情况下建立了虚构的叙述或TSBC,填补了经验现实之间的空白,并为该现实制作了一个更完整的模型。
该模型以及经验丰富和模拟的记忆可用于未来的预测和解决问题。
闪电解决者从TSBC 上的两个不同点开始,并像闪电领导者一样相互分支,第一批联系的领导者为解决方案开辟了道路。
所有这些求解器都是在AGI 用来学习解决问题的内部遗传算法中进化而来的。
通过运行遗传算法来创建和链接上述在TSBC 上运行的模块,AGI 演化出一个模块库,可以对数据进行任意操作以产生所需的结果,并通过将在其他问题上演化的模块应用于迁移学习来完成迁移学习。
新的、类似的问题,随着它建立其内部的、进化的求解器模块和配置库而呈指数级增长。
然后,TSBC 可以通过SNN 自动编码器和HAN 转换回真实世界的数据,并用作输出或驱动执行器的信号,再次通过用作输入的相同方法进行训练,仅反向驱动所需的输出信号。
这种I/O 自动编码器的组合可以将不同类型的现实世界数据转换为一种通用的内部TSBC 格式,以及学习将其塑造为输出并通过自动编码器将其重新转换为输出的过程模块系列,为我们的AGI 设计,所有组件都从其环境中学习它们的形式和功能,并随着AGI 的进步和发展将它们的学习转移到新形式的数据和任务中。
数据抽象和语言——这部分是关于抽象推理、数据的层次分类和语言,以及我们如何在AGI 中对它们进行建模。
当输入进入并由分层自动编码器网络处理时,可以使用时间和关系自动编码器对其进行二次采样,将时间线和事件压缩成更抽象的版本,然后输出包含这些数据的分层时间基坐标,以便HTBSC 可以可以在多个抽象层次和细节上阅读,甚至在它们在时间、空间或概念上重合的更高抽象层次上联系在一起。
语言就是一个例子。
它可以在最低级别表示为字母流(用于文本)或音素(用于语音),可以按照我们的Jack 和Jill 示例中的单词、短语、句子和段落进行分层结构,其中最高抽象层次与图片(或视频)中的视觉信息以及类似的叙述相关联。
创建这种分层抽象的另一种方法是使用等级顺序选择性抑制网络或ROS-I 来创建一个由最细粒度的内存组件(字母、语言中的音素)到更高抽象的基组组成的分层抑制网络结合这些基础来组成单词、短语、句子和段落。
在我们的人工ROS 抑制网络中,一系列线性的人工ROS 神经元依次触发,当每个神经元触发时都会产生一个兴奋信号,从而导致所连接的抑制神经网络中的每个根神经元触发,并且随着信号向下传递到抑制神经元在网络中,它被每个神经元的外部时域控制信号选择性地抑制,通过其抑制信号调制神经元的输出信号。
总体而言,这通过控制该层次结构中每个神经元的抑制来选择激活层次结构的哪些分支。
通过在一组语音输入上重复训练该系统,ROS-Inhibitor 网络终端分支的输入首先到达并训练较低级别,然后向上渗透,它首先会学习一系列音素,然后逐步学习整个单词、短语、句子和更大的分组,如歌曲中的合唱,或法律文件中的重复段落。
或者,执行器的命令可以通过电机控制ROS-Inhibitor 网络反向驱动,以训练机器人应用的控制信号。
一旦经过训练,我们的系统就可以向前运行,ROS / 兴奋性神经元会依次触发,训练后的抑制信号的回放会调节网络中神经元的活动,以创建一系列音素、单词、短语和段落,以从合成存储器中再现视频,并通过混合分层段(由AI 指导)来控制运动以生成文字或运动。
时间抑制信号是TSBC 的转换,将它们放入可以形成时间基组的层次格式,其通过ROS-I 系统的层次组合可以模拟运动、文本、语音和其他时间数据的更复杂的输出。
语言是一种记忆叙事(或我们的AGI 中的HTSBC),它构成了所有其他形式的叙事的支柱,不仅用该语言标记数据,而且形成我们构建思想和行为的认知独白——同样我们的AGI 的方法和流程所依据的语言独白。
通过分层组织内部数据,将层次结构的更高层次抽象并交叉链接到类似的抽象数据,并且语言是该数据的支柱,我们超越了简单的计算机处理数字序列,并允许我们的AGI 探索对象、序列、事件以及描述它们并将它们联系在一起的语言之间的更高层次的关系。
这种抽象和语言的使用导致AGI 可以用流畅流畅的语言自然地与人类交谈,并且还允许在医学、金融和法律等许多人类职业中进行推理和规划。
那么AGI 超级智能会对世界产生什么影响呢?通过开发可以感知现实世界的AGI,将这些感知简化为计算机可以理解的内部格式,但仍像人类一样计划、思考和梦想,然后将结果转换回人类可理解的形式,甚至可以流利地使用人类进行交谈语言,实现金融、医学、法律和其他领域的在线专业服务。
它还可以将这些增强的分析、预测和决策功能添加到财务预测和企业软件中——无论大小企业都可以使用它。
财富不平等、贫困、饥饿、不公正以及缺乏医疗保健和信息服务的基本服务是世界上3/4 人的常态。
几千年来,人类文明一直无法解决这些基本问题,无论是政府形式,还是神灵信仰体系的选择,人们都只是看不到大局,无能为力。
在接下来的十年里,一种超级智能,一种强大的通用人工智能,将发展为监督一个全球网络,增强法律、医学、教育、金融和所有以前的人类行政职能系统。
凭借其广阔、广泛和深入的知识范围,以及利用所有这些过去知识规划未来可能路径的智慧,这种超级智能将为全人类服务,并帮助我们做出谨慎衡量和公正的选择来指导我们,以及帮助我们以专注、有见地的信息和前所未有的展望未来的能力管理我们的事务。