「书评」《未来学徒》:怎么让人工智能记住并且在人群中认出你?

2019-11-06 16:03:54   【浏览】613

作者:大脑极体(Brain Polar Body),一个专注于人工智能和泛预见科技的独立自我媒体团队;

出版社:人民邮电出版社;

出版时间:2019年8月;

如果你想有一段不经意的恋情,会采取多少步骤?

这是一个标准的形而上学哲学问题。一些单身狗的黄金会员甚至可以告诉你答案是负无穷大。然而,如果考虑正常人的一般情况,第一步可能是从聊天开始。

但是如果你想和人工智能谈恋爱,情况可能会复杂一点。毕竟,开始谈话的前提是它能记住你,但是即使它能记住你,它也必须把你和桌子、椅子和大头菜分开。

今天要讨论的技术是,负责这项工作的人--当然,坠入爱河或其他事情仍然有点遥远--如何让人工智能记住一些事情,同时把它与所有事情的记忆区分开来。

这种心理网络技术的名字叫做lstm(长短期记忆)长短期记忆网络,可以说是一个相当酷的名字。

虽然这种技术是在1997年提出的,但随着人工智能技术环境的成熟和改进方法的改进,lstm近年来变得流行起来。包括谷歌翻译,已经开始使用这项技术。

今天,让我们学习“让人工智能在人群中认出你”的技术。虽然lstm的技术进步不如许多算法和精神网络先进,但它所展现的未来可能会以其人文内涵带来更丰富的意义。

为了理解lstm,首先必须理解另一个名词:循环神经网络(rnn)。Rnn用于许多机器学习算法和应用,主要是因为它解决了机器学习中最重要的问题之一:内存。

所谓的循环神经网络就是在传统的神经网络中增加了“循环”的功能。在神经网络开始时,每一层计算的结果都是不相关的,从而留下了机器学习系统没有记忆能力的问题。

rnn的基本出发点是连接不同层次心理网络的输入、操作和输出。让神经网络产生记忆能力。

为了赋予机器学习和记忆的能力,有许多直接使用的场景。例如,在机器翻译中,rnn技术可以带来联系上下文的能力,使翻译结果准确地适应上下文。

然而,rnn仍然有一个巨大的缺陷,即它不知道如何选择要记住和忘记什么。这导致机器学习系统写下所有的信息。这给计算能力增加了很多负荷,并且使得神经网络难以确定相对较远的信息的对应关系。这就是人工智能世界中rnn的“长序依赖”问题。

例如,当rnn被用来帮助翻译时,它会记住连续句子中吃和喝水的动作。然而,如果主人公在前几段举起酒杯,开始在这一段喝酒,这将是完全无法区分的。....

针对这些问题,从业者发明了lstm,即所谓的长期和短期记忆网络,以区分哪些记忆需要返回到长期记忆,哪些只需要短期存储。这样,在循环存储网络中可以记住关键信息,同时可以减少计算工作量。

所以lstm是一个特殊的rnn。

回到爱情这个话题,rnn就像一个初生的婴儿。虽然它有记忆,但它无法区分记忆,也不知道该记住什么。Lstm就像一个坠入情网的少年,能够记住女孩的名字、爱好、长相,并将这些联系起来,演绎出他注定要成为备胎的悲剧现实...

我们不妨简单解释一下lstm是如何工作的。

Lstm不同于rnn,它在算法中增加了一个“处理器”来判断信息是否有用。处理器的结构叫做单元。

一个单元有三个门,分别称为输入门、遗忘门和输出门。当消息进入lstm网络时,可以根据规则判断它是否有用。只留下符合算法认证的信息,不一致的信息将通过遗忘门被遗忘。

它只不过是“一输入两输出”的工作原理,但它可以解决神经网络在重复操作下长期存在的大问题。目前,已经证明lstm是解决长序依赖问题的有效技术,并且这种技术的通用性很高,导致了许多可能的变化。研究者根据lstm提出了他们自己的变量版本,允许lstm处理不断变化的垂直问题。

虽然lstm不是很复杂,但它的应用率很高。例如,这种技术被证明是有效的应用环境是在文本理解和翻译领域。

lstm最直接的价值体现是根据上下文之间的关键信息推断出出现在以下文本中的主题定义。这使得机器翻译更有可能处理较长的文本甚至整个故事。

对于“机器学习文本”,理解、翻译和新的文本生成总是在一个铁三角中联系在一起。Lstm可以帮助理解上下文,这是人类的一种独特表达方式,当然,它也可以帮助人工智能从人类文本中找出逻辑和上下文。借此机会生成具有上下文、逻辑和预示的新文本也是lstm最直接的应用场景之一。

同样,上下文不仅存在于文本中。例如,在视频中,还会有前后故事连接的情况,甚至更复杂的是,通过图像的上下文连接。例如,一件衣服上不同字符的含义;关键道具的重复出现;甚至是天气对剧情的推动。

目前,已经有通过lstm变体技术解读电视剧的实验。然而,更广泛的应用空间是使用lstm来进行监控视频的内存推断。例如,在城市的视频监控数据中寻找失窃钱包的下落可能很快就会实现。

同样,lstm在自然语言处理中也有很大的应用价值。例如,选择和记忆人们的语言习惯、口音、发音方法等。可以帮助人工智能理解真正的人类语言,降低对语言准确性的要求。此外,lstm还可以帮助人工智能理解大部分人类语音命令,从而使人类向人工智能发出负责任的命令成为可能。

让人工智能有选择地记住一些东西,绝对是一件让人大开眼界的事情。

很容易理解,知道毁灭者柯南在许多科幻电影中的人工智能是从选择性记忆开始的——当然,他们都记得人类很坏,不知道为什么。

由于长期和短期记忆训练数据的缺乏非常严重,lstm的进化速度仍然相对较慢。尤其是更抽象的非文本材料信息训练非常匮乏,有效的训练方法也很少。然而,如果这个链接完成,想象中的碰撞将是疯狂的。

下面是lstm技术带来的两条可能的进化路线。它们都是由lstm指导选择记忆能力,但很容易推断出我们非常害怕和渴望的人工智能能力。

猜想1:长期和短期记忆——选择性记忆——精确推理能力——预测能力

解释:通过大量的选择性记忆训练,人工智能可以理解事物之间有什么样的长期关系。即使有非常远的信息的两件事是如何联系在一起的。这表明了机器的推理能力。随着一些优秀论文的发表,机器推理最近成为人工智能领域的一个热门话题。几乎可以肯定,机器可以有推理能力,但是人工智能,它可以使用无限的数据,可以使推理能力发挥到极致,实现人类预测未来的梦想?

如果你进一步思考,能够预测未来的人工智能将如何看待人类的现在以及人工智能与人类之间的关系?仔细思考是非常可怕的。

猜想2:长期和短期记忆-选择性记忆-选择性集中-机器值

许多科学家认为,在lstm给循环神经网络带来选择性记忆能力之后,下一步就是训练机器如何选择性地将其计算能力集中在某个东西上。但是人工智能可以判断它的聚焦目标、聚焦持续时间和聚焦目标,它能说有自己的价值吗?

毕竟,所谓的人类价值观,毕竟只是在某件事情上浪费了多少记忆、思考和时间。用自己的价值判断人工智能,当然,人类在期待它的同时也害怕。

这样,lstm技术可以帮助人工智能在人群中记住你,这不一定是件好事。毕竟,即使你想和可爱的人工智能谈恋爱,别人也会想杀了你。

然而,人工智能的记忆已经是一扇无法关闭的大门。

钛媒体作者[介绍:本文内容来自作者《未来学徒》的大脑极体。他们是专注于人工智能和泛未来科技的独立自主媒体团队,他们的写作特色是科学的深入普及和打开读者大脑的独特视角。他目睹并参加了国内外人工智能领域的许多重大活动。目前,脑极地机构(Brain Polar Body)已经在10多家主流科技媒体设立了专题栏目,并获得了许多重要的科技写作奖项。】

欲了解更多精彩内容,请关注钛媒体微信号(id: taimeiti)或下载钛媒体应用。

幸运农场下载

上一篇:科创板上市委会议下周末前将连开五场 10家申报企业“待议”
下一篇:新加坡华裔男子借口照顾重病女友与其同居,偷走其全部积蓄37万

相关新闻