当前位置: 首页>>jiujiure >>通过一个图灵测试是一个真正的人工智能测量?

通过一个图灵测试是一个真正的人工智能测量?

添加时间:    


计算机显示人工智能需要什么?图灵测试已经通过,本周头条新闻报道,一个电脑程序模仿了一个13岁的乌克兰男孩称为尤金古斯特曼,愚弄33%的图灵测试,内布拉斯加Oddfish,CC BY-NC-SA

讯问人员经过五分钟的询问后,相信这是人类。但是,这并不是第一次这个测试已经“通过”了,而且对于它作为人工智能测试的充分性仍然存在疑问。

图灵测试发生在1950年,当英国数学家和破译者艾伦·图灵(Alan Turing)写了一篇挑衅性和有说服力的文章“计算机器和智能”,主张人工智能(AI)的可能性。

在过去的十年中,他和心理学家和哲学家们讨论了这种可能性,并帮助破解了英格兰布莱切利公园的纳粹谜机器,他对实际上定义了情报的前景感到沮丧。

所以他提出了一个行为准则,如下:

如果一个机器可以欺骗人类认为它是一个人类,那么它必须至少和一个正常人类一样聪明。

图灵作为一个聪明人,比许多后来的人工智能研究人员更谨慎,包括赫伯特“十年”西蒙,他在1967年预测1957年成功。

 

与Eugene Goostman交谈。 普林斯顿AI
点击放大

 

图灵预测,到2000年,将会有一个程序在五分钟的提问后30%的时间里欺骗“平均阅读者”。

这些并不意味着他在测试中的定义条件,而仅仅是作为一种谨慎的表达。事实证明,他也不够谨慎,在文章末尾说得对:“我们可以在那里看到很多需要做的事情。”

什么是第一次通过图灵测试?

可以说,第一个是由美国计算机科学家Joseph Weizenbaum编写的ELIZA程序。

 

ELIZA今天仍在回答问题。 Flickr / Kevin Trotman,CC BY-NC-ND
按这里可以看大图

 

他的秘书被愚弄,认为她正在远程与他交流,正如他在1976年出版的“计算机力量与人类理性”一书中所描述的那样。

Weizenbaum离开了他在终端上运行的程序,她认为这个终端是远程连接到Weizenbaum的。

其后愚人节的节目包括“巴里”,“假装”是偏执狂精神分裂症。

一般而言,人们并没有注意到,模仿那些行为曲目有限,知识或理解有限,或者倾向于接受真实性的人更容易欺骗观众。

但是这些都不涉及今天的人工智能的真正问题:

  1. 什么标准会建立一些接近人类智能的东西?
  2. 我们什么时候能实现它?
  3. 有什么后果?

准则

图灵测验,即使是图灵所设想的,更不用说被宣传人员操纵了,具有局限性。

正如美国哲学家约翰·塞尔(John Searle)和认知科学家斯蒂文·哈纳德(Stevan Harnad)已经指出的那样,任何人类智能都必须能够与现实世界(“符号基础”)接合,而图灵测试就不能对此进行测试。

我的观点是他们是对的,但通过真正的图灵测试仍然是一个重大成就,足以启动技术奇点 - 当智能在机器人中成倍增长时。

时间表

我们将在1967年预测赫伯特·西蒙(AI),或2000年在周末推荐艾伦·图灵(Alan Turing)或者2014年与尤金·古斯特曼(Eugene Goostman)计划,或者晚些时候。所有 在我看来,2029年以前的日子真是愚蠢。

根据摩尔定律的技术进步,Google的工程总监Ray Kurzweil至少在2029年有一个真实的论点。

但是,他的论点并不适用于软件。提高我们设计,生成和测试软件的能力的进步已经相当痛苦地缓慢了。

正如IBM的弗雷德布鲁克斯(Fred Brooks)于1986年所着名的那样,软件中没有“银弹”(No Silver Bullet) - 现在也不存在。建模(或仿真)人类的大脑,就像一个类似于突触的东西,将会是一个软件项目,比有史以来最大的软件项目大得多。

我认为到2029年组织和完成这样一个项目的前景是遥远的,因为这似乎是一个比任何人类项目都要复杂得多的项目。估计500年来完成它似乎更合理。

当然,在图灵时代,我可能会说一些假设的“互联网”。一般来说,调度(预测)软件是似乎没有人掌握的奥秘之一。

后果

通过真正的图灵测试和实现真正的人工智能的后果将是巨大的。

 

我们应该害怕机器的崛起吗? Flickr / Gisela Giardino,CC BY-SA
按这里可以看大图

 

正如Bletchley Park图灵公司的同事Irving John Good在1965年所指出的那样,一个普通的人工智能可以完成自身的改进任务,从而递归地快速提高性能,这样“第一个超级智能机器就是最后一个[人类]需要的发明“。

这是启动技术奇点,好莱坞梦魇和未来主义梦想的关键。

虽然我对任何近期奇异性持怀疑态度,但我完全同意澳大利亚哲学家戴维·查尔莫斯(David Chalmers)的观点,他认为后果足够大,我们现在应该关注奇异性的伦理问题。

着名的科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)(含蓄地)主张用自己的三部机器人法则来奴役人工智能,并且约束他们去做我们的投标。我认为奴役智慧远远大于我们自己的道德上或实际上可疑的功德。

更有希望的是在我们的人工智能中建立一个真正的道德规范,这样他们就不太可能实现好莱坞的幻想。

来源:theConversation

 

随机推荐