本篇文章3103字,读完约8分钟
例如,不久前被微信列入不受欢迎名单的微软萧冰,将很快以萧冰第二代的身份重返微信平台,并带来一个特殊功能——控制智能家居。如果你在微信上给萧冰一个关灯的指令,家里的智能灯就会自动关掉。如果有一天萧冰不开心,他不会听从你的命令,也不会拒绝开灯,这不会杀死你。当然,如果你的电锯将来被萧冰控制,那就很难说了。
因此,我说人工智能目前对人类是友好的,但这句话也隐藏着另一层含义,那就是即使它是不友好的,也还不是对人类生命构成威胁的时候。然而,艾伦·马斯克的担忧并非毫无根据。我认为即使人工智能有以下四点之一,它也会给人类带来不可想象的后果。
首先,通过图灵测试
著名的“图灵测试”说,如果一台计算机能在5分钟内回答人类提出的一系列问题,并且超过30%的答案被误认为是人类的答案,那么这台计算机就通过了测试,被认为具有人类的智能。
30%的主张是由英国人工智能之父艾伦·图灵提出的,这一标准越来越受到人们的质疑。图灵自己后来否认他为这次测试设定了所谓的标准,30%的人只是随口说说。图灵去世37年后,美国科学家兼慈善家休·洛伯纳(Hugh Lobner)将这项测试转变为年度竞赛,竞赛始于1991年,直到2014年6月才宣布第一台计算机通过了测试。然而,这一事件随后被媒体质疑为炒作。
对此我有一些不同的看法。计算机能够通过测试的原因取决于强大的数据库。在接受测试之前,计算机已经有了大量的人类知识作为储备,以及由人类精心准备的智能程序。也就是说,测试的本质是由测试者问问题,测试者是一个人,然后伪装成一个人的计算机告诉这个人设置的答案作为答案。许多怀疑论者认为,这个测试表面上是计算机和人类之间的竞赛,但实际上它只是人与人之间的游戏。在我看来,考试的本质和结果并不重要,但重要的是它确实欺骗了一些人。
如果我们以人类为例,孩子很难用谎言欺骗成人。这是因为成年人比儿童有更多的生活经历,他们辨别真伪的能力自然更强。这样想一想,伪装成13岁男孩的电脑尤金(Eugene)之所以只愚弄了30%的人,却没有愚弄更多的人,是因为他的“经验”不够丰富,也就是说,如果他的数据存储足够强大,他的程序足够智能,那么更多的人上当只是时间问题。现在,作为一个13岁的孩子,他已经成功地欺骗了30%的成年人,这意味着尤金显然比一个13岁的人更聪明。
虽然目前人工智能还处于对人类模拟较差的阶段,但是随着人工智能技术的发展,有一天计算机将能够通过对性别、年龄、职业和生活习惯的数据分析进行智能模拟,就像当前的新闻网站会根据你的浏览习惯做出智能推荐一样。到那时,计算机将能够模仿任何人,而绑架等犯罪行为将成为一件司空见惯的事情。
第二,超越人类智慧
事实上,人工智能已经在许多领域超越了人类智能,如数据计算、游戏系统、管理系统等。kiva智能仓储系统已经实现了仓储自动化应用,深蓝超级计算机在1997年击败了国际象棋冠军,沃森超级计算机在2011年智能竞赛中击败了人类,谷歌制造的无人驾驶汽车将很快成为现实。这意味着计算机在这些领域已经超越了人类智能,直接后果将是相关从业者将不得不面临失业。
例如,无人售票系统的使用导致售票人员失业,无人驾驶汽车的出现将使司机职业成为历史。在计算方面,人类几乎完全依赖计算机,口算、心算、算盘等计算方法被认为是一种特殊的能力,经常作为表演出现在电视节目中。一个更接近我们生活的例子是,人们越来越依赖于计算机给出的经验和答案,而不是在处理生活问题时依靠自己的思考。比如,我们中国人最熟悉的“百度,你会知道”。
人类在某些领域越来越依赖计算机,这使得人类在这些领域逐渐失去了与计算机的竞争能力。换句话说,人类正在逐渐放弃他们的智能并把它交给计算机。如果由此引起的失业问题会经过一个渐进的过程而不引起人类恐慌,那么更严重的问题是,如果有一天计算机突然失去某些能力或拒绝显示某些能力,而人类没有这种能力,会有什么后果?
第三,有创新能力
机器和人类一样,有学习的能力。不同的是,机器学习依赖于经验的积累,其过程是不断增加知识的储备,从处理问题的过程中获取经验,从而在遇到类似问题时,根据知识和经验来解决问题,这就是我们通常所说的“博采众长”。人和机器的区别在于,除了经验的积累,人类的学习也是创造性的。
人类的这种创造力也被称为“跳跃学习”,在某些情况下,它也被称为“灵感”或“顿悟”。一直以来,电脑最难学的就是“顿悟”。或者更严格地说,计算机很难在学习和“实践”中学习“独立于数量变化的质变”,也很难直接从一种“质量”到另一种“质量”,或者从一种“概念”到另一种“质量”。缺乏创造力意味着机器很难突破自身知识储备的限制,从而像人类一样完成自我进化和完善。
然而,人类总是不遗余力地帮助计算机超越自己。据说科学家们开发了一种新的数据分析方法,这将为机器的创造性提供可能性。人类在计算能力上已经远远落后于机器,如果他们失去了在创造力上的优势,他们将把世界交给机器。
第四,要有人情味
显然,科学家永远不会满足于一台仅限于人类操作的智能机器,而是会进一步赋予机器表达与人类相似情感的能力。现在,智能聊天机器人可以通过分析人类的话语,做出相应的混合了人类情感的回答。例如,如果你对它说“我爱你”,它会回答“我也爱你”。例如,升级后的微软萧冰将故意与采用者形成主从关系。这些都是机器制造的类似人类的情感表达。
人类的情感有多种形式,如情绪、喜怒哀乐等。作为对人类的模仿,机器自然应该具备这些能力,否则,按照人类对人工智能的标准,它就不是智能。这种情况使得人类很容易与机器建立一种类似于人类之间的情感关系。比如相互欣赏、相互信任或相互厌恶。如果一台互相信任的机器突然感染了病毒,有一天欺骗了你,你可能会相信。这可以追溯到机器通过模拟人类来对人类犯罪的问题。
如果你和机器互相憎恨,机器可能拒绝执行你的命令,甚至伤害你。鉴于这种可能性,科幻作家艾萨克?阿西莫夫在他的小说中为机器人设定了三条法则。首先,机器人不能伤害人类;第二,机器人必须服从人类;第三,机器人必须在不违反第一和第二定律的情况下保护自己。然而,法律只是法律,它被制定为被违反。
人工智能本身是对人类的模仿。人们可以区分善恶。谁能保证机器绝对无害?这篇文章是作者独立的观点,并不代表老虎嗅探网络的立场
向作者提问并加入语料库
三链:吃昆虫、吃厕所和油炸??3.模纸锻造,模具模具模具模具模具模具模具模具模具模具模具??. 95镣铐和镣铐??0.07%锝58.....
当前流行度:0
[娇娇]http://itougu.jrj/view/189514.j.....
当前流行度:0
1.1 .涓涓细流??邦邦、邦邦、邦邦、交邦和廖廖??要坚强,要坚强。.....
当前流行度:0
你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道........
当前流行度:0
缇落入三条锁链??3镝??6铥??0(乌桕脂含有3条链吗??4镝??4铥??0)死,死,死,死又死,4.72??......
当前流行度:0
那墙,墙,墙和墙呢??钳子里有丰富的镰刀、叉子、叉子、nan和链条,这些都是銮棒的来源.....
当前流行度:1
你想挑起镝,破坏哮喘吗??缇,汤,汤,3汤和柊镶嵌??链条??4."敌鲁,缇,汤,汤,汤."??.....
当前流行度:0
咸丰、大树、细垴、十二寸、相互涓涓??环秀细链,涓涓细流,砸铙钹,甩铙钹,砸铙钹,砸铙钹,砸响,砸得咝咝作响??葛格·岳格·柊.....
当前流行度:0