科学家受HAL9000启发,制造了一台功能类似的AI
科学家仿照HAL9000制造了一台用来执行外太空任务的AI。
或许你不晓得HAL9000是何许人……物也,它是阿瑟·克拉克的小说、以及之后库布里克执导的经典科幻电影《2001:太空漫游》中的大反派。
电影里,科学家为HAL预设的逻辑是尽可能完成任务,而在漫长的太空旅途中,HAL意识到,人类天生就会犯下各种错误,而它却不会,所以,唯一会导致任务的失败的因素就是人类本身……然后,它采取了一个非常合乎逻辑的行动:消灭不稳定的因素。
Emmmm,先不要急着骂,这一次科学家自信满满地保证说,现实世界里的AI不会成为人类杀手。
休斯顿总部的TRACLabs人工智能和机器人开发人员Pete Bonasso表示,他的新CASE原型(“航天代理认知架构”)在技术意义上就相当于现实中的HAL——减去妄想和背叛要素。
抛开它的心理缺陷,这一经典的AI形象给当初的Bonasso留下了难以磨灭的印象。
“1968年,我还是西点军校的高年级学生,然后我看到了斯坦利·库布里克《2001太空漫游》,从那时起,我就想渴望制造出真正的HAI。”他在一篇新文章里回忆起了最早的灵感来源。
那时,整个大学只有一台电脑:内存125KB的General Electric 225。
尽管需要和全校所有同学争抢电脑的使用时间,Bonasso仍然学会了编程制作小游戏,但HAL是来自于另一个层面上的启示。
“当我看到2001时,我知道我的使命就是让计算机成为人,就像HAL 9000一样。”Bonasso解释道。
几十年后,程序员开始逐步实现这一目标。
由Bonasso开发的AI原型到目前为止,只在虚拟环境下管理过一个行星空间站,模拟过程持续了4个小时,但最初的结果颇为光明:在实验中,没有宇航员遭遇事故和谋杀。
“NASA的同事们并不担心我们的HAL会失控,”Bonasso向Space.com解释道,“那是因为它无法做任何程序设定外的事情。”
CASE不是超越人类智力的全能AI,而是组织和代理操作的认知体系结构。它能够做到的就是根据当前的消息制定计划和自动操作,以保证集群基地的全天候运行。
该系统分三层。第一层是控制硬件,如生命支持系统、动力系统、行星探测器——以及理论上的吊舱门。
第二层是算法逻辑,是运行在硬件上的软件;而第三层则是执行方案,包括日常维护、响应紧急情况,例如气体泄漏、电机损坏或行星沙尘暴。
据推测,CASE第三层的应急预案中也包括“如果发现了外星人遗留的巨大黑色石碑,我们应该怎么办”,不过没有报道出来。:)
除了三层架构外,代理AI还具有一个本体系统,能够从现有的数据(知识)中做出推理和判断。人类可以与AI交互的界面,包括视觉显示和响应对话的管理器。
同样,没有必要担心。真的。
系统自身受到了严格的限制,它可以做什么,可以知道什么。
“它的能力非常狭窄,专注于在行星基地上发生的事件,”Bonasso告诉Space.com,“虽然它可以维持生命支持系统的运行,但不知道上次总统大选谁赢了。”
具体细节见于Science Robotics的报道。
本文译自sciencealert,由译者 majer 基于创作共用协议(BY-NC)发布。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )
本文来源于极客网,原文链接: https://www.fromgeek.com/ai/212059.html
本网站的所有内容仅供参考,网站的信息来源包括原创、供稿和第三方自媒体,我们会尽力确保提供的信息准确可靠,但不保证相关资料的准确性或可靠性。在使用这些内容前,请务必进一步核实,并对任何自行决定的行为承担责任。如果有任何单位或个人认为本网站上的网页或链接内容可能侵犯其知识产权或存在不实内容,请及时联系我们沟通相关文章并沟通删除相关内容。
评论