中新网12月2日电 据香港《大公报》二日援引外电报道,美国军方计划制造无法像人类士兵那样犯战争罪的机器人士兵,五角大楼已经聘请英国科学家协助完成这一任务。
美国陆军和海军聘请了精通制造机器的伦理问题方面的专家,以防止制造出“未来战士”式的不懂是非、不加区别地杀人的机器。
二○一二年前,美国将投资四十亿美元研究“自主系统”,“自主系统”是军方用来称呼机器人的术语。这个自主系统的基础,是机器人不会像前线士兵那样有恐惧和有复仇欲望。
美国海军已聘请一名搞机器人研究的英国专家,为他们提供制造机器人方面的建议,确保机器人不会违犯日内瓦公约。
印第安纳大学科学哲学家科林-艾伦,刚出版了一本书,叫做《道德机器:教导机器人分清是非》。他说:“他们希望得到回答的问题,是我们能否制造遵守战争法律的自动机器。我们能否利用伦理理论来帮助设计这些机器?”
机器可比人类更道德
有关伊拉克战争产生的作战压力研究,使五角大楼首脑们颇伤脑筋。研究显示,比例很高的前线士兵都支持对敌军俘虏施加酷刑和惩罚。
替美国陆军设计软件的佐治亚理工学院计算机科学家罗讷德-阿金写了一份报告,报告认为机器人“在战场可以比人类士兵更遵守道德”。
他说,机器人“不需要保护自己”,以及可以把机器人“设计成没有情绪,从而不会导致它们判断失误,或导致它们对进行中的战斗感到愤怒和沮丧”。
美国已在伊拉克和阿富汗使用无人驾驶飞机,还使用机器人车辆来拆除路边炸弹和其它土制爆炸装置。上月,美国陆军收到一件新货,它是由英国防务公司QinetiQ一个美国附属公司制造的新机器人。该机器人懂得使用各种东西,包括小豆袋、胡椒喷粉、高爆炸力榴弹和七点六二口径机关枪。但这代机器人全都是由人类遥控的。
研究者现正研究“机器人士兵”,它们可以辨认目标、武器,区分敌人部队例如坦克或武装士兵,以及软目标例如救护车和平民。机器人士兵的软件,将含有各种作战规则,这些规则都遵守日内瓦公约,会告诉机器人何时开火。
艾伦博士对当局想尽早解决道德方面的困境表示赞赏。他说:“我们应该开始考虑这些问题了──如何把伦理理论输入软件,确保机器人行为正确,而不是等到已为时太晚才做这类事情。”
图片报道 | 更多>> |
|
- [个唱]范范个唱 张韶涵助阵破不和传言
- [情感]男子街头菜刀劫持女友
- [电影]《非诚勿扰》片花
- [国际]乌克兰议员在国会比试拳脚
- [娱乐]庾澄庆说没与伊能静离婚
- [星光]小S台北性感代言
- [八卦]江语晨与周杰伦绯闻成焦点
- [科教]南极科考雪龙船遭遇强气旋