澳大利亚新闻网 - 澳大利亚新闻 - 澳大利亚中国新闻门户 | Australia Chinese News Portal

 找回密码

搜索
ACNW QR CODE
ACNW WECHAT QR CODE

未来人工智能中的显学:道德哲学

2016-2-10 10:50| 发布者: angie | 评论: 0 |来自: 网络

导读: 我们会需要信任,才能与我们创造出来拯救全人类的科技超人们彼此共存。


今年六月,日本电讯巨头 SoftBank 推出一款机器人 Pepper(link is external),生产商声称它的应用将会十分多元,包括护理、育儿,甚至是充当派对的嘉宾角色。Pepper 配备有镜头、传感器及重力加速度传感器,让它能与人进行交流、追踪人类情感并产生属于自己的「情感」。

人工智能可能构成人类最大的存在威胁

虽然 Pepper 这类具有人工智能的机器人还处于初步阶段,但经已引起学界及业界对人工智能发展的关注。科学界过去对人工智能发展上的一些忧虑鲜有理会,往往认为是很遥远的事;不过这种情况正逐步改变。部份科学家已发声指出人工智能有可能危害人类,著名的理论物理学家霍金(link is external)早前就向《英国广播公司》 (BBC) 表示全面的人工智能发展将可能导致人类的灭亡。

今年初,霍金及数以百名人工智能的研究员签署公开信,表示若业界再不为人工智能建立保护措施,它将招致人类的灭亡。另一位签署公开信的电动车公司 Tesla 的行政总裁 Elon Musk(link is external) 甚至拨出一千万美金给此项目,并表示人工智能可能构成人类最大的存在威胁。

道德哲学将成为一项重要的产业板块

而在本月初的 "Big Think" 节目3加州柏克莱分校的计算机科学教授、也是蜚声国际的人工智能专家 Stuart Russell(link is external),就探讨了这一火热议题,并认为道德哲学将成为这行的一项重要产业板块。


乔治亚机器人与智能系统 (GRITS) 实验室所开发的 Nao 人形机器人,主打友伴功能,也曾参加过 RoboCup 机器人足球联赛。

他认为人类重视价值的天性及人类作出道德考虑的过程将会成为「价值观公司」( values company ) 一项重大的商机,因为机器人日后除了做一般家庭事务,如煮饭、清洁及洗衣外,还会处理更多「人」的项目——他甚至已能想象有朝一日机器人能照料小孩。假设机器人公司会从一个价值观公司取得机器人的程序默认值,再装到机器人身上;果真这样的话,价值观公司将化身科技界一个不可或缺的环节。

Russell 看好价值观公司的前景在于,没有人希望发生机器人在厨房缺乏食物的情况下,误将家猫烹煮给饿透了的幼童吃的不幸事件。故此,他认为机器人生产商无可避免将会运用大量的价值观数据,来默认一个理想家居的机器人。

Russell 同样签署了公开信。他表示直至目前为止,人工智能的发展都全都集中让机器人作出「高质量」决策的能力。然而我们仍不知道如何让机器人具有人类的价值观。但 Russell 对此事颇为乐观,并认为在某种意义上说,机器人存在的目的是要帮助我们明白自身的价值,这可能让人类变得更好。

当前发展 AI 机器人的困难


《机器人伦理学:机器人带来的伦理与社会冲击》

Patrick Lin(link isexternal) 是加州州立理工大学哲学副教授兼史丹福大学法律学院「网络与社会中心」合聘学者,他参与政府和业界对科技伦理的研究工作,曾于2014 年出版《机器人伦理学》一书。

他本月初于《华盛顿邮报》(link is external)撰文6,指出目前「机器人的行动应该像人类一样」的假设有着两个问题。第一个问题是,人类对自身该如行动都不是很清楚了,那帮机器人编写道德程序根本就是在给一个我们不知道正确答案的答案。其次是,如若人工智能最终比我们更有能力的话,这将意味着它会有不同的道德责任,那也就不能按照我们的道德标准去编写机器人的行为程序了。

当我们讨论如何将道德伦理注入人工智能,目前至少面对这两个问题。首先,要怎么替机器人编写程序?假设机器人现在要替我们的家人开车,它应该以遵循法律为先?还是保障乘客安全为先?要尽量减低意外所造成的伤亡?还是仅是在出问题时剎停车辆就好?这些设定都是合理的,但有时候它们之间存在冲突。

举例说,一辆自动驾驶汽车有时候或许需要违法、又或以乘客的安全去换取路上其他行人的安全。而正确的决定,不论它是怎样的一个决定,都必然是建基于人类价值上的一种道德原则,而这不是单靠科学家与工程师的聪明才智就能解决的议题。

这个问题会导致另外一个两难问题。自动车配备持续传感器及网络连结性的知觉能力,它能作出比我们更快的觉察及反应。此外它的行为是预先设定好的,也就是说连允许撞车的决策都是预先编写好的,这便陷入一个让人进退两难的困境。因为如果是由人驾驶车辆发生事故,司机在反应不及的瞬间作出糟糕的决定,那整个事件会被认定成是一个可以被原谅的意外。若换成人工智能,情况却完全不同——因它所作出的不是反应而已,而是一种预谋 (premeditated)。


机器人的伦理学会走向何方?该走向何方?

Lin 认为这绝非只是一个哲学问题,而对我们有着真正的影响:一个由人「意外地」造成的意外和由计算机系统「有预谋的」造成的意外,两者将会有完全不同的法律责任。正如《蜘蛛人》漫画中所说的「能力越强、责任越大」,科技创造出来的超级英雄会有什么样不同的道德与法律责任?这将是在发展人工智能时需要去处理的一个重要议题。

我们对人工智能的恐惧只是反映出我们对人类自身的恐惧:我们了解人类是什么样的物种,我们会担心人工智能可能会犯了同样错误。但 Lin 认为既然我们能够教导下一代去做正确的事,我们同样可以透过在设计中加入伦理考虑的方式,避免我们所忧虑的人工智能悲剧。文章最后指出,伦理学 ( Ethics ) 可以创造(价值与行动的)透通性 (transparency),而透通性能带来信任。

相关阅读

热门新闻 Hot
关闭

友情推荐上一条 /2 下一条

手机版|Archiver| 澳洲新闻在线  

Copyright © 2012 - 2020 | All Rights Reserved.

Powered by Website Design Sydney

返回顶部