作者 吴国平 北京市隆安律师事务所
人工智能的发展,已经由语音识别、图像识别向场景、模式识别以及自我决策甚至自我感知发展,已经有科院团队从事机器拥有自我意识的研究,并且取得了一定的进展,在不远的将来,一切将成为现实。或许未来的我们,再次回首今天我们讨论的问题时,就会发现此时的我们是多么的幼稚。如同刚刚出生的新生儿,我们正在小心翼翼地培育AI,充满期待但是又对它的未来毫无概念。正是因为如此,各个专业的研究人员分别从各自不同的角度展示出了对未来的焦虑。
事实上,AI项目的最隐秘也是最危险的应用领域还在于军事领域,因为任何商业实体用于AI项目的研发投入能力都无法与一个国家的经济实力相比,美国公开的信息显示将很快推出基于人工智能的F35无人战斗机,但是因为军事领域的AI项目是以战争为目的,或者更直接的说是以破坏对方的军事设施、毁灭对方的战斗人员为目的,但是对军事领域AI项目进行伦理审查又涉及战争与伦理的关系,远远超过对商业行为进行审查的范围,因此本文所讨论的范围仅限于商业主体以商业目的开发的人工智能项目。
与传统的伦理问题不同,对AI项目的伦理审查因为涉及众多计算机问题,因而并非单纯的伦理学能够独自解决的问题,因为涉及伦理、公共政策、计算机科学以及法律问题,因此需要程序员、法律专家、政治学家和伦理学家共同参与才能完成。缺少任何一个环节,就可能造成误解和偏差,事实上,我们发现,现有的研究已经显现出这样的问题。
以自动驾驶的研究为例,有机构在网站上(http://moralmachine.mit.edu/hl/zh)针对自动驾驶的伦理风险发起了问卷测试,如下图所示,测试者分别选取了四种场景,每种自动驾驶车辆的选择都会导致部分人员或者宠物死亡。测试结果显示,接受调查的人员点击提交的结果分别显示了不同的社会价值偏好、年龄偏好、性别偏好、财富偏好和动物偏好。
研究者通过上述调查发现,在多数和少数人中间,倾向于保护多数人的生命,在保护乘客还是保护行人中间倾向于中立,伦理学研究者通过上述调查试图解释自动驾驶程序设计者在面对上述图例的“两难困境”时可能会通过算法的设定并最终导致有悖伦理的事故,特别是上述算法的设定是通过AI模式实现时,这种伦理性的审查会显得格外必要。在上述伦理学研究者的角度,接受调查问卷的群体之所以接受牺牲少数人换取更多人的程序设计,是因为人们会无意识地将生命的价值进行简单的加法计算,尽管这本身是否合乎伦理就值得探讨,毕竟个体生命的价值是不能通过数学的方法进行衡量的,但是伦理学研究者提出上述调查的意义就在于,它将AI项
相关知识
动物实验伦理审查的内容
徐州医科大学实验动物福利伦理审查指南
南京中医药大学南京中医药大学动物实验伦理审查流程
『分享』医疗器械临床试验的伦理审查要点
中检院实验动物福利伦理审查指导原则
需要伦理的人工智能应用——读 于江生著《人工智能伦理》
信创环境下的人工智能应用与伦理考量
动物伦理审批
动物实验伦理申请与审查流程
实验动物伦理审查流程 科研处
网址: 人工智能项目的伦理审查 https://m.mcbbbk.com/newsview465727.html
上一篇: 快商通人工智能营销客服 |
下一篇: 人工智能时代 短评 |