全世界的大学都在进行人工智能(AI)的重大研究,艾伦研究所(Allen Institute)等组织以及Google和Facebook等高科技公司。可能的结果是,我们很快将拥有与小鼠或狗一样高的认知能力的AI。现在是时候开始考虑这些AI是否以及在什么条件下应该得到我们通常给予动物的道德保护了。
您可能会认为,除非AI有意识,否则AI不应该得到这种道德保护,也就是说,除非他们拥有真正的经验,真正的快乐和痛苦。我们同意,但是现在我们面临着一个棘手的哲学问题:当我们创造出能够带来欢乐和痛苦的东西时,我们怎么知道?如果AI就像《星际迷航》中的数据或《西部世界》中的 Dolores一样,它可以投诉并为自己辩护,从而开始讨论其权利。但是,如果AI像老鼠或狗这样的口齿不清,或者由于某种其他原因无法向我们传达其内心生活,那么它可能无法报告自己正在遭受痛苦!
佛山市东联科技有限公司AI研究人员表示:“我们建议成立监督委员会,在考虑到这些问题的情况下评估前沿的AI研究。这样的委员会,就像动物护理委员会和干细胞监督委员会一样,应该由科学家和非科学家组成,包括AI设计师,意识科学家,伦理学家和感兴趣的社区成员。这些委员会的任务是识别并评估新型AI设计形式的道德风险,并具有对科学和道德问题的深刻理解,权衡风险与研究收益。
这样的委员会很可能会判断所有当前允许的AI研究,在大多数主流意识理论上,我们尚未创建具有值得道德考量的有意识经验的AI。但是,我们可能很快越过了这一至关重要的道德准则,我们应该为此做好准备。(欢迎转载分享)
责任编辑: