人工智能伦理规范的制定是人工智能研究领域的重大议题,大多数人都遵循一种"理想规则主义"的设计思路。然而,这种思路在理论上无法成立,在实践中会带来更大风险,其深层预设是看待人工智能的工具主义态度。实际上,基于因果推理模型的人工智能具有真正意义上的自主性,有充分的理由被赋予道德主体的资格。因此,设置一种关系性规则才能更好地处理人工智能的伦理问题,这要求它们能够为自己的行为负责,而重要条件就是人工智能主体拥有一定程度的产权。
人工智能道德主体; 儒家伦理规范; 理想规则主义; 关系性规则;
来 源:《文史哲》2020年第2期。