课程: 生成式 AI 时代的科技伦理
帮助高管层指导负责任的人工智能
CEO 和高管层在建立 负责任的人工智能文化方面扮演重要角色。 他们通过建立最佳实践和原则来定调, 确保每个人都在制定伦理决策方面有参与感。 前面讨论了莎拉在部署 人工智能聊天机器人时遇到的困境。 如果要在那种情况下为高管提建议, 可以采取这些做法。 首先,务必制定负责任的 人工智能政策和治理框架。 这应该是一份高管声明, 表达了企业要如何设计和管理人工智能技术, 并说明如何制定伦理决策、 保护隐私,如何专注于消除或减少偏见。 例如,高管可以强制要求使用 不同数据集来训练人工智能工具, 要求始终将聊天机器人标识为人工智能, 而不是冒充人类客服。 这些指导原则打造了一套共同价值观, 从数据科学家到主管再到一线员工, 都可以用它来评估和指导人工智能部署。 然后,建议高管为所有人提供 甚至强制安排负责任的人工智能培训。 对人工智能工具采取 一种民主化的决策方法非常有用, 它可以整合业务知识、 现场和一线服务领域, 帮助培训和开发内部模型。 在莎拉的例子中, 她依靠拥有多年直接客服经验的客服人员, 来解决消费者难题, 从而验证人工智能模型给出的建议。 让客服人员了解模型的局限性 可以提高反馈质量。 然后,高管层应坚持在所有技术中 构建符合伦理的人工智能元素,并定期审核。 他们应确定客户满意度等具体指标, 建立定期报告机制, 确保人工智能实践符合负责任的 人工智能原则。 举个例子。 企业可以举办月度站会, 让技术高管为企业高管层 展示上个月遇到的伦理挑战。 这将开启与高管层的对话, 让他们了解并记下正在进行的干预措施, 让产品更符合伦理。 和其他行业的安全实践一样, 这可以让符合伦理的人工智能开发 成为一种共同的社会责任, 并将这种责任落实到每个人。 最后,高管层可以考虑聘请 首席人工智能伦理官。 企业可以设立一个高级职位, 专门负责人工智能伦理, 制定并监督负责任的人工智能实践, 同时作为其他部门的中央审计部门。 他们应该了解业务、 技术和客户体验之间的交集, 让技术开发与伦理审查达到一种平衡, 确保社区的声音也被听到, 从而在开发早期就发现潜在风险。 高管层要在全公司为负责任的 人工智能定下基调,制定有力政策, 提供适当培训,建立监控和报告机制, 尽可能设立专门负责人工智能伦理的职位。 高管层应在负责任的人工智能方面 担起指导责任, 以建立注重伦理决策的文化 并贯彻到优秀新产品的部署中。