课程: 管理者的负责任 AI
免费学习该课程!
今天就开通帐号,24,200 门业界名师课程任您挑!
减少偏见和风险
HR 和法律团队必须全面评估、 审核与审计劳动力管理工具, 防止它们延续或放大偏见, 或增加公司风险。 但责任不仅停留在高管团队, 中层管理者的日常领导方式 也可能随时受到 AI 决策的影响。 从招聘到绩效管理,再到学习、 参与度和留任率, AI 系统中可能随时会出现偏见。 例子很多,来看其中两个。 首先是情感识别 AI。 密歇根大学的学者近期发现, 在美国有超过 50% 的大型企业 使用此类 AI。 它能从面部表情、 声音模式和语调中 识别和预测人类情感。 这些数据可以用来了解职场文化, 预测业绩、发展需求、 参与度、生产力和活动模式。 但由于不同身份、能力、 文化和背景的人在情感上存在固有差异, 这类 AI 可能会无意中 放大对边缘化员工的偏见与污名, 让他们在种族、性别、心理健康、 社会地位和残障情况等方面受到影响。 研究还发现,近 40% 的参与者 担心雇主可能会轻信 AI 给出的错误推论, 进而做出不公正的就业决定。 第二是 AI 招聘软件。 42% 的公司在招聘过程中使用 AI。 此类软件出现偏见的一个主要原因 是训练数据。 如果数据反映了现有的偏见, AI 很可能会延续这些偏见。 例如,如果一个 AI 系统 以特定人群的简历为主要训练数据, 它可能会不公平地偏爱这类候选人, 而对其他人不利, 这种偏爱可能出于特定的年龄、 性别、种族等。 如果 AI 工具发现 优秀员工拥有特定的教育背景, 它可能会不顾个人能力和潜力, 不公平地优先考虑来自这些学校的候选人。 或者某个AI系统会给那些 住在顶尖大学和知名公司附近的候选人 打出高分,系统会假设这些地方 能代表更高的技能和工作表现。 那么,领导者如何建立信任、透明度、 包容性和参与度呢? 我有四条建议。 提升 AI 的素养和意识, 学习如何识别偏见及影响。 如果在 AI 决策中发现了偏见, 一定要详细记录下来, 包括具体示例、 模式和对员工的潜在影响。 通知 HR 这些偏见,并跟进解决办法。 如果员工受到影响, 告诉他们公司正在采取措施, 确保它们符合负责任使用 AI 的政策。 鼓励员工讨论他们的观察、经验和担忧, 并报告自己在 AI 系统中发现的偏见。 最后,虽然这个时代的工作变革是由 AI 驱动的,但必须由人类指导。 所以,要发挥人性的特点, 不要让 AI 系统替代了人类的智慧 和洞察力。
随堂练习,边学边练
下载课堂讲义。学练结合,紧跟进度,轻松巩固知识。