|
Post by account_disabled on Mar 21, 2024 18:00:50 GMT 10
各个阶层,并最终渗透到技术本身。人工智能伦理委员会的作用和管辖范围根据的说法,人工智能道德委员会可以是您组织中的一个新实体,也可以是您分配责任的现有机构。如果您的组织规模很大,您可能需要多个委员会。从高层来看,该委员会的作用很简单:系统、全面地识别并帮助减轻内部开发或从第三方供应商购买的人工智能产品的道德风险。当产品和采购团队提交人工智能解决方案提案时,委员会必须确认该解决方案不会带来严重的道德风险;建议对其进行更改,一旦采用,请再次审查或建议不要开发或完全收购该解决方案。需要检查的一个重要问题是委员会将拥有多少权力。如果不需要咨询,而只是推荐,那么只有一小部分团队可能是一小部分)会这样做。并且只有该子集中的一个子集将包含委员会的建议。这是有风险的。如果道德健全是公司价值金字塔的顶端,那么赋予委员会否决提案的权力是个好主意。这将确保您对公司产生真正的影响。此外,您可以通过定期表彰员工来加强委员会的工作,无论是非正式的例如,在会议上问候)还是正式的可能通过晋升),以真诚地维护和加强人工智能道德标准。 当委员会被赋予实权时,它会在员工、客户、消费者和其他公司利益相关者例如政府)之间建立极大的信任,特别是如果组织对委员会的运作保持透明,尽管在他们的具体决策方面并非如此。然而,那些不准备向内部委员会授予这种权力,但认真考虑在道德上降低人工 亚美尼亚电话号码列表 智能风险的公司可以找到一个中间立场。他们可以允许高级管理人员很可能是高级管理层中的某个人)凌驾于委员会之上,从而允许他们的组织承担他们认为值得的道德风险。谁需要加入您的人工智能伦理委员会?为什么?伦理学家:这些人可能是拥有伦理学博士学位的人,或者是拥有刑事司法伦理学硕士学位的人或者无论你所在的行业是什么)。然而,他们并不能就公司的道德规范做出决定。他们在那里是因为他们拥有理解和检测各种道德风险所需的培训、知识和经验,熟悉有助于明确道德审议的概念和区别,并且善于帮助团体客观评估风险。问题。这并不意味着您需要全职伦理学家,而是您可以在适当的时候请他们进来并与他们协商。律师:由于技术工具不足以解决偏见问题,法律允许的往往成为重要的考虑因素。 当然,律师比任何人都更有能力弄清楚,为了公平起见而使用对不同子群体有不同影响的特定指标是否可以被视为法律规定的歧视。但律师也可以帮助确定使用技术工具来评估公平性是否合法。反歧视法可能会禁止这种做法,该法不允许在广泛的决策中考虑与受保护类别相关的变量数据。商业策略师:人工智能的预期财务回报因用途而异,业务风险也不同已向客户做出承诺并签署合同)。道德风险的程度和类型也各不相同,解决这些风险的策略以及这些策略所需的时间和金钱投资也各不相同。因此,采取什么缓解策略、何时采取、由谁执行等,都是商业考虑因素。虽然我倾向于优先考虑识别和减轻道德风险,但我必须承认,在某些情况下,这种风险足够小,而其他业务风险足够大,因此采取谨慎的方法来管理它是合理的。尽管如此,在委员会中拥有一位能够牢牢掌握公司需求的人本身就是商业上的必要条件。技术专家:虽然我已经解释了技术专家不能做什么,但我也必须承认他们可以做什么:帮助其他人了解人工智能模型的技术基础、各种风险缓解策略成功的可能性,以及其中一些策略是否可行。
|
|