如何在工作场所为人工智能创造价值和道德
扫描二维码
随时随地手机看文章
(文章来源:教育新闻网)
技术的飞速发展,尤其是人工智能的飞速发展,将有能力改变组织的各个主要方面并提供前所未有的新机遇。使用AI只会成长为一个报告从BCG和MIT斯隆管理评论透露,高管85%的人宣称AI将提供他们的公司拥有竞争优势,而60%的受访者的AI策略,为他们的组织的迫切需要。
近年来,随着越来越多地使用AI驱动的自动化和机器人技术来执行传统任务,AI成为了许多涌入工作场所的企业的关注主题。但是,围绕人工智能开发和使用的道德操守仍然具有挑衅性,这为AI的全部潜力创造了重要的制约因素。
今年2月,美国国防部采用了人工智能的道德原则,该原则基于美国国防创新委员会去年提出的一系列AI道德准则。尽管对道德和法律影响的考虑对于国防组织来说并不陌生,但它们在AI工程团队中开始变得越来越普遍。在越来越多的企业积极应对其员工队伍中的多样性和包容性之际,这种技术的使用得到了广泛的接受。
报告表明,美国需要一支好奇心强,符合道德规范的AI员工队伍,他们需要协同工作以构建可靠的AI系统。这样,AI开发团队的成员需要就他们的工作对使用它们的战士的影响进行深入的讨论。为了有效,合乎道德地构建AI系统,国防组织必须鼓励一个合乎道德的,包容性的工作环境,并采购一支多样化的员工队伍。
该工作人员应包括好奇心专家,专注于人类需求和行为的专业团队,他们更有可能预见到与系统使用和管理不当相关的未经请求和意外的后果,并对这些后果提出棘手的问题。
根据一份研究报告,建立认知多样化的团队比认知相似的团队更快地解决问题。这也为创新和创造力的流动铺平了道路,最大程度地降低了同质创意浮出水面的风险。这意味着具有相似概念和相似教育背景的人由于共享偏见而更容易错过相同的问题,并且AI系统使用的数据也有偏见。因此,组织的偏见很可能会在公司提供的数据中普遍存在,并且使用该数据构建的AI系统将使该偏见永存。
但是,将一支由才华横溢,经验丰富的人组成的多元化劳动力聚集在一起,将加强围绕技术的道德操守。这将通过向使用该系统并受其影响的战斗人员灌输好奇心,同情心和理解力,从而进一步为工作场所的工作提供支持。因此,需要一种多元化,包容性的领导才能吸引和留住人才,以使企业成功。
此外,如果没有道德框架,人工智能将受到限制。在技术中创建道德框架将有助于组织支持项目团队做出更好,更自信的道德决策。但是,如果没有技术伦理,这将使项目团队更难以结盟,并且可能无意间跳过了重要的讨论。