在Rubrik的一周IPO上市文件中——在员工人数和成本报表的部分之间——透露了一条消息,揭示了这家数据管理公司如何思考生成式人工智能及伴随这项新技术的风险:Rubrik悄然设立了一个治理委员会,以监督人工智能在其业务中的实施。
根据Form S-1,该新的人工智能治理委员会包括来自Rubrik工程、产品、法律和信息安全团队的管理人员。这些团队将共同评估使用生成式人工智能工具可能带来的潜在法律、安全和商业风险,并考虑“可以采取的步骤来减轻这些风险”,文件中写道。
需要明确的是,Rubrik的核心不是一家人工智能公司——它唯一的人工智能产品是一款名为Ruby的聊天机器人,使用了Microsoft和OpenAI的API进行构建。但像许多其他公司一样,Rubrik(以及其现在和未来的投资者)正在考虑未来人工智能将在其业务中扮演越来越重要的角色。以下是我们应该期待更多类似举措的原因。
不断增加的监管审查
一些公司正在采用人工智能最佳实践积极主动行动,但其他公司将被像欧盟人工智能法案这样的审查推动着采取行动。
这项被称为“世界上第一部全面人工智能法律”的里程碑性立法——预计将于今年晚些时候在整个欧盟成为法律——禁止一些被视为带来“不可接受风险”的人工智能使用情景,并确定其他“高风险”应用。该法案还制定了旨在减少可能扩大伤害的风险的治理规则,这种风险评级方法可能会被寻求理性前进采用人工智能的公司广泛采纳。
隐私和数据保护律师Eduardo Ustaran是Hogan Lovells International LLP的合伙人,他预计欧盟人工智能法案及其众多义务将加大对人工智能治理需求的压力,这将进一步需要委员会。“除了在策略上制定并监督人工智能治理计划的角色外,从操作角度上看,人工智能治理委员会是解决和最小化风险的关键工具,”他说。“这是因为一个适当建立和资源充足的委员会应该能够预见到所有风险领域,并与企业一起处理它们在出现之前。在某种程度上,人工智能治理委员会将作为所有其他治理努力的基础,并提供急需的保证,以避免合规差距。”
在最近一篇有关欧盟人工智能法案对公司治理、ESG和合规影响的政策文件中,ESG和合规顾问Katharina Miller附和,建议公司建立人工智能治理委员会作为合规措施。
法律审查
合规并不仅仅是为了取悦监管机构。欧盟人工智能法案有力,而“不遵守AI法案的惩罚力度巨大,”英美律师事务所Norton Rose Fulbright指出。
其范围也超越了欧洲。 “在欧盟领土之外运营的公司,如果进行涉及欧盟用户或数据的人工智能相关活动,可能会受到AI法案的规定的约束,”该律所警告道。如果类似于GDPR,这项立法将在国际上产生影响,特别是在日益加强的欧美人工智能合作下。
人工智能工具可能会使公司陷入麻烦,超越人工智能立法。Rubrik拒绝与TechCrunch分享评论,可能是因为其IPO静默期,但该公司的文件提到,其人工智能治理委员会评估了各种风险。
选择标准和分析包括考虑使用生成式人工智能工具可能引发机密信息、个人数据和隐私、客户数据和合同义务、开源软件、版权和其他知识产权、透明度、输出准确性和可靠性,以及安全等问题。
请记住,Rubrik希望做好法律基础可能有多种其他原因。例如,也可以显示其负责地预期问题的能力,这是至关重要的,因为Rubrik先前不仅遇到过数据泄漏和黑客问题,还涉及知识产权诉讼。
视觉的问题
公司不仅会从风险防范的角度看待人工智能。他们和他们的客户不想错过的机会。这是实施生成式人工智能工具的一个原因,尽管存在明显的缺陷,比如“幻觉”(即有编造信息的倾向)。
公司需要在其中取得微妙的平衡。一方面,吹嘘他们使用人工智能可以提高公司估值,不管他们的用途有多真实或对其底线有多大影响。另一方面,他们将不得不让人们放心,避免潜在风险。
“我们处于人工智能发展的关键时刻,未来的人工智能高度取决于公众是否信任使用AI系统的公司,”隐私和安全软件提供商OneTrust的隐私顾问Adomas Siudika在一篇关于这个话题的博客文章中写道。
建立人工智能治理委员会很可能是尝试在信任方面提供帮助的一种方式。