人工智能(AI)正在迅速重塑商业世界,带来跨行业、跨公司范围的深刻变化。如今,几乎每个商业领域都受到这项技术的影响,而且这种影响持续增长。
然而,在所有机遇的背后,使用AI也伴随着相当大的风险。这些风险包括技术、声誉、监管和运营等方面的问题,可能导致供应链漏洞的利用,系统停机,凭证和个人信息被盗,无法遵守法律法规,以及品牌信任度下降。
随着我们对这些系统的依赖加深,企业和IT领导者——特别是首席信息官(CIO)、首席信息安全官(CISO)、首席技术官(CTO)和首席数据官(CDO)——必须增强他们对AI输出安全性的信任,同时确保其以维护强大安全态势的方式运行。
根据国际律师事务所BakerMcKenzie的一项调查,虽然76%的部署AI的公司已经建立了风险管理政策和程序,但仅有24%的高管认为这些政策“有些有效”。更重要的是,关于AI的风险也存在误解,仅有52%的人认为这些风险是相对显著的。
我将AI风险分为了四个核心领域:
风险类型 | 描述 |
---|---|
技术风险 | 包含AI/ML生命周期和供应链中的技术问题和漏洞。例如,流行的开源工具MLFlow曾遭受地方文件包含/远程文件包含攻击,可能导致系统完全接管。研究显示,超过80%的分析、大数据和AI工作负载在其供应链中包含开源软件资产。许多这些资产是从Hugging Face等库中下载的机器学习模型。在使用前很少进行扫描,导致这些模型容易受到攻击。 |
操作风险 | 随着AI和ML的演变和应用的增加,组织可能过于依赖这些工具,特别是在自动化任务中。如果缺乏足够的监督和控制,系统可能会表现得不可预测、不准确或干脆失败。可能导致的后果从小问题到灾难性故障不等,例如出现意外的生产错误、显著的停机时间甚至被指控歧视。 |
合规风险 | 政府机构和监管者正在加强对AI和ML的监管。欧盟制定了《欧盟人工智能法》,加拿大发布了《人工智能和数据法》,而拜登总统发布了关于AI的行政命令。这意味着,AI及其安全的监管即将到来。组织必须评估AI和ML在监管结构中的适应性,并采取适当措施以减轻合规风险。 |
声誉风险 | 组织的声誉通常是逐渐建立的,但也可能瞬间消失。当企业在客户面对的工作流程中依赖AI时,失败可能会导致品牌信任度的下降。例如,某金融机构如果使用了不当的机器人顾问,可能向投资者提供错误的信息,或在管理股票组合时出现失误,随之而来的媒体或社交网络的关注可能严重削弱客户信任,损害品牌形象。 |
降低风险的最佳实践包括以下几项重要原则:
Leave a Reply