为了保护人工智能(AI)投资符合每个组织的最大利益,需要采取安全措施来应对威胁。
安全和隐私问题是采用AI时的主要障碍,因为良性和恶意的行为者都有可能对AI模型和数据的性能、公平性、安全性和隐私性进行威胁。
随着AI变得越来越流行,并且对其承诺了一系列好处,企业们不能忽视这一点。事实上,在最近的2020年Gartner新兴技术炒作周期中,有三分之一以上的技术都与AI相关。然而,AI也有一个阴暗面,因为目前的机器学习和AI平台市场还没有提供一致或全面的保护工具来保护组织。这意味着每个组织都需要独立进行保护。更糟糕的是,根据Gartner的一项调查,消费者认为,使用或提供AI的组织在出现错误时应承担责任。
实施应对威胁的安全措施以保护AI投资符合每个组织的利益。威胁和攻击对AI不仅造成安全和数据方面的损害,还会影响模型的性能和结果。
攻击者通常以两种方式对AI进行攻击,但技术专家可以采取措施来减轻这些威胁。在此之前,让我们先探讨AI的三个主要风险。
人工智能的安全、责任和社会风险
使用AI的组织面临三种风险。随着AI越来越普及并嵌入到关键的企业运营中,安全风险正在增加。例如,自动驾驶汽车的AI模型可能存在导致致命事故的错误。
由于使用涉及敏感客户数据的AI模型越来越多地影响到客户的决策,责任风险也在增加。例如,错误的AI信用评分可能会阻碍消费者获得贷款,从而导致财务和声誉损失。
本站所有软件信息均由用户上传发布,版权归原著所有。如有侵权/违规内容,敬请来信告知邮箱:764327034@qq.com,我们将及时撤销! 转载请注明出处:https://czxurui.com/zx/59177.html
发表回复
评论列表(0条)