近日,关于ChatGPT存在的安全风险引起了广泛关注。意大利宣布禁止使用ChatGPT后,加拿大也开始调查OpenAI的数据安全问题。
人工智能技术的发展对网络安全是一把“双刃剑”,需要用新的技术伦理来引领政策和法律的制定。同时,这也是企业创新和超越的机会。
数据安全问题引起了大家的关注。意大利个人数据保护局于3月31日宣布禁止使用ChatGPT,并启动了立案调查。紧随其后,加拿大的隐私专员办公室也展开了调查。为了回应这些监管声音,OpenAI在4月5日发表了题为《我们保障AI安全的方法》的文章,介绍了他们确保AI模型安全性的部署。
专家表示,人工智能的快速发展对现有的生产体系、社会组织架构和社会关系结构都带来了深刻的冲击,带来了难以预测和防范的非传统风险。因此,我们需要以全局的视角去综合研判数据安全问题,并加强政策引导和立法规范。
我国高度重视数字技术的发展,并关注人工智能发展过程中的风险和问题。工业和信息化部等十六个部门于2023年1月发布了《关于促进数据安全产业发展的指导意见》,提出要加强核心技术攻关,构建若干省部级及以上的数据安全重点实验室,并培育具有国际竞争力的企业。
为了充分利用人工智能这把“双刃剑”,A股上市公司已经积极进行相关技术储备和业务布局。一些公司表示,他们将加大对类ChatGPT的大模型技术在网络安全领域的研究投入。另一些公司则表示,他们将持续进行网络安全和云计算等领域的技术创新。
人工智能的快速发展让底层技术、业务逻辑以及未来的场景生态和产业生态都面临深刻的变革。能够通过创新赢得先发优势的企业将把握住下一个红利期。
本站所有软件信息均由用户上传发布,版权归原著所有。如有侵权/违规内容,敬请来信告知邮箱:764327034@qq.com,我们将及时撤销! 转载请注明出处:https://czxurui.com/zx/101467.html
发表回复
评论列表(0条)