微软在开发AI模型时泄露了38TB敏感数据

网络知识 2023-09-19 11:31www.1681989.comseo网站推广
        微软最近的数据泄露突出了人工智能模型培训过程中的安全风险和挑战。由于Azure平台的共享浏览签名令牌错误应用,这一事件发生在GitHub公共存储库上(SAS),导致38TB私人数据泄露。
微软的人工智能研究人员在GitHub上共享文件,包括用于图像识别的开源代码和人工智能模型。,SAS令牌的风险在于缺乏监控和管理,无法跟踪和操作。这使得微软的数据曝光了几年多,严重危及了数据的安全。
除了AI模型训练的数据外,微软还泄露了包括“秘密”在内的两个员工工作站的硬盘备份、超过3000个内部Microsoft的个人加密密钥、密码及其359名微软员工 Teams信息。在微软于2023年6月24日取消危险SAS令牌之前,总共有38TB的私人文档可能会被任何人浏览。
由于缺乏监控和整改,这一事件突出了SAS令牌的安全风险。Wiz强调,SAS令牌的应用应该尽可能有限,因为微软没有提供根据Azure门户进行集中管理的形式。
,SAS令牌可以配置为“实际上是永久有效的”,使其应用无法跟踪和控制。第一个微软提交给它的人工智能 GitHub存储库令牌于2020年7月20日增加,有效期一直持续到2021年10月5日。然后增加了第二个令牌,有效期为2051年10月6日。
        简而言之,微软的多TB数据泄露突出了人工智能模型培训的风险。这些尖端技术必须进行大规模的数据实践,许多开发团队需要解决大量的数据,与同行分享数据,或参与公共开源项目的合作。,微软事件越来越难以监控和预防,需要更强的安全措施和协调来确保数据的安全和隐私保护。

Copyright © 2016-2025 www.1681989.com 推火网 版权所有 Power by