随着人工智能的不断发展,我们每个人都在发挥作用,以释放人工智能对全球组织和社区的积极影响。 这就是为什么我们专注于帮助客户使用和创建人工智能可靠的也就是人工智能安全的, 受保护和私人的.
在微软,我们承诺确保人工智能的可靠性,并且正在开发尖端的支持技术。 我们的承诺和资源携手合作,确保我们的客户和开发者在各个层面都受到保护。
基于我们的承诺,我们今天宣布新的资源的产品以加强人工智能系统的安全性、保密性和隐私性。
安全。安全是 Microsoft 的首要任务,我们的安全未来倡议(SFI)强调了我们全公司的承诺和我们让客户更加保险。本周我们宣布了我们的第一个SFI 进度报告,强调涵盖文化、治理、技术和运营的更新。 这符合我们优先保障安全的承诺,并以三个原则为指导:设计安全、默认安全和安全操作。除了我们的主要优惠之外,Microsoft Defender 和 Purview我们的人工智能服务具有基本的安全控制措施,例如内部功能,以帮助防止即时注入和版权侵犯。 根据它们,今天我们宣布两个新功能:除了我们的主要产品外,Microsoft Defender 和 Purview我们的人工智能服务具有基本的安全控制措施,例如内部功能,以帮助防止即时注入和版权侵犯。 根据它们,今天我们宣布两个新功能:
我们的安全资源已经被客户使用。康明斯是一家拥有 105 年历史的公司,以发动机制造和清洁能源技术开发而闻名,转向 Microsoft Purview为了加强您的数据安全和治理,自动化数据的分类、标记和标签。EPAM 系统是一家软件工程和商业咨询公司,实施了微软 365由于微软提供的数据保护,Copilot 适用于300个用户。 J.T. Sodano,微软365的高级IT主管,分享说:“我们对Copilot的信心远高于其他大型语言模型(LLMs),因为我们知道我们在配置数据和信息保护政策方面采用了相同的措施。”微软权限适用于Copilot。
安全。包括安全和隐私在内的更广泛的原则Microsoft 负责任的 AI自2018年制定以来,仍然指导我们如何在整个公司中安全地创建和部署人工智能。 实际上,这意味着要适当构建、测试和监控系统,以避免不良行为,如有害内容、偏见、滥用以及其他意外风险。 多年来,我们在建立治理结构、政策、工具和流程方面进行了大量投资,以捍卫这些原则,并安全地构建和部署人工智能。 在微软,我们致力于与客户分享我们在捍卫负责任人工智能原则的旅程中的学习经验。 我们使用我们自己的最佳实践和经验教训,为个人和组织提供资源和工具,以创建符合我们追求的高标准的人工智能应用程序。
今天,我们将分享新功能,帮助客户实现人工智能的好处,同时降低风险:
- 资源修正在Microsoft Azure AI内容安全的接地检测功能中,帮助在用户看到之前实时纠正幻觉问题。
- 嵌入式内容安全允许客户在设备中集成Azure AI内容安全。 这对于设备场景非常重要,在这些场景中,云连接可能会间歇性或不可用。
- 新评论在Azure AI Studio中帮助客户评估输出的质量和相关性,以及其AI应用程序生成受保护内容的频率。
- 检测受保护的材料以进行编程现在在Azure AI内容安全的预览版中,旨在帮助检测现有的内容和代码。 此功能帮助开发者探索GitHub仓库中的开源代码,促进协作与透明度,同时也使编码决策更加明智。
看到各行业的客户已经开始使用微软的解决方案来创建更安全、更可靠的人工智能应用,令人难以置信。 例如,团结,一个用于3D游戏的平台,使用微软Azure OpenAI服务创建了Muse Chat,一个便于游戏开发的人工智能助手。 Muse Chat使用内容过滤模型在Azure AI 内容安全以确保软件的负责任使用。 此外,ASOS,一家拥有近 900 个品牌合作伙伴的英国时尚零售商,使用 Azure AI Content Safety 中相同的内置内容过滤器,通过 AI 应用程序支持高质量交互,帮助客户找到新外观。
我们也在看到教育领域的影响。纽约市公立学校他们与微软合作开发了一个安全且适合教育环境的聊天系统,目前正在学校进行测试。南澳大利亚州教育部还通过 EdChat 将生成式人工智能带入课堂,依靠相同的基础设施确保学生和教师的安全使用。
隐私。数据是人工智能的核心,微软的首要任务是通过我们的隐私原则长期以来,包括用户控制、透明度以及法律和监管保护。为了实现这一点,今天我们宣布:
- 机密推断预览中在我们的Azure OpenAI服务Whisper模型中,客户可以开发支持端到端可验证隐私的生成式AI应用程序。机密推论确保客户的机密数据在推理过程中保持安全和私密,即当经过训练的人工智能模型根据新数据进行预测或决策时。 这对于高度受监管的行业尤为重要,如医疗、金融服务、零售、制造和能源。
- Azure 机密 VM 正式上市com GPU NVIDIA H100 Tensor Core允许客户在GPU上直接保护数据。 这基于我们的机密计算解决方案,确保客户的数据在安全环境中保持加密和保护,未经许可无人可以访问信息或系统。
- Azure OpenAI 数据区对于欧盟和美国来说,预计很快就会到来,并且基于由Azure OpenAI服务提供的现有数据驻留,方便管理生成式人工智能应用的数据处理和存储。 此新功能为客户提供了在一个地理区域内的所有Azure区域中扩展生成式AI应用的灵活性,同时让他们控制在欧盟或美国内的数据处理和存储。
我们看到客户对机密计算的兴趣和对机密 GPU 的热情日益高涨,其中包括来自应用安全提供商的客户F5,正在使用带有NVIDIA H100 Tensor Core GPU的Azure机密虚拟机,创建基于人工智能的先进安全解决方案,确保模型分析的数据的机密性。 跨国银行公司加拿大皇家银行 (红细胞将Azure的机密计算集成到自己的平台中,以分析加密数据,保护客户隐私。 随着Azure机密虚拟机(VM)配备NVIDIA H100 Tensor Core GPU的全面可用,RBC现在可以利用这些先进的人工智能工具,更高效地工作并开发更强大的人工智能模型。
利用值得信赖的 AI 实现更多成就
我们都需要并期待一种我们可以信赖的人工智能。 我们看到了当人们被赋予可靠使用人工智能的能力时可能实现的事情,从丰富员工体验和重塑业务流程直到重塑客户参与和重新想象我们的生活日常。 与新功能我们不断改进安全性、保护和隐私,继续允许客户使用和创建可靠的人工智能解决方案,帮助地球上的所有人和组织实现更多。最终,可靠的人工智能涵盖了我们在微软所做的一切,并且对我们的使命至关重要,因为我们致力于扩大机会、赢得信任、保护基本权利以及促进我们所做一切的可持续性。