随着人工智能的发展, 我们每个人都有一个角色要扮演,以解锁人工智能对全球组织和社区的积极影响. 这就是为什么我们专注于帮助客户使用和创建人工智能可靠的, 也就是说, 一个人工智能安全的, 受保护和私人的.
在微软, 我们致力于确保可靠的人工智能,并正在开发尖端支持技术. 我们的承诺和资源携手并进,以确保我们的客户和开发者在各个层面上都得到保护
基于我们的承诺, 我们今天宣布新的资源用于增强安全性的产品, 人工智能系统的保护和隐私
安全. 安全是我们在微软的首要任务, 和我们的安全未来倡议(SFI, 在英语中)扩展强调了整个公司的承诺以及我们感到的责任,使我们的客户更加保险. 本周, 我们宣布我们的第一个SFI 进度报告, 突出涵盖文化的更新, 治理, 技术与运营. 这履行了我们优先考虑安全的承诺,并遵循三个原则:设计安全, 默认安全和安全操作.除了我们的主要产品, Microsoft Defender 和 Purview, 我们的人工智能服务具有基本的安全控制, 作为内部功能以帮助防止即时注入和版权侵犯. 基于它们, 今天我们宣布两个新功能:除了我们的主要产品外, Microsoft Defender 和 Purview, 我们的人工智能服务具有基本的安全控制, 作为内部功能以帮助防止即时注入和版权侵犯. 基于它们, 今天我们宣布两个新功能
我们的安全资源已经被客户使用. 康明斯, 一家有105年历史的公司,以制造发动机和开发清洁能源技术而闻名, 转向 Microsoft Purview为了加强您的安全性和数据治理, 自动化分类, 数据标记和标签化. EPAM 系统, 一家软件工程和商业咨询公司, 植入微软 365Copilot 为 300 名用户提供服务,因为他们从微软那里获得数据保护. J.电视. 索达诺, 高级IT总监, 分享说“我们对Microsoft 365的Copilot更加自信, 与其他大型语言模型相比, 因为我们知道我们在设置的相同数据和信息保护政策微软权限适用于Copilot.”
安全包括安全和隐私, 更广泛的原则Microsoft 负责任的 AI, 成立于2018年, 继续指导我们如何在整个公司安全地创建和实施人工智能. 在实践中, 这意味着建设, 适当测试和监控系统以避免不良行为, 作为有害内容, 偏见, 不当使用和其他非故意风险. 多年来, 我们在建立治理结构方面进行了重大投资, 政策, 必要的工具和流程,以捍卫这些原则并安全地构建和部署人工智能. 在微软, 我们致力于与客户分享我们在捍卫负责任的人工智能原则的旅程中所获得的经验教训. 我们使用自己的最佳实践和经验,为个人和组织提供资源和工具,以创建符合我们所追求的高标准的人工智能应用程序
今天, 我们正在分享新功能,以帮助客户寻求人工智能的好处和, 同时, 减轻风险
- 资源修正在Microsoft Azure AI内容安全的基础检测功能中,帮助实时修正幻觉问题,以便用户在看到之前解决这些问题.
- 嵌入式内容安全, 允许客户将 Azure AI 内容安全性嵌入设备中. 这对于设备场景中的云连接可能间歇性或不可用的情况很重要.
- 新评论在Azure AI Studio中,帮助客户评估输出的质量和相关性,以及他们的AI应用程序生成受保护材料的频率.
- 检测受保护的材料以进行编程现在在Azure AI内容安全中处于预览版本,以帮助检测现有内容和代码. 该资源帮助开发者探索GitHub上公共代码库中的源代码, 促进合作与透明度, 同时允许更明智的编码决策
看到各个行业的客户已经在使用微软的解决方案来创建更安全、更可靠的人工智能应用程序,真是令人惊叹. 例如, 一个团结一个3D游戏平台, 使用 Microsoft Azure OpenAI 服务创建了 Muse Chat, 一个促进游戏开发的人工智能助手. Muse Chat使用内容过滤模型在Azure AI 内容安全为了确保软件的负责任使用. 此外, 一个ASOS一家总部位于英国的时尚零售商,拥有近900个品牌合作伙伴, 使用Azure AI内容安全中的相同内部内容过滤器,以通过一个帮助客户寻找新造型的AI应用程序支持高质量的互动
我们也在看到教育领域的影响. 纽约市公立学校与微软合作开发一个安全且适合教育环境的聊天系统, 现在正在学校进行测试. 南澳大利亚州教育部我还通过EdChat将生成性人工智能带入了课堂, 依靠相同的基础设施来确保学生和教师的安全使用
隐私. 数据是人工智能的基础, 微软的首要任务是帮助确保客户的数据通过我们的保护和合规性得到保障隐私原则长期以来, 包括用户控制, 透明度和法律及监管保护.为了发展这个, 今天我们宣布
- 机密推断预览中在我们的Azure OpenAI服务Whisper模型中, 以便客户能够开发支持端到端可验证隐私的生成性人工智能应用程序. 机密推论确保客户的机密数据在推理过程中保持安全和私密, 当一个训练好的人工智能模型根据新数据进行预测或决策时. 这对高度监管的行业尤其重要, 如健康, 金融服务, 零售, 制造与能源.
- Azure 机密 VM 正式上市com GPU NVIDIA H100 Tensor Core, 允许客户直接在GPU上保护数据. 这基于我们的保密计算解决方案, 确保客户数据在安全环境中保持加密和保护,以便没有人可以在未经许可的情况下访问信息或系统
- Azure OpenAI 数据区欧盟和美国即将到来,并基于Azure OpenAI服务提供的现有数据驻留, 简化生成性人工智能应用的数据处理和存储管理. 这个新功能为客户提供了在一个地理区域内在所有Azure区域扩展生成性AI应用的灵活性, 同时让他们控制在欧盟或美国的数据处理和存储
我们看到客户对保密计算的兴趣日益增长,对保密GPU的热情也在上升, 包括应用程序安全提供商F5, 正在使用 Azure 的保密虚拟机和 NVIDIA H100 Tensor Core GPU 创建基于 AI 的先进安全解决方案, 确保您模型正在分析的数据的机密性. 跨国银行公司加拿大皇家银行 (红细胞将Azure的保密计算集成到自己的平台中,以分析加密数据, 保护客户隐私. 随着Azure提供的NVIDIA H100 Tensor Core GPU的机密VM的普遍可用性, RBC现在可以使用这些先进的人工智能工具来更高效地工作并开发更强大的人工智能模型.
利用值得信赖的 AI 实现更多成就
我们都需要并期待一个可以信任的人工智能. 我们看到了当人们被赋予能力以可靠地使用人工智能时可能发生的事情, 从丰富员工体验和重塑业务流程直到重塑客户参与和重新想象我们的生活日常的. 与新功能提高安全性, 保护和隐私, 我们继续允许客户使用和创建可靠的人工智能解决方案,帮助全球所有人和组织实现更多目标.最终, 可信的人工智能涵盖了我们在微软所做的一切,并且对我们的使命至关重要, 因为我们致力于扩大机会, 获得信任, 保护基本权利并在我们所做的一切中促进可持续性