À medida que a IA avança, todos nós temos um papel a desempenhar para desbloquear o impacto positivo da IA para organizações e comunidades em todo o mundo. それが私たちが顧客がAIを使用し、作成するのを助けることに焦点を当てている理由です信頼性のあるつまり、AI安全, 保護されたそしてプライベート.
Na Microsoft, temos compromissos em garantir uma IA confiável e estamos criando tecnologia de suporte de ponta. Nossos compromissos e recursos andam de mãos dadas para garantir que nossos clientes e desenvolvedores estejam protegidos em todas as camadas.
これまでの取り組みを踏まえ、本日、新たなリソースAI システムの安全性、セキュリティ、プライバシーを強化する製品。
安全。セキュリティはマイクロソフトにとって最優先事項であり、安全な未来への取り組み(SFI)は、当社の全社的な取り組みと、お客様の満足度向上に向けた責任を強調するものです。保険。今週、私たちは最初のSFI進捗報告, destacando atualizações que abrangem cultura, governança, tecnologia e operações. Isso cumpre nossa promessa de priorizar a segurança acima de tudo e é guiado por três princípios: seguro por design, seguro por padrão e operações seguras. Além de nossas ofertas primárias, Microsoft Defender と Purview, nossos serviços de IA possuem controles de segurança básicos, como funções internas para ajudar a evitar injeções imediatas e violações de direitos autorais. Com base neles, hoje estamos anunciando dois novos recursos: Além de nossas ofertas primárias, Microsoft Defender と Purview, nossos serviços de IA possuem controles de segurança básicos, como funções internas para ajudar a evitar injeções imediatas e violações de direitos autorais. Com base neles, hoje estamos anunciando dois novos recursos:
- レビューいいえAzure AI スタジオ積極的なリスク分析をサポートします。
- Microsoft 365 Copilotは以下を提供しますウェブクエリの透明性 para ajudar administradores e usuários a entender melhor como a pesquisa na Web aprimora a resposta do Copilot. Disponível em breve.
Nossos recursos de segurança já estão sendo usados pelos clientes.カミンズエンジン製造とクリーンエネルギー技術の開発で知られる105年の歴史を持つ企業である。Microsoft Purviewに頼る para fortalecer sua segurança e governança de dados, automatizando a classificação, marcação e rotulagem de dados.EPAMシステムソフトウェアエンジニアリングおよびビジネスコンサルティング会社であるは、マイクロソフト365 Copilot para 300 usuários por causa da proteção de dados que eles recebem da Microsoft. J.T. Sodano, Diretor Sênior de TI, compartilhou que “estávamos muito mais confiantes com o Copilot para Microsoft 365, em comparação com outros LLMs (grandes modelos de linguagem), porque sabemos que as mesmas políticas de proteção de dados e informações que configuramos no Microsoft の権限 se aplicam ao Copilot.
安全。セキュリティとプライバシーを含む、より広範な原則マイクロソフトの責任ある AI, estabelecidos em 2018, continuam a orientar como criamos e implantamos IA com segurança em toda a empresa. Na prática, isso significa construir, testar e monitorar adequadamente sistemas para evitar comportamentos indesejáveis, como conteúdo prejudicial, viés, uso indevido e outros riscos não intencionais. Ao longo dos anos, fizemos investimentos significativos na construção da estrutura de governança, políticas, ferramentas e processos necessários para defender esses princípios e construir e implantar a IA com segurança. Na Microsoft, estamos comprometidos em compartilhar nossos aprendizados nesta jornada de defesa de nossos princípios de IA Responsável com nossos clientes. Usamos nossas próprias práticas recomendadas e aprendizados para fornecer às pessoas e organizações recursos e ferramentas para criar aplicativos de IA que compartilham os mesmos altos padrões pelos quais nos esforçamos.
本日、AI のリスクを軽減しながら AI のメリットをお客様に実現していただくための新しい機能をご紹介します。
- リソース訂正の na funcionalidade de detecção de grounding do Microsoft Azure AI Content Safety que ajuda a corrigir problemas de alucinação em tempo real antes que os usuários os vejam.
- 埋め込みコンテンツのセキュリティ, que permite que os clientes insiram o Azure AI Content Safety em dispositivos. Isso é importante para cenários no dispositivo em que a conectividade de nuvem pode ser intermitente ou indisponível.
- 新しいレビュー no Azure AI Studio para ajudar os clientes a avaliar a qualidade e a relevância das saídas e a frequência com que seu aplicativo de IA gera material protegido.
- プログラミングのための保護された素材の検出 agora está em versão prévia no Azure AI Content Safety para ajudar a detectar conteúdo e código preexistentes. Esse recurso ajuda os desenvolvedores a explorar o código-fonte público em repositórios do GitHub, promovendo colaboração e transparência, ao mesmo tempo em que permite decisões de codificação mais informadas.
É incrível ver como os clientes de todos os setores já estão usando as soluções da Microsoft para criar aplicativos de IA mais seguros e confiáveis. Por exemplo, 団結、 uma plataforma para jogos 3D, usou o Microsoft Azure OpenAI Service para criar o Muse Chat, um assistente de IA que facilita o desenvolvimento de jogos. ミューズチャットはコンテンツフィルタリングモデルを使用していますAzure AI コンテンツ セーフティ para garantir o uso responsável do software. さらに、エイソス、約 900 のブランド パートナーを擁する英国を拠点とするファッション小売業者は、Azure AI Content Safety に組み込まれている同じコンテンツ フィルターを使用して、顧客が新しいスタイルを見つけるのに役立つ AI アプリケーションを通じて高品質のやり取りをサポートしました。
Também estamos vendo o impacto no espaço educacional.ニューヨーク市公立学校 fizeram parceria com a Microsoft para desenvolver um sistema de bate-papo seguro e apropriado para o contexto educacional, que agora estão testando nas escolas.南オーストラリア州教育省また、EdChat を通じて生成 AI を教室に導入し、同じインフラストラクチャを活用して生徒と教師の安全な使用を確保しました。
Privacidade.データはAIの核心であり、マイクロソフトの優先事項は、顧客データが保護され、コンプライアンスに準拠していることを保証することです。プライバシー原則 de longa data, que incluem controle do usuário, transparência e proteções legais e regulatórias. Para desenvolver isso, hoje estamos anunciando:
- 機密推論プレビュー中em nosso modelo Azure OpenAI Service Whisper, para que os clientes possam desenvolver aplicativos de IA generativa que dão suporte à privacidade verificável de ponta a ponta.秘密の推論 garante que os dados confidenciais do cliente permaneçam seguros e privados durante o processo de inferência, que é quando um modelo de IA treinado faz previsões ou decisões com base em novos dados. Isso é especialmente importante para setores altamente regulamentados, como saúde, serviços financeiros, varejo, manufatura e energia.
- Azure Confidential VMs の一般提供開始com GPU NVIDIA H100 Tensor Core, que permitem que os clientes protejam dados diretamente na GPU. Isso se baseia em nossas soluções de computação confidencial, que garantem que os dados do cliente permaneçam criptografados e protegidos em um ambiente seguro para que ninguém tenha acesso às informações ou ao sistema sem permissão.
- Azure OpenAI データゾーン para a União Europeia e os Estados Unidos estão chegando em breve e se baseiam na residência de dados existente fornecida pelo Azure OpenAI Service, facilitando o gerenciamento do processamento e armazenamento de dados de aplicativos de IA generativa. Essa nova funcionalidade oferece aos clientes a flexibilidade de dimensionar aplicativos de IA generativa em todas as regiões do Azure dentro de uma geografia, ao mesmo tempo em que lhes dá o controle do processamento e armazenamento de dados dentro da UE ou dos EUA.
アプリケーションセキュリティプロバイダーをはじめ、機密コンピューティングや機密GPUに対する顧客の関心が高まっています。F5, que está usando VMs confidenciais do Azure com GPUs NVIDIA H100 Tensor Core para criar soluções avançadas de segurança baseadas em IA, garantindo a confidencialidade dos dados que seus modelos estão analisando. そして多国籍銀行法人カナダロイヤル銀行 (赤血球) integrou a computação confidencial do Azure em sua própria plataforma para analisar dados criptografados, preservando a privacidade do cliente. Com a disponibilidade geral de VMs confidenciais do Azure com GPUs NVIDIA H100 Tensor Core, o RBC agora pode usar essas ferramentas avançadas de IA para trabalhar com mais eficiência e desenvolver modelos de IA mais poderosos.
信頼できるAIでより多くの成果を達成
Todos nós precisamos e esperamos por uma IA em que possamos confiar. Vimos o que é possível quando as pessoas são capacitadas para usar a IA de maneira confiável, desde 従業員の体験を充実させるそしてビジネスプロセスを改造するそれまで顧客エンゲージメントの改革そして私たちの生活を再考するcotidianas. と新機能que melhoram a segurança, a proteção e a privacidade, continuamos a permitir que os clientes usem e criem soluções de IA confiáveis que ajudam todas as pessoas e organizações do planeta a alcançar mais. Em última análise, a IA confiável abrange tudo o que fazemos na Microsoft e é essencial para nossa missão, pois trabalhamos para expandir oportunidades, ganhar confiança, proteger direitos fundamentais e promover a sustentabilidade em tudo o que fazemos.