AI가 발전함에 따라 우리 모두는 전 세계 조직과 커뮤니티에 AI가 미치는 긍정적인 영향을 여는 역할을 담당하고 있으며, 이것이 바로 고객이 AI를 사용하고 만들 수 있도록 돕는 데 주력하고 있는 이유입니다 신뢰받는즉, AI입니다 안전한, 보호된 그리고 개인.
Microsoft에서는 신뢰할 수있는 AI를 보장하겠다는 약속을하고 최첨단 지원 기술을 구축하고 있습니다.우리의 약속과 역량은 고객과 개발자가 모든 계층에서 보호받을 수 있도록 함께합니다.
우리의 약속을 바탕으로 오늘 새로운 약속을 발표합니다 자원 AI 시스템의 보안, 보호 및 개인 정보 보호를 강화하는 제품입니다.
보안. 보안은 Microsoft의 최우선 과제입니다 미래 안전 이니셔티브 (SFI, 영어로) 확장은 회사 전체의 약속과 고객을 더 많이 만들기 위해 우리가 느끼는 책임을 강조합니다 보험. 이번 주,첫 번째를 발표합니다 SFI 진행 보고서문화, 거버넌스, 기술 및 운영을 아우르는 업데이트를 강조하며, 이는 무엇보다도 보안을 우선시하겠다는 우리의 약속을 이행하며 세 가지 원칙을 따릅니다: 설계에 의한 보안, 기본에 의한 보안 및 보안 운영 마이크로소프트 디펜더와 퍼뷰, 우리의 AI 서비스는 기본적인 보안 제어, 즉 즉각적인 주입 및 저작권 위반을 방지 하는 데 도움이 내장 된 기능 등. 그들을 기반으로, 오늘 우리는 두 가지 새로운 기능을 발표 하 고 있습니다: 우리의 기본 제공 이외에, 우리는 마이크로소프트 디펜더와 퍼뷰, 우리의 AI 서비스는 기본적인 보안 제어, 즉 즉각적인 주입 및 저작권 위반을 방지 하는 데 도움이 내장 된 기능 등. 그들을 기반으로, 오늘 우리는 두 가지 새로운 기능을 발표 하 고 있습니다:
- 평가 no Azure AI Studio para dar suporte a análises de risco proativas.
- O Microsoft 365 Copilot fornecerá transparência nas consultas da Web para ajudar administradores e usuários a entender melhor como a pesquisa na Web aprimora a resposta do Copilot. Disponível em breve.
Nossos recursos de segurança já estão sendo usados pelos clientes. A Cummins, uma empresa de 105 anos conhecida por sua fabricação de motores e desenvolvimento de tecnologias de energia limpa, recorreu ao Microsoft Purview para fortalecer sua segurança e governança de dados, automatizando a classificação, marcação e rotulagem de dados. A EPAM Systems, uma empresa de engenharia de software e consultoria de negócios, implantou o Microsoft 365 Copilot para 300 usuários por causa da proteção de dados que eles recebem da Microsoft. J.T. Sodano, Diretor Sênior de TI, compartilhou que “estávamos muito mais confiantes com o Copilot para Microsoft 365, em comparação com outros LLMs (grandes modelos de linguagem), porque sabemos que as mesmas políticas de proteção de dados e informações que configuramos no Microsoft Purview se aplicam ao Copilot.”
보안. Incluindo segurança e privacidade, os princípios mais amplos de IA responsável da Microsoft, estabelecidos em 2018, continuam a orientar como criamos e implantamos IA com segurança em toda a empresa. Na prática, isso significa construir, testar e monitorar adequadamente sistemas para evitar comportamentos indesejáveis, como conteúdo prejudicial, viés, uso indevido e outros riscos não intencionais. Ao longo dos anos, fizemos investimentos significativos na construção da estrutura de governança, políticas, ferramentas e processos necessários para defender esses princípios e construir e implantar a IA com segurança. Na Microsoft, estamos comprometidos em compartilhar nossos aprendizados nesta jornada de defesa de nossos princípios de IA Responsável com nossos clientes. Usamos nossas próprias práticas recomendadas e aprendizados para fornecer às pessoas e organizações recursos e ferramentas para criar aplicativos de IA que compartilham os mesmos altos padrões pelos quais nos esforçamos.
Hoje, estamos compartilhando novos recursos para ajudar os clientes a buscar os benefícios da IA e, ao mesmo tempo, mitigar os riscos:
- Um recurso de correção na funcionalidade de detecção de grounding do Microsoft Azure AI Content Safety que ajuda a corrigir problemas de alucinação em tempo real antes que os usuários os vejam.
- Segurança de Conteúdo Embarcado, que permite que os clientes insiram o Azure AI Content Safety em dispositivos. Isso é importante para cenários no dispositivo em que a conectividade de nuvem pode ser intermitente ou indisponível.
- Novas avaliações no Azure AI Studio para ajudar os clientes a avaliar a qualidade e a relevância das saídas e a frequência com que seu aplicativo de IA gera material protegido.
- Detecção de material protegido para programação agora está em versão prévia no Azure AI Content Safety para ajudar a detectar conteúdo e código preexistentes. Esse recurso ajuda os desenvolvedores a explorar o código-fonte público em repositórios do GitHub, promovendo colaboração e transparência, ao mesmo tempo em que permite decisões de codificação mais informadas.
É incrível ver como os clientes de todos os setores já estão usando as soluções da Microsoft para criar aplicativos de IA mais seguros e confiáveis. Por exemplo, a Unity, uma plataforma para jogos 3D, usou o Microsoft Azure OpenAI Service para criar o Muse Chat, um assistente de IA que facilita o desenvolvimento de jogos. O Muse Chat usa modelos de filtragem de conteúdo no Azure AI Content Safety para garantir o uso responsável do software. Além disso, a ASOS, uma varejista de moda com sede no Reino Unido com quase 900 parceiros de marca, usou os mesmos filtros de conteúdo internos no Azure AI Content Safety para dar suporte a interações de alta qualidade por meio de um aplicativo de IA que ajuda os clientes a encontrar novos looks.
Também estamos vendo o impacto no espaço educacional. As Escolas Públicas da Cidade de Nova York fizeram parceria com a Microsoft para desenvolver um sistema de bate-papo seguro e apropriado para o contexto educacional, que agora estão testando nas escolas. O Departamento de Educação da Austrália do Sul também trouxe a IA generativa para a sala de aula com o EdChat, contando com a mesma infraestrutura para garantir o uso seguro para alunos e professores.
Privacidade. Os dados estão na base da IA, e a prioridade da Microsoft é ajudar a garantir que os dados do cliente sejam protegidos e compatíveis por meio de nossos princípios de privacidade de longa data, que incluem controle do usuário, transparência e proteções legais e regulatórias. Para desenvolver isso, hoje estamos anunciando:
- Inferência confidencial em versão prévia em nosso modelo Azure OpenAI Service Whisper, para que os clientes possam desenvolver aplicativos de IA generativa que dão suporte à privacidade verificável de ponta a ponta. A inferência confidencial garante que os dados confidenciais do cliente permaneçam seguros e privados durante o processo de inferência, que é quando um modelo de IA treinado faz previsões ou decisões com base em novos dados. Isso é especialmente importante para setores altamente regulamentados, como saúde, serviços financeiros, varejo, manufatura e energia.
- A disponibilidade geral de VMs Confidenciais do Azure com GPUs NVIDIA H100 Tensor Core, que permitem que os clientes protejam dados diretamente na GPU. Isso se baseia em nossas soluções de computação confidencial, que garantem que os dados do cliente permaneçam criptografados e protegidos em um ambiente seguro para que ninguém tenha acesso às informações ou ao sistema sem permissão.
- Azure OpenAI Data Zones para a União Europeia e os Estados Unidos estão chegando em breve e se baseiam na residência de dados existente fornecida pelo Azure OpenAI Service, facilitando o gerenciamento do processamento e armazenamento de dados de aplicativos de IA generativa. Essa nova funcionalidade oferece aos clientes a flexibilidade de dimensionar aplicativos de IA generativa em todas as regiões do Azure dentro de uma geografia, ao mesmo tempo em que lhes dá o controle do processamento e armazenamento de dados dentro da UE ou dos EUA.
Vimos um crescente interesse dos clientes em computação confidencial e entusiasmo por GPUs confidenciais, inclusive do provedor de segurança de aplicativos F5, que está usando VMs confidenciais do Azure com GPUs NVIDIA H100 Tensor Core para criar soluções avançadas de segurança baseadas em IA, garantindo a confidencialidade dos dados que seus modelos estão analisando. E a corporação bancária multinacional Royal Bank of Canada (RBC) integrou a computação confidencial do Azure em sua própria plataforma para analisar dados criptografados, preservando a privacidade do cliente. Com a disponibilidade geral de VMs confidenciais do Azure com GPUs NVIDIA H100 Tensor Core, o RBC agora pode usar essas ferramentas avançadas de IA para trabalhar com mais eficiência e desenvolver modelos de IA mais poderosos.
Alcance mais com IA confiável
Todos nós precisamos e esperamos por uma IA em que possamos confiar. Vimos o que é possível quando as pessoas são capacitadas para usar a IA de maneira confiável, desde enriquecer as experiências dos funcionários 그리고 remodelar os processos de negócios até reinventar o envolvimento do cliente 그리고 reimaginar nossas vidas cotidianas. Com novos recursos que melhoram a segurança, a proteção e a privacidade, continuamos a permitir que os clientes usem e criem soluções de IA confiáveis que ajudam todas as pessoas e organizações do planeta a alcançar mais. Em última análise, a IA confiável abrange tudo o que fazemos na Microsoft e é essencial para nossa missão, pois trabalhamos para expandir oportunidades, ganhar confiança, proteger direitos fundamentais e promover a sustentabilidade em tudo o que fazemos.