À mesure que l'IA progresse, nous avons tous un rôle à jouer pour débloquer l'impact positif de l'IA pour les organisations et les communautés à travers le monde. C'est pourquoi nous sommes concentrés sur l'aide aux clients pour utiliser et créer de l'IAfiable, c'est-à-dire, une IAsûr, protégéetprivé.
Chez Microsoft, nous avons des engagements à garantir une IA fiable et nous développons une technologie de soutien de pointe. Nos engagements et nos ressources vont de pair pour garantir que nos clients et développeurs soient protégés à tous les niveaux
Sur la base de nos engagements, nous annonçons aujourd'hui de nouveauxressourcesde produits pour renforcer la sécurité, protection et vie privée des systèmes d'IA
Sécurité. La sécurité est notre principale priorité chez Microsoft, et notreInitiative pour un avenir sûr(SFI, en anglais) élargie souligne les engagements de toute l'entreprise et la responsabilité que nous ressentons de rendre nos clients plusassurance. Cette semaine, nous annonçons notre premierRapport d'étape du SFI, mettant en avant des mises à jour qui couvrent la culture, gouvernance, technologie et opérations. Cela respecte notre promesse de prioriser la sécurité avant tout et est guidé par trois principes : sécurisé par conception, sécurisé par défaut et opérations sécurisées.En plus de nos offres principales, Microsoft Defender et Purview, nos services d'IA disposent de contrôles de sécurité de base, comme des fonctions internes pour aider à éviter les injections immédiates et les violations de droits d'auteur. Sur la base de ceux-ci, aujourd'hui nous annonçons deux nouvelles fonctionnalités : En plus de nos offres principales, Microsoft Defender et Purview, nos services d'IA disposent de contrôles de sécurité de base, comme des fonctions internes pour aider à éviter les injections immédiates et les violations de droits d'auteur. Sur la base de ceux-ci, aujourd'hui nous annonçons deux nouvelles fonctionnalités
- AvisNonAzure AI Studiopour soutenir des analyses de risque proactives
- Microsoft 365 Copilot fourniratransparence dans les requêtes Webpour aider les administrateurs et les utilisateurs à mieux comprendre comment la recherche sur le Web améliore la réponse du Copilot.Disponible bientôt
Nos ressources de sécurité sont déjà utilisées par les clients. Un Cummins, une entreprise de 105 ans connue pour sa fabrication de moteurs et le développement de technologies d'énergie propre, s'est tourné vers Microsoft Purviewpour renforcer votre sécurité et gouvernance des données, automatiser la classification, marquage et étiquetage des données. Un système EPAM, une entreprise d'ingénierie logicielle et de conseil en affaires, implantaou Microsoft 365Copilot pour 300 utilisateurs en raison de la protection des données qu'ils reçoivent de Microsoft. J.T. Sodano, Directeur Senior des TI, a partagé que "nous étions beaucoup plus confiants avec le Copilot pour Microsoft 365, en comparaison avec d'autres LLMs (grands modèles de langage), parce que nous savons que les mêmes politiques de protection des données et des informations que nous avons configurées dans leMicrosoft Purviews'appliquent au Copilot.”
SécuritéY compris la sécurité et la confidentialité, les principes les plus larges deIA responsable de Microsoft, établis en 2018, ils continuent à orienter comment nous créons et déployons l'IA en toute sécurité dans toute l'entreprise. Dans la pratique, cela signifie construire, tester et surveiller correctement les systèmes pour éviter des comportements indésirables, comme contenu nuisible, biais, utilisation abusive et autres risques non intentionnels. Au fil des ans, nous avons réalisé des investissements significatifs dans la construction de la structure de gouvernance, politiques, outils et processus nécessaires pour défendre ces principes et construire et déployer l'IA en toute sécurité. Chez Microsoft, nous sommes engagés à partager nos apprentissages dans ce parcours de défense de nos principes d'IA Responsable avec nos clients. Nous utilisons nos propres meilleures pratiques et apprentissages pour fournir aux personnes et aux organisations des ressources et des outils afin de créer des applications d'IA qui partagent les mêmes normes élevées auxquelles nous aspirons
Aujourd'hui, nous partageons de nouvelles ressources pour aider les clients à tirer parti des avantages de l'IA et, en même temps, atténuer les risques
- Une ressourcede correctiondans la fonctionnalité de détection de grounding de Microsoft Azure AI Content Safety qui aide à corriger les problèmes d'hallucination en temps réel avant que les utilisateurs ne les voient.
- Sécurité du contenu intégré, qui permet aux clients d'intégrer Azure AI Content Safety dans des appareils. C'est important pour les scénarios sur l'appareil où la connectivité cloud peut être intermittente ou indisponible.
- Nouveaux avisdans Azure AI Studio pour aider les clients à évaluer la qualité et la pertinence des sorties et la fréquence à laquelle leur application d'IA génère du matériel protégé.
- Détection de matériel protégé pour la programmationmaintenant en version préliminaire sur Azure AI Content Safety pour aider à détecter le contenu et le code préexistants. Cette ressource aide les développeurs à explorer le code source public dans les dépôts GitHub, promouvoir la collaboration et la transparence, tout en permettant des décisions de codage plus éclairées
Il est incroyable de voir comment les clients de tous les secteurs utilisent déjà les solutions de Microsoft pour créer des applications d'IA plus sûres et fiables. Par exemple, une unitéune plateforme pour des jeux 3D, a utilisé le service Microsoft Azure OpenAI pour créer le Muse Chat, un assistant IA qui facilite le développement de jeux. Le Muse Chat utilise des modèles de filtrage de contenu dansSécurité du contenu Azure AIpour garantir l'utilisation responsable du logiciel. De plus, unASOSun détaillant de mode basé au Royaume-Uni avec près de 900 partenaires de marque, a utilisé les mêmes filtres de contenu internes dans Azure AI Content Safety pour soutenir des interactions de haute qualité via une application d'IA qui aide les clients à trouver de nouveaux looks
Nous constatons également l'impact dans le domaine éducatif. Écoles publiques de la ville de New Yorkils ont établi un partenariat avec Microsoft pour développer un système de chat sécurisé et approprié au contexte éducatif, qu'ils testent maintenant dans les écoles. Le ministère de l'Éducation de l'Australie du Sudj'ai également introduit l'IA générative dans la salle de classe avec EdChat, en comptant sur la même infrastructure pour garantir une utilisation sûre pour les élèves et les enseignants
Confidentialité. Les données sont à la base de l'IA, et la priorité de Microsoft est d'aider à garantir que les données des clients soient protégées et conformes grâce à nosprincipes de confidentialitéde longue date, qui incluent le contrôle de l'utilisateur, transparence et protections légales et réglementaires.Pour développer cela, aujourd'hui nous annonçons
- Inférence confidentielleen avant-premièredans notre modèle Azure OpenAI Service Whisper, pour que les clients puissent développer des applications d'IA générative qui soutiennent la confidentialité vérifiable de bout en bout. L'inférence confidentiellegarantit que les données confidentielles du client restent sécurisées et privées pendant le processus d'inférence, c'est quand un modèle d'IA entraîné fait des prévisions ou des décisions sur la base de nouvelles données. C'est particulièrement important pour les secteurs hautement réglementés, comme santé, services financiers, vente au détail, manufacture et énergie.
- Disponibilité générale des machines virtuelles Azure Confidentialavec GPU NVIDIA H100 Tensor Core, qui permettent aux clients de protéger des données directement sur le GPU. Cela repose sur nos solutions de calcul confidentiel, qui garantissent que les données du client restent cryptées et protégées dans un environnement sécurisé afin que personne n'ait accès aux informations ou au système sans autorisation
- Zones de données Azure OpenAIpour l'Union européenne et les États-Unis arrivent bientôt et se basent sur la résidence des données existante fournie par le service Azure OpenAI, facilitant la gestion du traitement et du stockage des données des applications d'IA générative. Cette nouvelle fonctionnalité offre aux clients la flexibilité de dimensionner des applications d'IA générative dans toutes les régions d'Azure au sein d'une géographie, tout en leur donnant le contrôle du traitement et du stockage des données au sein de l'UE ou des États-Unis
Nous avons constaté un intérêt croissant des clients pour l'informatique confidentielle et un enthousiasme pour les GPU confidentiels, y compris le fournisseur de sécurité des applicationsF5, qui utilise des VM confidentielles Azure avec des GPU NVIDIA H100 Tensor Core pour créer des solutions de sécurité avancées basées sur l'IA, garantissant la confidentialité des données que vos modèles analysent. Et la corporation bancaire multinationaleBanque Royale du Canada (RBCintégré l'informatique confidentielle d'Azure dans sa propre plateforme pour analyser des données chiffrées, préservant la vie privée du client. Avec la disponibilité générale des VM confidentielles Azure avec des GPU NVIDIA H100 Tensor Core, le RBC peut désormais utiliser ces outils avancés d'IA pour travailler plus efficacement et développer des modèles d'IA plus puissants.
Réalisez davantage avec une IA de confiance
Nous avons tous besoin et espérons une IA en laquelle nous pouvons avoir confiance. Nous avons vu ce qui est possible lorsque les gens sont habilités à utiliser l'IA de manière fiable, depuisenrichir l'expérience des employésetremodeler les processus d'affairesjusqu'àréinventer l'engagement clientetréimaginer nos viesquotidiennes. Avecnouvelles fonctionnalitésqui améliorent la sécurité, la protection et la vie privée, nous continuons à permettre aux clients d'utiliser et de créer des solutions d'IA fiables qui aident toutes les personnes et organisations de la planète à réaliser davantage.En fin de compte, L'IA fiable englobe tout ce que nous faisons chez Microsoft et est essentielle à notre mission, car nous travaillons à élargir les opportunités, gagner confiance, protéger les droits fondamentaux et promouvoir la durabilité dans tout ce que nous faisons