DébutArticlesMicrosoft Trustworthy AI : Libérer le potentiel humain commence par la confiance

Microsoft Trustworthy AI : Libérer le potentiel humain commence par la confiance

À mesure que l'IA progresse, nous avons tous un rôle à jouer pour libérer l'impact positif de l'IA sur les organisations et les communautés du monde entier. C'est pourquoi nous sommes concentrés sur l'aide aux clients pour utiliser et créer de l'IAfiable, c'est-à-dire une IAsûrprotégéetprivé.  

Chez Microsoft, nous nous engageons à garantir une IA fiable et nous développons une technologie de support de pointe. Nos engagements et ressources vont de pair pour garantir que nos clients et développeurs soient protégés à toutes les couches.

Forts de nos engagements, nous annonçons aujourd’hui de nouvellesressourcesde produits visant à renforcer la sécurité, la sûreté et la confidentialité des systèmes d’IA.

Sécurité.La sécurité est notre priorité absolue chez Microsoft, et notreInitiative pour un avenir sûr(SFI) souligne nos engagements à l'échelle de l'entreprise et la responsabilité que nous ressentons de rendre nos clients plusassurance. Cette semaine, nous avons annoncé notre premierRapport d'étape du SFI, mettant en avant des mises à jour couvrant la culture, la gouvernance, la technologie et les opérations. Cela respecte notre promesse de privilégier la sécurité avant tout et est guidée par trois principes : sécurisé par conception, sécurisé par défaut et opérations sûres.En plus de nos offres principales,Microsoft Defender et PurviewNos nossos serviços de IA, possuímos controles de segurança básicos, como funções internas para ajudar a evitar injeções imediatas e violações de direitos autorais. Sur la base de celles-ci, aujourd'hui, nous annonçons deux nouvelles fonctionnalités : En plus de nos offres principales,Microsoft Defender et PurviewNos nossos serviços de IA, possuímos controles de segurança básicos, como funções internas para ajudar a evitar injeções imediatas e violações de direitos autorais. Sur la base de celles-ci, nous annonçons aujourd'hui deux nouvelles fonctionnalités :

  • AvisNonAzure AI Studiopour soutenir l’analyse proactive des risques.
  • Microsoft 365 Copilot fourniratransparence dans les requêtes Webpour aider les administrateurs et les utilisateurs à mieux comprendre comment la recherche sur le Web améliore la réponse de Copilot.Bientôt disponible.

Nos ressources de sécurité sont déjà utilisées par les clients.Un Cummins, une entreprise de 105 ans connue pour la fabrication de moteurs et le développement de technologies d'énergie propre,s'est tourné vers Microsoft Purviewpour renforcer votre sécurité et votre gouvernance des données, en automatisant la classification, l'étiquetage et le marquage des données.Un système EPAM, une société d'ingénierie logicielle et de conseil aux entreprises, a mis en œuvreou Microsoft 365Copilot pour 300 utilisateurs en raison de la protection des données qu'ils reçoivent de Microsoft. J.T. Sodano, Directeur principal des TI, a partagé que « nous étions beaucoup plus confiants avec le Copilot pour Microsoft 365, par rapport à d'autres grands modèles de langage (LLM), parce que nous savons que les mêmes politiques de protection des données et des informations que nous avons configurées dans »Microsoft Purviews'appliquent au Copilot.

Sécurité.Y compris la sécurité et la confidentialité, les principes plus larges deIA responsable de Microsoft, établis en 2018, continuent à guider la manière dont nous créons et déployons une IA en toute sécurité dans toute l'entreprise. En pratique, cela signifie construire, tester et surveiller adéquatement les systèmes pour éviter les comportements indésirables, tels que le contenu nuisible, les biais, l'utilisation abusive et d'autres risques non intentionnels. Au fil des ans, nous avons investi de manière significative dans la construction de la structure de gouvernance, des politiques, des outils et des processus nécessaires pour défendre ces principes et construire et déployer l'IA en toute sécurité. Chez Microsoft, nous nous engageons à partager nos apprentissages tout au long de ce parcours de défense de nos principes d'IA responsable avec nos clients. Nous utilisons nos propres meilleures pratiques et apprentissages pour fournir aux personnes et aux organisations des ressources et des outils afin de créer des applications d'IA qui partagent les mêmes normes élevées auxquelles nous aspirons.

Aujourd'hui, nous partageons de nouvelles fonctionnalités pour aider les clients à profiter des avantages de l'IA tout en atténuant les risques :

  • Une ressourcede correctiondans la fonctionnalité de détection de grounding de Microsoft Azure AI Content Safety qui aide à corriger les problèmes d'aléa en temps réel avant que les utilisateurs ne les voient.   
  • Sécurité du contenu intégré, qui permet aux clients d'intégrer Azure AI Content Safety dans leurs appareils. Cela est important pour les scénarios sur l'appareil où la connectivité cloud peut être intermittente ou indisponible.   
  • Nouveaux avisdans Azure AI Studio pour aider les clients à évaluer la qualité et la pertinence des sorties ainsi que la fréquence à laquelle leur application d'IA génère du contenu protégé.  
  • Détection de matériel protégé pour la programmationIl est maintenant en version bêta dans Azure AI Content Safety pour aider à détecter le contenu et le code existants. Cette fonctionnalité aide les développeurs à explorer le code source public dans les dépôts GitHub, favorisant la collaboration et la transparence, tout en permettant des décisions de codage plus éclairées.

Il est incroyable de voir comment les clients de tous les secteurs utilisent déjà les solutions de Microsoft pour créer des applications d'IA plus sûres et plus fiables. Par exemple,une unité,uma plataforma para jogos 3D, utilizou o Microsoft Azure OpenAI Service para criar o Muse Chat, um assistente de IA que facilita o desenvolvimento de jogos. Le Muse Chat utilise des modèles de filtrage de contenu dansSécurité du contenu Azure AIpour garantir l'utilisation responsable du logiciel. En outre, leASOS,un détaillant de mode basé au Royaume-Uni avec près de 900 partenaires de marque, a utilisé les mêmes filtres de contenu intégrés dans Azure AI Content Safety pour prendre en charge des interactions de haute qualité via une application d'IA qui aide les clients à trouver de nouveaux looks.

Nous observons également l'impact dans le domaine de l'éducation.Écoles publiques de la ville de New YorkIls ont fait un partenariat avec Microsoft pour développer un système de chat sécurisé et adapté au contexte éducatif, qu'ils testent maintenant dans les écoles.Le ministère de l'Éducation de l'Australie du Suda également apporté l'IA générative en classe avec EdChat, en s'appuyant sur la même infrastructure pour garantir une utilisation sûre pour les étudiants et les enseignants.

Confidentialité.Les données sont au cœur de l'IA, et la priorité de Microsoft est de contribuer à garantir que les données des clients sont protégées et conformes grâce à notreprincipes de confidentialitéde longue date, qui incluent le contrôle de l'utilisateur, la transparence et les protections légales et réglementaires.Pour développer cela, nous annonçons aujourd'hui :

  • Inférence confidentielleen avant-premièredans notre modèle Azure OpenAI Service Whisper, afin que les clients puissent développer des applications d'IA générative qui prennent en charge la confidentialité vérifiable de bout en bout.L'inférence confidentiellegarantit que os données confidentielles du client restent sécurisées et privées pendant le processus d'inférence, qui est lorsque un modèle d'IA entraîné fait des prédictions ou des décisions basées sur de nouvelles données. Cela est particulièrement important pour les secteurs fortement réglementés, tels que la santé, les services financiers, la vente au détail, la fabrication et l'énergie.   
  • Disponibilité générale des machines virtuelles Azure Confidentialavec GPU NVIDIA H100 Tensor Core, qui permettent aux clients de protéger les données directement sur le GPU. Cela repose sur nos solutions de calcul confidentiel, qui garantissent que les données du client restent cryptées et protégées dans un environnement sécurisé afin que personne n'ait accès aux informations ou au système sans permission.
  • Zones de données Azure OpenAIpour l'Union européenne et les États-Unis, qui arrivent bientôt, et se basent sur la résidence de données existante fournie par Azure OpenAI Service, facilitant la gestion du traitement et du stockage des données des applications d'IA générative. Cette nouvelle fonctionnalité offre aux clients la flexibilité de dimensionner des applications d'IA générative dans toutes les régions d'Azure au sein d'une géographie, tout en leur donnant le contrôle du traitement et du stockage des données au sein de l'UE ou des États-Unis.

Nous avons constaté un intérêt croissant des clients pour l'informatique confidentielle et un enthousiasme pour les GPU confidentiels, y compris de la part des fournisseurs de sécurité des applicationsF5qui utilise des VM confidentielles Azure avec des GPU NVIDIA H100 Tensor Core pour créer des solutions de sécurité avancées basées sur l'IA, garantissant la confidentialité des données que leurs modèles analysent. Et la corporation bancaire multinationaleBanque Royale du Canada (RBC) a intégré l'informatique confidentielle d'Azure dans sa propre plateforme pour analyser des données cryptées, en préservant la confidentialité du client. Avec la disponibilité générale des VM confidentielles Azure avec GPU NVIDIA H100 Tensor Core, le RBC peut désormais utiliser ces outils avancés d'IA pour travailler plus efficacement et développer des modèles d'IA plus puissants.

Réalisez davantage avec une IA de confiance

Nous avons tous besoin et espérons une IA en laquelle nous pouvons avoir confiance. Nous avons vu ce qui est possible lorsque les personnes sont habilitées à utiliser l'IA de manière fiable, depuisenrichir l'expérience des employésetremodeler les processus d'affairesjusqu'àréinventer l'engagement clientetréimaginer nos viesquotidiennes. Avecnouvelles fonctionnalitésqui améliorent la sécurité, la protection et la vie privée, nous continuons à permettre aux clients d'utiliser et de créer des solutions d'IA fiables qui aident toutes les personnes et organisations de la planète à en faire plus.En fin de compte, l'IA fiable couvre tout ce que nous faisons chez Microsoft et est essentielle à notre mission, car nous travaillons à élargir les opportunités, à gagner la confiance, à protéger les droits fondamentaux et à promouvoir la durabilité dans tout ce que nous faisons.

Takeshi Numoto
Takeshi Numoto
Takeshi Numoto est vice-président exécutif et directeur du marketing.
MATIÈRES LIÉES

LAISSEZ UNE RÉPONSE

Veuillez saisir votre commentaire !
Veuillez saisir votre nom ici

RÉCENTS

LES PLUS POPULAIRES

[elfsight_cookie_consent id="1"]