BegynnelseArtiklerMicrosoft Trusted AI: Å låse opp menneskelig potensial begynner med selvtillit

Microsoft Trusted AI: Å låse opp menneskelig potensial begynner med selvtillit

Etter hvert som AI utvikler seg, har vi alle en rolle å spille i å låse opp den positive effekten av AI for organisasjoner og lokalsamfunn rundt om i verden, og det er derfor vi er fokusert på å hjelpe kunder med å bruke og lage AI klarert, det vil si en AI tryggbeskyttet privat.  

Hos Microsoft har vi forpliktelser til å sikre pålitelig AI og bygger banebrytende støtteteknologi. Våre forpliktelser og evner går hånd i hånd for å sikre at våre kunder og utviklere er beskyttet på hvert lag.

Basert på våre forpliktelser kunngjør vi nye i dag ressurser produkter for å styrke sikkerheten, beskyttelsen og personvernet til AI-systemer.

Sikkerhet. Sikkerhet er vår topp prioritet hos Microsoft, og vår Future Safe Initiative (SFI, på engelsk) utvidet understreker forpliktelsene til hele selskapet og ansvaret vi føler for å gjøre kundene våre mer forsikringer. Denne uken kunngjør vi vår første SFI fremdriftsrapport, fremheve oppdateringer som spenner over kultur, styring, teknologi og drift Dette oppfyller vårt løfte om å prioritere sikkerhet fremfor alt annet og styres av tre prinsipper: sikker ved design, sikker som standard og sikker drift, Microsoft Defender og Purview, Våre AI-tjenester har grunnleggende sikkerhetskontroller, for eksempel innebygde funksjoner for å bidra til å forhindre umiddelbare injeksjoner og brudd på opphavsretten. Basert på dem kunngjør vi i dag to nye funksjoner: I tillegg til våre primære tilbud, vi, Microsoft Defender og Purview, Våre AI-tjenester har grunnleggende sikkerhetskontroller, for eksempel innebygde funksjoner for å forhindre umiddelbare injeksjoner og brudd på opphavsretten. Basert på dem kunngjør vi i dag to nye funksjoner:

  • Evalueringer nei Azure AI Studio for å støtte proaktiv risikoanalyse.
  • Microsoft 365 Copilot vil gi åpenhet i nettspørringer for å hjelpe administratorer og brukere bedre å forstå hvordan nettsøk forbedrer Copilot-responsen.

Sikkerhetsfunksjonene våre brukes allerede av kunder. Cummins, et 105 år gammelt selskap kjent for sin motorproduksjon og utvikling av rene energiteknologier, han henvendte seg til Microsoft Purview for å styrke datasikkerheten og styringen din ved å automatisere dataklassifisering, merking og merking. EPAM-systemer, et programvareingeniør- og forretningskonsulentfirma, har distribuert  microsoft 365 Copilot til 300 brukere på grunn av databeskyttelsen de mottar fra Microsoft. JT Sodano, seniordirektør for IT, delte at “we var mye mer selvsikre med Copilot for Microsoft 365, sammenlignet med andre LLM-er (store språkmodeller), fordi vi kjenner de samme retningslinjene for data- og informasjonsbeskyttelse som vi har satt opp i Microsoft Purview søk på Copilot.”

Sikkerhet. Inkludert sikkerhet og personvern, de bredere prinsippene for Ansvarlig AI fra Microsoft, Etablert i 2018, fortsetter vi å veilede hvordan vi trygt skaper og distribuerer AI på tvers av bedriften. I praksis betyr dette riktig bygging, testing og overvåkingssystemer for å forhindre uønsket atferd som skadelig innhold, skjevhet, misbruk og andre utilsiktede risikoer. Gjennom årene har vi gjort betydelige investeringer i å bygge styringsrammeverket, retningslinjene, verktøyene og prosessene som er nødvendige for å forsvare disse prinsippene og bygge og distribuere AI på en sikker måte. Hos Microsoft er vi forpliktet til å dele våre læringer på denne reisen for å forsvare våre ansvarlige AI-prinsipper med våre kunder. Vi bruker våre egne beste praksiser og læringer for å tilby mennesker og organisasjoner og verktøy for å lage AI-applikasjoner etter de samme høye standardene vi streber etter å lage.

I dag deler vi nye muligheter for å hjelpe kunder med å forfølge fordelene med AI og samtidig redusere risikoen:

  • En ressurs kriminalomsorg i jordingsdeteksjonsfunksjonaliteten til Microsoft Azure AI Content Safety som hjelper til med å fikse hallusinasjonsproblemer i sanntid før brukere ser dem.   
  • Innebygd innholdssikkerhet, som lar kundene sette inn Azure AI Content Safety i enheter Dette er viktig for scenarier på enheten der skytilkobling kan være intermitterende eller utilgjengelig.   
  • Nye vurderinger i Azure AI Studio for å hjelpe kundene med å vurdere kvaliteten og relevansen av utganger og hvor ofte deres AI-applikasjon genererer beskyttet materiale.  
  • Påvisning av beskyttet materiale for programmering den er nå i forhåndsvisning i Azure AI Content Safety for å hjelpe til med å oppdage eksisterende innhold og kode. Denne funksjonen hjelper utviklere med å utforske offentlig kildekode i GitHub-depoter, fremme samarbeid og åpenhet, samtidig som den muliggjør mer informerte kodebeslutninger.

Det er utrolig å se hvordan kunder på tvers av bransjer allerede bruker Microsoft-løsninger for å bygge sikrere og mer pålitelige AI-applikasjoner,  enhet, enheten, en plattform for 3D-spill, den brukte Microsoft Azure OpenAI Service for å lage Muse Chat, en AI-assistent som gjør det enkelt å utvikle spill Muse Chat bruker innholdsfiltreringsmodeller i Azure AI Content Safety for å sikre ansvarlig bruk av programvaren. I tillegg ASOS, en britisk-basert moteforhandler med nesten 900 merkevarepartnere, brukte de samme interne innholdsfiltrene i Azure AI Content Safety for å støtte interaksjoner av høy kvalitet gjennom en AI-app som hjelper kundene med å finne nye utseende.

Vi ser også innvirkningen på utdanningsrommet. De offentlige skolene i New York City de samarbeidet med Microsoft for å utvikle et sikkert og hensiktsmessig chat-system for utdanningskonteksten, som de nå tester på skolene. Det sør-australske utdanningsdepartementet det brakte også generativ AI inn i klasserommet med EdChat, og stolte på den samme infrastrukturen for å sikre sikker bruk for elever og lærere.

Personvern. Data er kjernen i AI, og Microsofts prioritet er å bidra til å sikre at kundedata er beskyttet og støttet gjennom vår personvernprinsipper langvarig, som inkluderer brukerkontroll, åpenhet og juridisk og regulatorisk beskyttelse. For å utvikle dette, kunngjør vi i dag:

  • Konfidensiell slutning i tidligere versjon i vår Azure OpenAI Service Whisper-modell kan kundene utvikle generative AI-applikasjoner som støtter verifiserbart personvern fra ende til annen. Konfidensiell slutning sikrer at sensitive kundedata forblir trygge og private under slutningsprosessen, som er når en trent AI-modell gjør spådommer eller beslutninger basert på nye data.   
  • Den generelle tilgjengeligheten av Azure Confidential VM-er med NVIDIA H100 Tensor Core GPUer, som tillater kunder å beskytte data direkte på GPU.Dette er basert på våre konfidensielle dataløsninger, som sikrer at kundedata forblir kryptert og beskyttet i et sikkert miljø slik at ingen har tilgang til informasjonen eller systemet uten tillatelse.
  • Azure OpenAI-datasoner for EU og USA kommer snart og bygger på det eksisterende dataoppholdet levert av Azure OpenAI Service, noe som gjør det enklere å administrere behandling og lagring av data fra generative AI-applikasjoner. Denne nye funksjonaliteten gir kundene fleksibiliteten til å skalere generative AI-applikasjoner på tvers av alle Azure-regioner innenfor én geografi, samtidig som de gir dem kontroll over databehandling og lagring i EU eller USA.

Vi har sett økende kundeinteresse for konfidensiell databehandling og entusiasme for sensitive GPUer, inkludert fra applikasjonssikkerhetsleverandøren F5, som bruker Azure konfidensielle VM-er med NVIDIA H100 Tensor Core GPU-er for å lage avanserte AI-baserte sikkerhetsløsninger, som sikrer konfidensialiteten til dataene modellene deres analyserer Royal Bank of Canada (RBC) Integrert Azure konfidensiell databehandling i sin egen plattform for å analysere krypterte data samtidig som kundenes personvern bevares. Med den generelle tilgjengeligheten av Azure-sensitive VM-er med NVIDIA H100 Tensor Core GPU-er, kan RBC nå bruke disse avanserte AI-verktøyene til å fungere mer effektivt og utvikle kraftigere AI-modeller. 

Nå mer med pålitelig AI

Vi trenger og håper alle på en AI som vi kan stole på, og vi har sett hva som er mulig når folk har myndighet til å bruke AI pålitelig, fra berike medarbeideropplevelser e omforme forretningsprosesser til gjenoppfinn kundeengasjement e reimagining våre liv hverdag. Med nye funksjoner som forbedrer sikkerhet, beskyttelse og personvern, fortsetter vi å gjøre det mulig for kundene å bruke og bygge pålitelige AI-løsninger som hjelper hver person og organisasjon på planeten å oppnå mer. Til syvende og sist omfatter pålitelig AI alt vi gjør hos Microsoft og er avgjørende for oppdraget vårt når vi jobber for å utvide muligheter, få tillit, beskytte grunnleggende rettigheter og fremme bærekraft i alt vi gjør.

Takeshi Numoto
Takeshi Numoto
Takeshi Numoto er konserndirektør og markedssjef.
RELATERTE ARTIKLER

LEGG IGJEN EN KOMMENTAR

Vennligst skriv inn kommentaren din!
Vennligst skriv navnet ditt her

NYE

MEST POPULÆRE

[elfsight_cookie_consent id="1"]