När AI utvecklas har vi alla en roll att spela för att frigöra AI:s positiva påverkan för organisationer och samhällen över hela världen. Det är därför vi fokuserar på att hjälpa kunder att använda och skapa AIpålitligdet vill säga, en AIsäker, skyddadochprivat.
På Microsoft är vi engagerade i att säkerställa en pålitlig AI och utvecklar avancerad stödjande teknik. Våra åtaganden och resurser går hand i hand för att säkerställa att våra kunder och utvecklare är skyddade i alla lager.
Baserat på våra åtaganden annonserar vi idag nyaresurserav produkter för att stärka säkerheten, skyddet och integriteten för AI-system.
Säkerhet.Säkerheten är vår främsta prioritet på Microsoft, och vårInitiativ Framtid Säker(SFI, på engelska) utökad betonar hela företagets åtaganden och det ansvar vi känner för att göra våra kunder merförsäkringarDen här veckan tillkännagav vi vår förstaSFI:s framstegsrapport, med fokus på uppdateringar som omfattar kultur, styrning, teknik och verksamhet. Det här uppfyller vårt löfte att prioritera säkerhet ovan allt annat och styrs av tre principer: säkerhet genom design, säkerhet som standard och säkra operationer.Förutom våra primära erbjudanden,Microsoft Defender och PurviewVåra AI-tjänster har grundläggande säkerhetskontroller, såsom interna funktioner för att hjälpa till att förhindra omedelbara injektioner och upphovsrättsintrång. Baserat på dem, idag annonserar vi två nya funktioner: Utöver våra primära erbjudanden,Microsoft Defender och PurviewVåra AI-tjänster har grundläggande säkerhetskontroller, såsom interna funktioner för att hjälpa till att förhindra omedelbara injektioner och upphovsrättsintrång. Baserat på dem, annonserar vi idag två nya funktioner:
- UtvärderingarnejAzure AI Studioför att stödja proaktiva riskanalyser.
- Microsoft 365 Copilot kommer att tillhandahållatransparens i webfrågorför att hjälpa administratörer och användare att bättre förstå hur webbsökning förbättrar Copilots svar.Tillgänglig snart.
Våra säkerhetsfunktioner används redan av kunderna.En Cumminsett företag på 105 år känt för sin tillverkning av motorer och utveckling av ren energiteknikvände sig till Microsoft Purviewför att stärka din datasäkerhet och styrning genom att automatisera klassificering, märkning och etikettering av data.EPAM Systems, ett mjukvaruingenjörsföretag och affärskonsultföretag, implementeradeMicrosoft 365Copilot för 300 användare på grund av den dataskydd de får från Microsoft. J.T. Sodano, Senior IT-direktör, delade att "vi var mycket mer förtroende för Copilot för Microsoft 365 jämfört med andra stora språkmodeller (LLM), eftersom vi vet att samma dataskydds- och informationsskyddspolicyer som vi har konfigurerat på"Microsoft Purviewgäller för Copilot.
Säkerhet.Inkluderar säkerhet och integritet, de bredare principerna förMicrosofts ansvariga AI, fastställda 2018, fortsätter att styra hur vi skapar och implementerar AI säkert i hela företaget. I praktiken innebär detta att bygga, testa och övervaka system på ett korrekt sätt för att undvika oönskade beteenden, såsom skadligt innehåll, bias, missbruk och andra oavsiktliga risker. Under åren har vi gjort betydande investeringar i att bygga upp styrningsstrukturen, policyerna, verktygen och processerna som krävs för att försvara dessa principer och bygga och implementera AI på ett säkert sätt. På Microsoft är vi engagerade i att dela våra insikter på denna resa för att försvara våra principer för Ansvarsfull AI med våra kunder. Vi använder våra egna bästa praxis och lärdomar för att ge människor och organisationer resurser och verktyg för att skapa AI-applikationer som delar samma höga standarder som vi strävar efter.
Idag delar vi nya funktioner för att hjälpa kunder att dra nytta av AI och samtidigt minska riskerna:
- Ett medelav korrigeringi funktionen för detektering av grounding i Microsoft Azure AI Content Safety som hjälper till att rätta till hallucinationsproblem i realtid innan användarna ser dem.
- Inbäddad innehållssäkerhet, som möjliggör för kunder att införa Azure AI Content Safety på enheter. Det här är viktigt för scenarier på enheten där molnanslutningen kan vara intermittent eller otillgänglig.
- Nya utvärderingari Azure AI Studio för att hjälpa kunder att bedöma kvaliteten och relevansen av resultaten samt hur ofta deras AI-applikation genererar skyddat material.
- Detektering av skyddat material för programmeringNu är den i förhandsversion på Azure AI Content Safety för att hjälpa till att upptäcka befintligt innehåll och kod. Denna funktion hjälper utvecklare att utforska öppen källkod i GitHub-repositorier, främjar samarbete och transparens samtidigt som den möjliggör mer informerade kodningsbeslut.
Det är fantastiskt att se hur kunder från alla sektorer redan använder Microsofts lösningar för att skapa säkrare och mer pålitliga AI-applikationer. Till exempel,en Unity,en plattform för 3D-spel använde Microsoft Azure OpenAI Service för att skapa Muse Chat, en AI-assistent som underlättar spelutveckling. O Muse Chat använder innehållsfiltermodeller iAzure AI Innehållssäkerhetför att säkerställa ansvarsfull användning av programvaran. Dessutom, aASOS uma varejista de moda com sede no Reino Unido com quase 900 parceiros de marca, usou os mesmos filtros de conteúdo internos no Azure AI Content Safety para dar suporte a interações de alta qualidade por meio de um aplicativo de IA que ajuda os clientes a encontrar novos looks.
Vi ser också effekten på utbildningsområdet.De offentliga skolorna i New York CityDete har ingått ett partnerskap med Microsoft för att utveckla ett säkert och lämpligt chattssystem för utbildningssammanhang, som de nu testar i skolor.Utbildningsdepartementet i South AustraliaJag har också introducerat generativ AI i klassrummet med EdChat, med samma infrastruktur för att säkerställa säker användning för elever och lärare.
Integritet.Datan finns i AI-databasen, och Microsofts prioritet är att hjälpa till att säkerställa att kundens data är skyddade och kompatibla genom våraintegritetsprincipersedan länge, inklusive användarkontroll, transparens och juridiska och regulatoriska skydd.För att utveckla detta annonserar vi idag:
- Konfidentiell inferensi förhandsversioni vår Azure OpenAI Service Whisper-modell, så att kunder kan utveckla generativa AI-applikationer som stöder end-to-end verifierbar integritet.Den konfidentiella slutsatsensäkerställer att kundens konfidentiella data förblir säker och privat under inferensprocessen, som är när en tränad AI-modell gör förutsägelser eller fattar beslut baserat på nya data. Det är särskilt viktigt för starkt reglerade sektorer som hälsovård, finanstjänster, detaljhandel, tillverkning och energi.
- Den allmänna tillgängligheten av Azure Confidential VMsmed NVIDIA H100 Tensor Core GPU:er, som gör det möjligt för kunder att skydda data direkt på GPU:n. Det bygger på våra lösningar för konfidentiell beräkning, som säkerställer att kundens data förblir krypterad och skyddad i en säker miljö så att ingen får tillgång till informationen eller systemet utan tillstånd.
- Azure OpenAI Data ZonerFör Europeiska unionen och USA är på väg att anlända snart och bygger på den befintliga datalagringen som tillhandahålls av Azure OpenAI Service, vilket underlättar hanteringen av bearbetning och lagring av data för generativa AI-applikationer. Denna nya funktion ger kunderna flexibiliteten att skala generativa AI-applikationer i alla Azure-regioner inom en geografi, samtidigt som de behåller kontrollen över databehandling och lagring inom EU eller USA.
Vi såg ett växande intresse bland kunder för konfidentiell databehandling och entusiasm för konfidentiella GPU:er, inklusive från applikationssäkerhetsleverantören.F5, som använder Azure konfidentiella VMs med NVIDIA H100 Tensor Core GPU:er för att skapa avancerade AI-baserade säkerhetslösningar, vilket säkerställer konfidentialiteten för de data som dina modeller analyserar. Och den multinationella bankkoncernenRoyal Bank of Canada (RBC) integrerade Azure konfidentiella beräkning i sin egen plattform för att analysera krypterad data och bevara kundens integritet. Med den allmänna tillgängligheten av Azure konfidentiella VM:ar med NVIDIA H100 Tensor Core GPU:er kan RBC nu använda dessa avancerade AI-verktyg för att arbeta mer effektivt och utveckla kraftfullare AI-modeller.
Nå mer med pålitlig AI
Vi alla behöver och ser fram emot en AI som vi kan lita på. Vi vad som är möjligt när människor är utbildade att använda AI på ett pålitligt sätt, sedanberika de anställdas upplevelserochomforma affärsprocessernatillåteruppfinna kundengagemangetochåteruppfinna våra livvardagar. Mednya funktionersom förbättrar säkerheten, skyddet och integriteten fortsätter vi att tillåta kunder att använda och skapa pålitliga AI-lösningar som hjälper alla människor och organisationer på planeten att nå mer.Slutligen omfattar pålitlig AI allt vi gör på Microsoft och är avgörande för vårt uppdrag, eftersom vi arbetar för att utöka möjligheter, vinna förtroende, skydda grundläggande rättigheter och främja hållbarhet i allt vi gör.