BeginArtikelsMicrosoft Trustworthy AI: Ontsluiting van menslike potensiaal begin met vertroue

Microsoft Trustworthy AI: Ontsluiting van menslike potensiaal begin met vertroue

Soos die KI vorder, het ons almal ’n rol om te speel om die positiewe impak van KI vir organisasies en gemeenskappe regoor die wêreld te ontsluit. Dit is waarom ons gefokus is op om kliënte te help om KI te gebruik en te skepbetroubaar, dit wil sê 'n KIveiligbeskermenprivaat.  

By Microsoft, ons het die verbintenis om betroubare KI te verseker en ontwikkel vooraanstaande ondersteunende tegnologie. Ons toewydings en hulpbronne gaan hand aan hand om te verseker dat ons kliënte en ontwikkelaars in alle lae beskerm word.

Gebou op ons verpligtinge, kondig ons vandag nuwe aanhulpbronnevan produkte om die veiligheid, sekuriteit en privaatheid van KI-stelsels te versterk.

Sekuriteit.Sekuriteit is ons topprioriteit by Microsoft, en onsVeilige toekoms-inisiatief(SFI) onderstreep ons maatskappywye verbintenisse en die verantwoordelikheid wat ons voel om ons kliënte meer te maakversekering. Hierdie week het ons ons eerste aangekondigSFI-vorderingsverslag, uitlig van opdaterings wat kultuur, bestuur, tegnologie en bedrywighede dek. Dit voldoen aan ons belofte om veiligheid bo alles te stel en word gelei deur drie beginsels: veilige ontwerp, veilige standaard en veilige bedrywighede.Benewens ons hoofaanbiedings,Microsoft Defender en Purview, ons KI-dienste het basiese sekuriteitskontroles, soos interne funksies om onmiddellike inligtingskending en kopieregskending te help voorkom. Gebaseer op hulle, kondig ons vandag twee nuwe funksies aan: Benewens ons primêre aanbiedings,Microsoft Defender en Purview, ons KI-dienste het basiese sekuriteitskontroles, soos interne funksies om onmiddellike inligtingskending en kopieregskending te help voorkom. Gebaseer op hulle, kondig ons vandag twee nuwe funksies aan:

  • ResensiesneeAzure AI Studioom proaktiewe risiko-analise te ondersteun.
  • Microsoft 365 Copilot sal voorsiendeursigtigheid in webnavraeom te help administrateurs en gebruikers beter te laat verstaan hoe websoektog die reaksie van Copilot verbeter.Binnekort beskikbaar.

Ons veiligheidsfunksies word reeds deur kliënte gebruik.'n Cummins, 'n 105-jarige maatskappy wat bekend is vir sy enjinvervaardiging en ontwikkeling van skoon energie-tegnologie,draai na Microsoft Purviewom te versterk jou data-sekuriteit en -beheer deur die outomatisering van dataklassifikasie, -etikettering en -merker.'n EPAM-stelsels, 'n sagteware-ingenieurswese en besigheidsadviesmaatskappy, geïmplementeero Microsoft 365Copilot vir 300 gebruikers as gevolg van die data beskerming wat hulle van Microsoft ontvang. J.T. Sodano, Senior TI-direkteur, het gedeel dat “ons baie meer vertroue gehad het in die Copilot vir Microsoft 365, in vergelyking met ander LLMs (groot taalmodelle), omdat ons weet dat dieselfde data- en inligtingsbeskermingsbeleid wat ons opgestel het, van toepassing is opMicrosoft Purviewtoepaslik op Copilot.

Sekuriteit.Insluitend sekuriteit en privaatheid, die breër beginsels vanMicrosoft Verantwoordelike KI, gestel tot 2018, bly voort om te rig hoe ons KI veilig in die hele maatskappy ontwikkel en implementeer. In praktyk, dit beteken om stelsels behoorlik te bou, te toets en te monitor om ongewensde gedrag te voorkom, soos skadelike inhoud, vooroordeel, misbruik en ander onbedoelde risiko's. Deur die jare het ons beduidende belegginge gemaak in die bou van die raamwerk van governance, beleid, gereedskap en prosesse wat nodig is om hierdie beginsels te verdedig en om KI veilig te bou en te implementeer. By Microsoft, ons verbind om ons leerervaringe te deel op hierdie reis om ons beginsels van Verantwoordelike KI te verdedig saam met ons kliënte. Ons eie beste praktyke en leerstellings word gebruik om mense en organisasies hulpbronne en gereedskap te bied om KI-toepassings te ontwikkel wat dieselfde hoë standaarde handhaaf waarna ons streef.

Vandag deel ons nuwe vermoëns om kliënte te help om die voordele van KI te besef terwyl die risiko's versag word:

  • 'n Hulpbronvan regstellingin die funksionaliteit van aardingsopsporing van Microsoft Azure AI Content Safety wat help om probleme met hallusinasies in regte tyd reg te stel voordat gebruikers dit sien.   
  • Ingebedde inhoudsekuriteitwat maak dit moontlik vir kliënte om Azure AI Content Safety op toestelle in te voer. Dit is belangrik vir scenario's op die toestel waar wolkverbinding intermittent of onbeskikbaar kan wees.   
  • Nuwe resensiesIn Azure AI Studio om te help kliënte om die kwaliteit en relevansie van die uitsette te evalueer en die frekwensie waarmee hul KI-toepassing beskermde materiaal genereer.  
  • Opsporing van beskermde materiaal vir programmeringNou nou is in voorlopige weergawe op Azure AI Content Safety om te help om bestaande inhoud en kode te identifiseer. Hier hulpmiddel help ontwikkelaars om openbare bronkode in GitHub-repositoriums te verken, bevorder kollektiewe samewerking en deursigtigheid, terwyl dit ook meer ingeligte koderingbesluite moontlik maak.

Dit is ongelooflik om te sien hoe kliënte uit alle sektore reeds die Microsoft-oplossings gebruik om veiliger en meer betroubare KI-toepassings te ontwikkel. Byvoorbeeld,'n Eenheid,'n platform vir speletjies in 3D, het die Microsoft Azure OpenAI Service gebruik om die Muse Chat te skep, 'n KI-assistent wat die ontwikkeling van speletjies vergemaklik. Die Muse Chat gebruik inhoudsfiltreringsmodelle inAzure AI-inhoudveiligheidom te waarborg dat die sagteware verantwoordelik gebruik word. Verder is dieASOS,'n VK-gebaseerde modekleinhandelaar met byna 900 handelsmerkvennote, het dieselfde ingeboude inhoudfilters in Azure AI Content Safety gebruik om interaksies van hoë gehalte te ondersteun deur 'n KI-toepassing wat kliënte help om nuwe voorkoms te vind.

Ons sien ook die impak op die opvoedkundige ruimte.New York City Openbare SkoleHulle het 'n vennootskap met Microsoft aangegaan om 'n veilige en geskikte kletsstelsel vir die opvoedkundige konteks te ontwikkel, wat hulle nou in skole toets.Die Suid-Australiese Departement van Onderwyshet ook generatiewe KI na die klaskamer gebring met EdChat, wat op dieselfde infrastruktuur staatmaak om veilige gebruik vir studente en onderwysers te verseker.

Privaatheid.Data is die kern van KI, en Microsoft se prioriteit is om te help verseker dat klantdata beskerm en voldoen deur onsprivaatheid beginselsvan langtermyn, wat gebruikersbeheer, deursigtigheid en regs- en regulasiebeskermings insluit.Om dit te ontwikkel, kondig ons vandag aan:

  • Vertroulike afleidingin voorskouin ons Azure OpenAI Service Whisper-model, sodat kliënte generatiewe KI-toepassings kan ontwikkel wat end-tot-end verifieerbare privaatheid ondersteun.Die vertroulike afleidingVerseker dat die kliënt se vertroulike inligting veilig en privaat bly tydens die inferensieproses, wat die tyd is wanneer 'n opgeleide KI-model voorspellings of besluite neem op grond van nuwe data. Dit is veral belangrik vir hoogs gereguleerde sektore, soos gesondheid, finansiële dienste, kleinhandel, vervaardiging en energie.   
  • Algemene beskikbaarheid van Azure Confidential VM'scom GPU's NVIDIA H100 Tensor Corewat maak dit moontlik vir kliënte om data direk op die GPU te beskerm. Dit is gebaseer op ons vertroulike rekeningsoplossings, wat verseker dat die kliënt se data versleuteld en beskerm word in 'n veilige omgewing sodat niemand toegang tot die inligting of die stelsel sonder toestemming het nie.
  • Azure OpenAI Data Zonesvir die Europese Unie en die Verenigde State kom binnekort aan en is gebaseer op die bestaande data-woonplek wat deur Azure OpenAI Service verskaf word, wat die bestuur van die verwerking en stoor van data van generatiewe KI-toepassings vergemaklik. Hierdie nuwe funksie bied kliënte die buigsaamheid om generatiewe KI-toepassings in alle Azure-streke binne 'n geografiese gebied te skaal, terwyl hulle die beheer oor data-verwerking en -berging binne die EU of die VSA behou.

Ons het groeiende klante se belangstelling in vertroulike rekenaars en entoesiasme vir vertroulike GPU's gesien, insluitend van toepassingsekuriteitverskafferF5wat gebruik Azure vertroulike VM's met NVIDIA H100 Tensor Core GPU's om gevorderde AI-gebaseerde sekuriteitsoplossings te ontwikkel, wat die vertroulikheid van die data wat jou modelle ontleed, verseker. En die multinasionale bankkorporasieRoyal Bank of Canada (RBCHet het Azure se geheimhoudingberekening geïntegreer in sy eie platform om versleutelde data te ontleed, terwyl die privaatheid van die kliënt gehandhaaf word. Met die algemene beskikbaarheid van Azure se vertroulike VM's met NVIDIA H100 Tensor Core GPU's, kan RBC nou hierdie gevorderde KI-instrumente gebruik om meer doeltreffend te werk en kragtiger KI-modelle te ontwikkel.

Bereik meer met betroubare KI

Ons almal het 'n KI nodig en verwag dat ons daarop kan vertrou. Ons het gesien wat moontlik is wanneer mense toegerus word om AI op 'n betroubare wyse te gebruik, vanafwerknemerervarings te verrykenbesigheidsprosesse te herboutotklantbetrokkenheid herontdekenherbedink ons lewensdaagliks. Metnuwe kenmerkewat verbeter veiligheid, beskerming en privaatheid, bly ons toelaat dat kliënte betroubare KI-oplossings gebruik en skep wat alle mense en organisasies op die planeet help om meer te bereik.Uiteindelik dek AI betroubaar dek alles wat ons by Microsoft doen en is dit noodsaaklik vir ons missie, aangesien ons werk om geleenthede uit te brei, vertroue te bou, fundamentele regte te beskerm en volhoubaarheid in alles wat ons doen te bevorder.

Takeshi Numoto
Takeshi Numoto
Takeshi Numoto is uitvoerende vise-president en hoofbemarkingsbeampte.
VERWANTE ARTIKELS

Laat 'n antwoord achter

Voer asseblief jou kommentaar in!
Voer asseblief jou naam hier in

ONLANGS

MEES GEWILDE

[elfsight_cookie_consent id="1"]