Pe măsură ce IA avansează, toți avem un rol de jucat pentru a debloca impactul pozitiv al IA pentru organizații și comunități din întreaga lume. De aceea ne concentrăm pe ajutarea clienților să folosească și să creeze IAde încredere, adică, o IAsigură, protejatășiprivată.
La Microsoft, avem angajamente de a asigura o IA de încredere și dezvoltăm tehnologie de suport de vârf. Angajamentele și resursele noastre merg mână în mână pentru a asigura că clienții și dezvoltatorii noștri sunt protejați la toate nivelurile
Pe baza angajamentelor noastre, anunțăm astăzi noiresursede produse pentru întărirea securității, protecția și confidențialitatea sistemelor de IA
Securitate. Securitatea este prioritatea noastră principală la Microsoft, și a noastrăInițiativa Viitor Sigur(SFI, în engleză) extins subliniază angajamentele întregii companii și responsabilitatea pe care o simțim de a-i face pe clienții noștri maiasigurări. Săptămâna aceasta, anunțăm primul nostruRaport de Progres al SFI, evidențiind actualizări care acoperă cultura, guvernare, tehnologie și operațiuni. Aceasta îndeplinește promisiunea noastră de a prioritiza securitatea mai presus de toate și este ghidată de trei principii: sigur prin design, sigur prin default și operațiuni sigure.În afară de ofertele noastre principale, Microsoft Defender și Purview, serviciile noastre de IA au controale de securitate de bază, ca funcții interne pentru a ajuta la evitarea injecțiilor imediate și a încălcărilor drepturilor de autor. Pe baza lor, astăzi anunțăm două noi funcționalități: Pe lângă ofertele noastre principale, Microsoft Defender și Purview, serviciile noastre de IA au controale de securitate de bază, ca funcții interne pentru a ajuta la evitarea injecțiilor imediate și a încălcărilor drepturilor de autor. Pe baza lor, astăzi anunțăm două noi funcționalități
- EvaluărinuAzure AI Studiopentru a oferi suport analizei riscurilor proactive
- Microsoft 365 Copilot va oferitransparență în consultările webpentru a ajuta administratorii și utilizatorii să înțeleagă mai bine cum căutarea pe web îmbunătățește răspunsul Copilot.Disponibil în curând
Resursele noastre de securitate sunt deja folosite de clienți. Un Cummins, o companie de 105 ani cunoscută pentru fabricarea de motoare și dezvoltarea tehnologiilor de energie curată, a recurs la Microsoft Purviewpentru a întări securitatea și guvernanța datelor dumneavoastră, automatizarea clasificării, marcarea și etichetarea datelor. EPAM Systems, o companie de inginerie software și consultanță în afaceri, a implantatMicrosoft 365Copilot pentru 300 de utilizatori din cauza protecției datelor pe care le primesc de la Microsoft. J.T. Sodano, Director Senior IT, a împărtășit că „eram mult mai încrezători cu Copilot pentru Microsoft 365, în comparație cu alte LLM-uri (modele mari de limbaj), pentru că știm că aceleași politici de protecție a datelor și informațiilor pe care le-am configurat înMicrosoft Purviewse aplică la Copilot.”
SecuritateInclusiv securitate și confidențialitate, principiile cele mai ample deIA responsabilă de Microsoft, stabilite în 2018, continuăm să orientăm cum să creăm și să implementăm IA în siguranță în întreaga companie. În practică, asta înseamnă a construi, testați și monitorizați corespunzător sistemele pentru a evita comportamentele nedorite, ca ca conținut dăunător, bias, utilizare necorespunzătoare și alte riscuri neintenționate. De-a lungul anilor, am investit semnificativ în construirea structurii de guvernanță, politici, instrumente și procesele necesare pentru a apăra aceste principii și a construi și implementa IA în siguranță. La Microsoft, suntem angajați să împărtășim lecțiile noastre în această călătorie de apărare a principiilor noastre de IA Responsabilă cu clienții noștri. Folosim propriile noastre practici recomandate și învățăminte pentru a oferi persoanelor și organizațiilor resurse și instrumente pentru a crea aplicații de IA care împărtășesc aceleași standarde înalte la care ne străduim
Astăzi, împărtășim noi resurse pentru a ajuta clienții să caute beneficiile IA și, în același timp, mitiga riscurile
- O resursde corectareîn funcționalitatea de detectare a grounding-ului din Microsoft Azure AI Content Safety care ajută la corectarea problemelor de halucinație în timp real înainte ca utilizatorii să le vadă.
- Securitatea conținutului încorporat, care permite clienților să integreze Azure AI Content Safety în dispozitive. Acest lucru este important pentru scenarii pe dispozitive în care conectivitatea la cloud poate fi intermitentă sau indisponibilă.
- Evaluări noiîn Azure AI Studio pentru a ajuta clienții să evalueze calitatea și relevanța rezultatelor și frecvența cu care aplicația lor de IA generează material protejat.
- Detectarea materialului protejat pentru programareacum este este în versiune preliminară în Azure AI Content Safety pentru a ajuta la detectarea conținutului și codului preexistente. Această resursă îi ajută pe dezvoltatori să exploreze codul sursă public în repositoare GitHub, promovând colaborarea și transparența, în același timp în care permite decizii de codare mai informate
Este incredibil să vezi cum clienții din toate sectoarele folosesc deja soluțiile Microsoft pentru a crea aplicații de IA mai sigure și mai de încredere. De exemplu, o Unitățiio platformă pentru jocuri 3D, a folosit Microsoft Azure OpenAI Service pentru a crea Muse Chat, un asistent AI care facilitează dezvoltarea jocurilor. Muse Chat folosește modele de filtrare a conținutului înSiguranța conținutului Azure AIpentru a asigura utilizarea responsabilă a software-ului. În plus, unASOSun retailer de modă cu sediul în Regatul Unit cu aproape 900 de parteneri de marcă, a folosit aceleași filtre interne de conținut în Azure AI Content Safety pentru a susține interacțiuni de înaltă calitate printr-o aplicație de IA care ajută clienții să găsească noi stiluri
De asemenea, vedem impactul în domeniul educațional. Școlile Publice din Orașul New Yorkau făcut o colaborare cu Microsoft pentru a dezvolta un sistem de chat sigur și adecvat pentru contextul educațional, că acum se testează în școli. Departamentul de Educație din Australia de Sudam adus și IA generativă în sala de clasă cu EdChat, contând cu aceeași infrastructură pentru a asigura utilizarea în siguranță pentru elevi și profesori
Confidențialitate. Datele stau la baza IA, și prioritatea Microsoft este să ajute la asigurarea că datele clienților sunt protejate și conforme prin intermediul nostruprincipiile de confidențialitatede mult timp, care includ controlul utilizatorului, transparență și protecții legale și de reglementare.Pentru a dezvolta asta, astăzi anunțăm
- Inferență confidențialăîn versiune preliminarăîn modelul nostru Azure OpenAI Service Whisper, pentru ca clienții să poată dezvolta aplicații de IA generativă care susțin confidențialitatea verificabilă de la un capăt la altul. Inferența confidențialăgarante că datele confidențiale ale clientului rămân sigure și private pe parcursul procesului de inferență, ceea ce este atunci când un model de IA antrenat face previziuni sau decizii pe baza unor date noi. Aceasta este deosebit de important pentru sectoare foarte reglementate, cum sănătate, servicii financiare, retail, manufactură și energie.
- Disponibilitatea generală a VM-urilor Confidențiale Azurecu GPU-uri NVIDIA H100 Tensor Core, care permit clienților să protejeze datele direct pe GPU. Aceasta se bazează pe soluțiile noastre de calcul confidențial, care garantează că datele clientului rămân criptate și protejate într-un mediu sigur, astfel încât nimeni să nu aibă acces la informații sau la sistem fără permisiune
- Zonele de date Azure OpenAIpentru Uniunea Europeană și Statele Unite vor sosi în curând și se bazează pe rezidența de date existentă oferită de Azure OpenAI Service, facilitând gestionarea procesării și stocării datelor aplicațiilor de IA generativă. Această nouă funcționalitate oferă clienților flexibilitatea de a dimensiona aplicații de IA generativă în toate regiunile Azure dintr-o geografie, în același timp le oferă controlul asupra procesării și stocării datelor în cadrul UE sau al SUA
Am observat un interes crescut din partea clienților pentru computația confidențială și entuziasm pentru GPU-uri confidențiale, inclusiv de furnizorul de securitate a aplicațiilorF5, care utilizează VM-uri confidențiale Azure cu GPU-uri NVIDIA H100 Tensor Core pentru a crea soluții avansate de securitate bazate pe IA, garantând confidențialitatea datelor pe care modelele dvs. le analizează. Și corporația bancară multinaționalăBanca Regală a Canadei (RBCa integrat computația confidențială Azure în propria sa platformă pentru a analiza date criptate, preservând confidențialitatea clientului. Cu disponibilitatea generală a VM-urilor confidențiale Azure cu GPU-uri NVIDIA H100 Tensor Core, RBC poate acum folosi aceste instrumente avansate de IA pentru a lucra mai eficient și a dezvolta modele de IA mai puternice.
Atinge mai mult cu IA de încredere
Toți avem nevoie și așteptăm o IA în care să putem avea încredere. Am văzut ce este posibil când oamenii sunt împuterniciți să folosească IA într-un mod de încredere, de laîmbogățirea experiențelor angajaților și a remodela procesele de afaceripânăreinventarea implicării clientului și reimagina viețile noastrezilnice. Curesurse noicare îmbunătățesc securitatea, protecția și intimitatea, continuăm să permitem clienților să folosească și să creeze soluții de IA de încredere care ajută toate persoanele și organizațiile de pe planetă să realizeze mai mult.În ultimă instanță, IA de încredere acoperă tot ce facem la Microsoft și este esențială pentru misiunea noastră, deoarece lucrăm pentru a extinde oportunitățile, a câștiga încredere, protejarea drepturilor fundamentale și promovarea sustenabilității în tot ceea ce facem