Man mano che l'IA avanza, tutti noi abbiamo un ruolo da svolgere per sbloccare l'impatto positivo dell'IA su organizzazioni e comunità in tutto il mondo. È per questo che siamo concentrati ad aiutare i clienti a utilizzare e creare IAaffidabile, cioè un'IAsicuro, protettoEprivato.
Da Microsoft, abbiamo l'impegno di garantire un'IA affidabile e stiamo sviluppando tecnologie di supporto all'avanguardia. I nostri impegni e risorse vanno di pari passo per garantire che i nostri clienti e sviluppatori siano protetti in tutti gli strati.
Sulla base dei nostri impegni, oggi annunciamo nuovirisorsedi prodotti per rafforzare la sicurezza e la privacy dei sistemi di intelligenza artificiale.
Sicurezza.La sicurezza è la nostra massima priorità in Microsoft e la nostraIniziativa per un futuro sicuro(SFI) sottolinea i nostri impegni aziendali e la responsabilità che sentiamo nel rendere i nostri clienti piùassicurazione. Questa settimana abbiamo annunciato il nostro primoRapporto sui progressi SFI, evidenziando aggiornamenti che riguardano cultura, governance, tecnologia e operazioni. Questo rispetta la nostra promessa di dare priorità alla sicurezza sopra ogni cosa ed è guidato da tre principi: sicuro per progettazione, sicuro di default e operazioni sicure.Oltre alle nostre offerte principali,Microsoft Defender e PurviewI nostri servizi di IA dispongono di controlli di sicurezza di base, come funzioni interne per aiutare a prevenire injection immediate e violazioni di copyright. In base a esse, hoje estamos anunciando dois novos recursos: Além de nossas ofertas primárias,Microsoft Defender e PurviewI nostri servizi di IA dispongono di controlli di sicurezza di base, come funzioni interne per aiutare a prevenire injection immediate e violazioni di copyright. In base a esse, oggi stiamo annunciando due nuove funzionalità:
- RecensioniNOStudio di intelligenza artificiale di Azureper supportare l'analisi proattiva dei rischi.
- Microsoft 365 Copilot forniràtrasparenza nelle query webper aiutare amministratori e utenti a comprendere meglio come la ricerca sul Web migliora la risposta di Copilot.Disponibile a breve.
Le nostre risorse di sicurezza sono già utilizzate dai clienti.Un Cummins, un'azienda di 105 anni nota per la produzione di motori e lo sviluppo di tecnologie per l'energia pulita,si è rivolto a Microsoft Purviewper rafforzare la sua sicurezza e governance dei dati, automatizzando la classificazione, l'etichettatura e la marcatura dei dati.Sistemi EPAM, una società di ingegneria del software e consulenza aziendale, ha implementatoo Microsoft 365Copilot per 300 utenti a causa della protezione dei dati che ricevono da Microsoft. J.T. Sodano, Direttore Senior IT, ha condiviso che "eravamo molto più fiduciosi con il Copilot per Microsoft 365 rispetto ad altri LLM (grandi modelli linguistici), perché sappiamo che le stesse politiche di protezione dei dati e delle informazioni che abbiamo configurato nelCompetenza Microsoftsi applicano al Copilot.
Sicurezza.Inclusi sicurezza e privacy, i principi più ampi diMicrosoft AI responsabile, stabiliti nel 2018, continuano a guidare come creiamo e implementiamo l'IA in modo sicuro in tutta l'azienda. In pratica, ciò significa costruire, testare e monitorare adeguatamente i sistemi per evitare comportamenti indesiderati, come contenuti dannosi, bias, uso improprio e altri rischi non intenzionali. Nel corso degli anni, abbiamo effettuato investimenti significativi nella costruzione della struttura di governance, delle politiche, degli strumenti e dei processi necessari per difendere questi principi e costruire e implementare l'IA in modo sicuro. In Microsoft, siamo impegnati a condividere le nostre esperienze in questo percorso di difesa dei nostri principi di IA Responsabile con i nostri clienti. Utilizziamo le nostre best practice e apprendimenti per fornire a persone e organizzazioni risorse e strumenti per creare applicazioni di IA che condividono gli stessi elevati standard a cui aspiriamo.
Oggi condividiamo nuove funzionalità per aiutare i clienti a realizzare i vantaggi dell'intelligenza artificiale mitigandone al contempo i rischi:
- Una risorsadi correzionenella funzionalità di rilevamento del grounding di Microsoft Azure AI Content Safety che aiuta a correggere i problemi di allucinazione in tempo reale prima che gli utenti li vedano.
- Sicurezza dei contenuti incorporatiche permette ai clienti di inserire Azure AI Content Safety nei dispositivi. Questo è importante per scenari sul dispositivo in cui la connettività cloud può essere intermittente o assente.
- Nuove recensioninel Azure AI Studio per aiutare i clienti a valutare la qualità e la rilevanza delle uscite e la frequenza con cui la loro applicazione di IA genera materiale protetto.
- Rilevamento di materiale protetto per la programmazioneora è in versione preliminare su Azure AI Content Safety per aiutare a rilevare contenuti e codici preesistenti. Questa funzione aiuta gli sviluppatori a esplorare il codice sorgente pubblico nei repository di GitHub, promuovendo collaborazione e trasparenza, mentre consente decisioni di codifica più informate.
È incredibile vedere come i clienti di tutti i settori stiano già utilizzando le soluzioni Microsoft per creare applicazioni di IA più sicure e affidabili. Per esempio,un'Unità,una piattaforma per giochi 3D, ha utilizzato il Microsoft Azure OpenAI Service per creare Muse Chat, un assistente IA che facilita lo sviluppo di giochi. Il Muse Chat utilizza modelli di filtraggio dei contenuti nelSicurezza dei contenuti di Azure AIper garantire l'uso responsabile del software. Inoltre, ilAsos,un rivenditore di moda con sede nel Regno Unito e con circa 900 brand partner, ha utilizzato gli stessi filtri di contenuto integrati in Azure AI Content Safety per supportare interazioni di alta qualità tramite un'applicazione di intelligenza artificiale che aiuta i clienti a trovare nuovi look.
Stiamo anche osservando l'impatto nello spazio educativo.Scuole pubbliche di New York CityHanno stretto una partnership con Microsoft per sviluppare un sistema di chat sicuro e appropriato per il contesto educativo, che ora stanno testando nelle scuole.Dipartimento dell'istruzione dell'Australia meridionaleha inoltre portato l'intelligenza artificiale generativa in classe con EdChat, basandosi sulla stessa infrastruttura per garantire un utilizzo sicuro da parte di studenti e insegnanti.
Privacy.I dati sono al centro dell'intelligenza artificiale e la priorità di Microsoft è garantire che i dati dei clienti siano protetti e conformi attraverso il nostroprincipi di privacyda longa data, que incluem controle do usuário, transparência e proteções legais e regulatórias.Per sviluppare ciò, oggi stiamo annunciando:
- Inferenza confidenzialein anteprimanel nostro modello Azure OpenAI Service Whisper, affinché i clienti possano sviluppare applicazioni di IA generativa che supportano la privacy verificabile end-to-end.L'inferenza confidenzialeGarantisce che i dati riservati del cliente rimangano sicuri e privati durante il processo di inferenza, che è quando un modello di IA addestrato fa previsioni o decisioni basate su nuovi dati. Questo è particolarmente importante per settori altamente regolamentati, come sanità, servizi finanziari, commercio al dettaglio, manifattura ed energia.
- Disponibilità generale delle VM riservate di Azurecon GPU NVIDIA H100 Tensor Core, che permettono ai clienti di proteggere i dati direttamente sulla GPU. Si basa sulle nostre soluzioni di calcolo confidenziale, che garantiscono che i dati del cliente rimangano crittografati e protetti in un ambiente sicuro affinché nessuno possa accedere alle informazioni o al sistema senza autorizzazione.
- Zone dati di Azure OpenAIper l'Unione Europea e gli Stati Uniti stanno arrivando presto e si basano sulla residenza dei dati esistente fornita dal Azure OpenAI Service, facilitando la gestione dell'elaborazione e dell'archiviazione dei dati delle applicazioni di IA generativa. Questa nuova funzionalità offre ai clienti la flessibilità di scalare le applicazioni di IA generativa in tutte le regioni di Azure all'interno di una geografia, mentre loro hanno il controllo dell'elaborazione e dell'archiviazione dei dati all'interno dell'UE o degli Stati Uniti.
Abbiamo notato un crescente interesse da parte dei clienti per il computing riservato e un entusiasmo per le GPU riservate, anche da parte del fornitore di sicurezza delle applicazioniF5, che sta utilizzando VM confidenziali di Azure con GPU NVIDIA H100 Tensor Core per creare soluzioni avanzate di sicurezza basate sull'IA, garantendo la riservatezza dei dati che i tuoi modelli stanno analizzando. E la corporazione bancaria multinazionaleBanca Reale del Canada (RBCintegrou il calcolo confidenziale di Azure nella propria piattaforma per analizzare dati crittografati, preservando la privacy del cliente. Con la disponibilità generale delle VM confidenziali di Azure con GPU NVIDIA H100 Tensor Core, l'RBC ora può utilizzare questi strumenti avanzati di IA per lavorare con maggiore efficienza e sviluppare modelli di IA più potenti.
Ottieni di più con un'intelligenza artificiale affidabile
Tutti noi abbiamo bisogno e speriamo in un'IA di cui possiamo fidarci. Abbiamo visto cosa è possibile quando le persone sono abilitate a usare l'IA in modo affidabile, finchéarricchire le esperienze dei dipendentiErimodellare i processi aziendaliFino areinventare il coinvolgimento del clienteEreinventare le nostre vitequotidiane Connuove funzionalitàche migliorano la sicurezza, la protezione e la privacy, continuiamo a consentire ai clienti di utilizzare e creare soluzioni di IA affidabili che aiutano tutte le persone e le organizzazioni del pianeta a raggiungere di più.In definitiva, l'IA affidabile copre tutto ciò che facciamo in Microsoft ed è essenziale per la nostra missione, poiché lavoriamo per espandere le opportunità, guadagnare fiducia, proteggere i diritti fondamentali e promuovere la sostenibilità in tutto ciò che facciamo.