Mit fortschreitender KI müssen wir alle eine Rolle dabei spielen, die positiven Auswirkungen von KI für Organisationen und Gemeinschaften auf der ganzen Welt zu erschließen. Deshalb konzentrieren wir uns darauf, Kunden bei der Nutzung und Entwicklung von KI zu unterstützen VertrauteDas heißt, eine KI Sicher, Geschützt und Privat.
Bei Microsoft haben wir Verpflichtungen zur Gewährleistung zuverlässiger KI und bauen modernste Supporttechnologie auf. Unsere Verpflichtungen und Fähigkeiten gehen Hand in Hand, um sicherzustellen, dass unsere Kunden und Entwickler auf jeder Ebene geschützt sind.
Aufgrund unserer Zusagen kündigen wir heute neue an Ressourcen Produkte zur Stärkung der Sicherheit, des Schutzes und der Privatsphäre von KI-Systemen.
Sicherheit. Sicherheit hat bei Microsoft oberste Priorität und unsere Zukünftige sichere Initiative (SFI, auf Englisch) erweitert unterstreicht das Engagement des gesamten Unternehmens und die Verantwortung, die wir empfinden, um unsere Kunden zu mehr zu machen Versicherungen. Diese Woche geben wir unser erstes bekannt SFI-FortschrittsberichtHervorhebung von Updates, die Kultur, Governance, Technologie und Betrieb umfassen Dies erfüllt unser Versprechen, Sicherheit über alles zu stellen, und orientiert sich an drei Prinzipien: sicher durch Design, sicher durch Standard und sichere Abläufe Microsoft Defender und Purview„Unsere KI-Dienste verfügen über grundlegende Sicherheitskontrollen, wie z. B. integrierte Funktionen, um sofortige Injektionen und Urheberrechtsverletzungen zu verhindern. Auf dieser Grundlage geben wir heute zwei neue Funktionen bekannt: Zusätzlich zu unseren primären Angeboten haben wir Microsoft Defender und PurviewUnsere KI-Dienste verfügen über grundlegende Sicherheitskontrollen, wie zum Beispiel integrierte Funktionen, die dazu beitragen, sofortige Injektionen und Urheberrechtsverletzungen zu verhindern. Auf dieser Grundlage geben wir heute zwei neue Funktionen bekannt:
- Auswertungen Nein Azure AI Studio Proaktive Risikoanalyse zu unterstützen.
- Microsoft 365 Copilot wird bereitstellen Transparenz bei Web-Abfragen Administratoren und Benutzern zu helfen, besser zu verstehen, wie die Websuche die Copilot-Antwort verbessert.
Unsere Sicherheitsfunktionen werden bereits von Kunden genutzt. Cummins105 Jahre altes Unternehmen, das für seine Motorenherstellung und die Entwicklung sauberer Energietechnologien bekannt ist Er wandte sich an Microsoft Purview Ihre Datensicherheit und Governance zu stärken, indem die Klassifizierung, Kennzeichnung und Kennzeichnung von Daten automatisiert wird. EPAM-SystemeEin Software-Engineering- und Unternehmensberatungsunternehmen hat eingesetzt dem Microsoft 365 Copilot an 300 Benutzer aufgrund des Datenschutzes, den sie von Microsoft erhalten. JT Sodano, Senior Director of IT, teilte mit, dass „wir im Vergleich zu anderen LLMs (große Sprachmodelle) viel sicherer mit Copilot für Microsoft 365 waren, weil wir die gleichen Daten- und Informationsschutzrichtlinien kennen, die wir in der EU eingeführt haben Microsoft Purview Copilot gelten.”
Sicherheit. Einschließlich Sicherheit und Privatsphäre, die umfassenderen Grundsätze von Verantwortungsvolle KI von Microsoft2018 gegründet, leiten wir weiterhin, wie wir KI sicher im gesamten Unternehmen erstellen und einsetzen In der Praxis bedeutet dies, Systeme richtig aufzubauen, zu testen und zu überwachen, um unerwünschte Verhaltensweisen wie schädliche Inhalte, Voreingenommenheit, Missbrauch und andere unbeabsichtigte Risiken zu verhindern Im Laufe der Jahre haben wir erhebliche Investitionen in den Aufbau des Governance-Rahmens, der Richtlinien, Tools und Prozesse getätigt, die erforderlich sind, um diese Prinzipien zu verteidigen und KI sicher aufzubauen und einzusetzen Bei Microsoft sind wir bestrebt, unsere Erkenntnisse auf diesem Weg der Verteidigung unserer Prinzipien der verantwortungsvollen KI mit unseren Kunden zu teilen Wir nutzen unsere eigenen Best Practices und Erkenntnisse, um Menschen, Organisationen und Tools bereitzustellen, um KI-Anwendungen nach den gleichen hohen Standards zu erstellen, die wir bei der Arbeit haben.
Heute teilen wir neue Fähigkeiten, um Kunden dabei zu helfen, die Vorteile von KI zu nutzen und gleichzeitig die Risiken zu mindern:
- Eine Ressource Justizvollzugsanstalt In der Erdungserkennungsfunktion von Microsoft Azure AI Content Safety, die dabei hilft, Halluzinationsprobleme in Echtzeit zu beheben, bevor Benutzer sie sehen.
- Eingebettete Inhaltssicherheit(mit dem Kunden Azure AI Content Safety in Geräte einfügen können Dies ist wichtig für Szenarien auf dem Gerät, in denen Cloud-Konnektivität möglicherweise intermittierend oder nicht verfügbar ist.
- Neue Bewertungen In Azure AI Studio, um Kunden dabei zu helfen, die Qualität und Relevanz der Ergebnisse zu beurteilen und zu beurteilen, wie oft ihre KI-Anwendung geschütztes Material generiert.
- Erkennung von geschütztem Material für die Programmierung Es befindet sich jetzt in der Vorschau in Azure AI Content Safety, um bereits vorhandene Inhalte und Code zu erkennen Diese Funktion hilft Entwicklern, öffentlichen Quellcode in GitHub-Repositories zu erkunden, die Zusammenarbeit und Transparenz zu fördern und gleichzeitig fundiertere Codierungsentscheidungen zu ermöglichen.
Es ist erstaunlich zu sehen, wie Kunden in allen Branchen bereits Microsoft-Lösungen nutzen, um sicherere und zuverlässigere KI-Anwendungen zu entwickeln Einheit, die Einheit Als Plattform für 3 D-Gaming nutzte es Microsoft Azure OpenAI Service, um Muse Chat zu erstellen, einen KI-Assistenten, der die Entwicklung von Spielen erleichtert Muse Chat verwendet Content-Filtermodelle in der Azure AI Content-Sicherheit Verantwortungsvollen Umgang mit der Software zu gewährleisten Darüber hinaus wird die ASOS, Als in Großbritannien ansässiger Modehändler mit fast 900 Markenpartnern nutzte das Unternehmen dieselben internen Inhaltsfilter in Azure AI Content Safety, um hochwertige Interaktionen über eine KI-App zu unterstützen, die Kunden dabei hilft, neue Looks zu finden.
Wir sehen auch die Auswirkungen auf den Bildungsraum. Die öffentlichen Schulen von New York City Sie haben sich mit Microsoft zusammengetan, um ein sicheres und geeignetes Chat-System für den Bildungskontext zu entwickeln, das sie jetzt in Schulen testen. Das südaustralische Bildungsministerium Außerdem brachte es mit EdChat generative KI in den Unterricht und stützte sich dabei auf dieselbe Infrastruktur, um eine sichere Nutzung für Schüler und Lehrer zu gewährleisten.
Privatsphäre. Daten stehen im Mittelpunkt der KI, und die Priorität von Microsoft besteht darin, sicherzustellen, dass Kundendaten durch unsere Hilfe geschützt und unterstützt werden Datenschutzgrundsätze Seit langem bestehen, zu denen Benutzerkontrolle, Transparenz sowie rechtlicher und regulatorischer Schutz gehören. Um dies weiterzuentwickeln, geben wir heute bekannt:
- Vertrauliche Schlussfolgerung In der vorherigen Version In unserem Azure OpenAI Service Whisper-Modell können Kunden generative KI-Anwendungen entwickeln, die überprüfbare Privatsphäre von Ende zu Ende unterstützen. Vertrauliche Schlussfolgerung Stellt sicher, dass sensible Kundendaten während des Inferenzprozesses sicher und privat bleiben, wenn ein geschultes KI-Modell Vorhersagen oder Entscheidungen auf der Grundlage neuer Daten trifft.
- Die allgemeine Verfügbarkeit von Azure Confidential VMs Mit NVIDIA H100 Tensor Core GPUs, die es Kunden ermöglichen, Daten direkt auf der GPU zu schützen. Diese basiert auf unseren vertraulichen Computerlösungen, die sicherstellen, dass Kundendaten verschlüsselt und in einer sicheren Umgebung geschützt bleiben, sodass niemand ohne Erlaubnis Zugriff auf die Informationen oder das System hat.
- Azure OpenAI-Datenzonen Für die Europäische Union und die Vereinigten Staaten kommen bald und bauen auf der bestehenden Datenresidenz auf, die von Azure OpenAI Service bereitgestellt wird, und erleichtern so die Verwaltung der Verarbeitung und Speicherung von Daten aus generativen KI-Anwendungen Diese neue Funktionalität gibt Kunden die Flexibilität, generative KI-Anwendungen in allen Azure-Regionen innerhalb einer Geographie zu skalieren, während ihnen gleichzeitig die Kontrolle über die Datenverarbeitung und - speicherung innerhalb der EU oder der USA übertragen wird.
Wir haben ein wachsendes Kundeninteresse an vertraulichem Rechnen und eine Begeisterung für sensible GPUs, auch vom Anwendungssicherheitsanbieter, gesehen F5, das vertrauliche Azure-VMs mit NVIDIA H100-Tensor-Core-GPUs verwendet, um fortschrittliche KI-basierte Sicherheitslösungen zu erstellen und so die Vertraulichkeit der von seinen Modellen analysierten Daten sicherzustellen Royal Bank of Canada (RBC) Integriertes vertrauliches Azure-Computing in seine eigene Plattform zur Analyse verschlüsselter Daten unter Wahrung der Privatsphäre der Kunden. Mit der allgemeinen Verfügbarkeit von Azure-empfindlichen VMs mit NVIDIA H100 Tensor Core-GPUs kann RBC diese fortschrittlichen KI-Tools jetzt nutzen, um effizienter zu arbeiten und leistungsfähigere KI zu entwickeln Modelle.
Mit zuverlässiger KI mehr erreichen
Wir alle brauchen und hoffen auf eine KI, der wir vertrauen können, und wir haben gesehen, was möglich ist, wenn Menschen in die Lage versetzt werden, KI zuverlässig zu nutzen Mitarbeitererfahrungen bereichern und Geschäftsprozesse neu gestalten Sogar Kundenbindung neu erfinden und Unser Leben neu denken Alltags. Mit Neue Funktionen Die Sicherheit, Schutz und Privatsphäre verbessern, ermöglichen wir Kunden weiterhin, vertrauenswürdige KI-Lösungen zu nutzen und zu entwickeln, die jeder Person und Organisation auf dem Planeten helfen, mehr zu erreichen. Letztendlich umfasst vertrauenswürdige KI alles, was wir bei Microsoft tun, und ist für unsere Mission von wesentlicher Bedeutung, da wir daran arbeiten, Chancen zu erweitern, Vertrauen zu gewinnen, Grundrechte zu schützen und Nachhaltigkeit bei allem, was wir tun, zu fördern.