Während die KI voranschreitet, haben wir alle eine Rolle dabei, das positive Potenzial der KI für Organisationen und Gemeinschaften weltweit freizusetzen. Deshalb konzentrieren wir uns darauf, den Kunden zu helfen, KI zu nutzen und zu erstellenzuverlässig, also eine KIsicher, geschütztUndPrivat.
Bei Microsoft verpflichten wir uns, eine vertrauenswürdige KI zu gewährleisten, und entwickeln fortschrittliche Unterstützungstechnologien. Unsere Verpflichtungen und Ressourcen gehen Hand in Hand, um sicherzustellen, dass unsere Kunden und Entwickler in allen Schichten geschützt sind.
Aufbauend auf unseren Verpflichtungen geben wir heute neueRessourcenvon Produkten zur Stärkung der Sicherheit und des Datenschutzes von KI-Systemen.
Sicherheit.Sicherheit hat bei Microsoft höchste Priorität und unsereInitiative „Zukunft sichern“(SFI) unterstreicht unser unternehmensweites Engagement und die Verantwortung, die wir empfinden, unseren Kunden mehrVersicherung. Diese Woche haben wir unseren erstenSFI-Fortschrittsbericht, hervorhebend Aktualisierungen, die Kultur, Governance, Technologie und Betrieb umfassen. Dies erfüllt unser Versprechen, die Sicherheit über alles zu stellen, und wird von drei Prinzipien geleitet: Sicherheit durch Design, Sicherheit standardmäßig und sichere Operationen.Neben unseren Hauptangeboten,Microsoft Defender e PurviewUnsere KI-Dienste verfügen über grundlegende Sicherheitskontrollen, wie interne Funktionen zur Vermeidung von sofortigen Injektionen und Urheberrechtsverletzungen. Auf ihrer Grundlage kündigen wir heute zwei neue Funktionen an: Neben unseren Hauptangeboten,Microsoft Defender e PurviewUnsere KI-Dienste verfügen über grundlegende Sicherheitskontrollen, wie interne Funktionen zur Vermeidung von sofortigen Injektionen und Urheberrechtsverletzungen. Auf ihrer Grundlage kündigen wir heute zwei neue Funktionen an:
- BewertungenNEINAzure AI Studiozur Unterstützung einer proaktiven Risikoanalyse.
- Microsoft 365 Copilot bietetTransparenz bei Webabfragenum die Administratoren und Benutzer dabei zu unterstützen, besser zu verstehen, wie die Websuche die Antwort des Copilot verbessert.In Kürze verfügbar.
Unsere Sicherheitsfunktionen werden bereits von den Kunden genutzt.Ein Cummins, ein 105 Jahre altes Unternehmen, das für seine Motorenherstellung und Entwicklung sauberer Energietechnologien bekannt ist,wandte sich an Microsoft Purviewum die Sicherheit und Datenverwaltung zu stärken, indem die Klassifizierung, Markierung und Etikettierung von Daten automatisiert werden.Ein EPAM-System, ein Softwareentwicklungs- und Unternehmensberatungsunternehmen, implementierteo Microsoft 365Copilot für 300 Benutzer aufgrund des Datenschutzes, den sie von Microsoft erhalten. J.T. Sodano, leitender IT-Direktor, teilte mit: „Wir waren viel zuversichtlicher bei Copilot für Microsoft 365 im Vergleich zu anderen großen Sprachmodellen (LLMs), weil wir wissen, dass die gleichen Datenschutz- und Informationsschutzrichtlinien gelten, die wir eingerichtet haben.“Microsoft Purviewgelten für den Copilot.
Sicherheit.Einschließlich Sicherheit und Datenschutz, die umfassenderen Prinzipien vonMicrosoft Responsible AI, die im Jahr 2018 festgelegt wurden, leiten weiterhin, wie wir KI sicher im gesamten Unternehmen entwickeln und implementieren. In der Praxis bedeutet dies, Systeme angemessen zu entwickeln, zu testen und zu überwachen, um unerwünschte Verhaltensweisen wie schädliche Inhalte, Vorurteile, Missbrauch und andere unbeabsichtigte Risiken zu vermeiden. Im Laufe der Jahre haben wir bedeutende Investitionen in den Aufbau der Governance-Struktur, Richtlinien, Werkzeuge und Prozesse getätigt, die erforderlich sind, um diese Prinzipien zu verteidigen und KI sicher zu entwickeln und einzusetzen. Bei Microsoft sind wir bestrebt, unsere Erkenntnisse auf diesem Weg zur Verteidigung unserer Prinzipien der verantwortungsvollen KI mit unseren Kunden zu teilen. Wir verwenden unsere eigenen bewährten Praktiken und Erkenntnisse, um Menschen und Organisationen Ressourcen und Werkzeuge bereitzustellen, mit denen sie KI-Anwendungen entwickeln können, die die gleichen hohen Standards erfüllen, nach denen wir streben.
Heute stellen wir neue Funktionen vor, die Kunden dabei helfen, die Vorteile der KI zu nutzen und gleichzeitig die Risiken zu minimieren:
- Eine Ressourceder Korrekturbei der Grounding-Erkennungsfunktion von Microsoft Azure AI Content Safety, die hilft, Halluzinationen in Echtzeit zu korrigieren, bevor die Benutzer sie sehen.
- Sicherheit eingebetteter Inhalte, die es den Kunden ermöglicht, Azure AI Content Safety in Geräte zu integrieren. Das ist wichtig für Szenarien auf dem Gerät, bei denen die Cloud-Konnektivität intermittierend oder nicht verfügbar sein kann.
- Neue BewertungenIm Azure AI Studio, um Kunden dabei zu helfen, die Qualität und Relevanz der Ausgaben sowie die Häufigkeit zu bewerten, mit der ihre KI-Anwendung geschütztes Material erzeugt.
- Erkennung von geschütztem Material für die ProgrammierungJetzt ist es in der Vorschauversion im Azure AI Content Safety verfügbar, um bei der Erkennung von vorhandenem Inhalt und Code zu helfen. Diese Funktion hilft Entwicklern, den öffentlichen Quellcode in GitHub-Repositories zu erkunden, fördert Zusammenarbeit und Transparenz und ermöglicht gleichzeitig fundiertere Programmierentscheidungen.
Es ist erstaunlich zu sehen, wie Kunden aus allen Branchen bereits die Microsoft-Lösungen nutzen, um sicherere und zuverlässigere KI-Anwendungen zu entwickeln. Zum Beispiel,eine Einheit,Eine Plattform für 3D-Spiele nutzte den Microsoft Azure OpenAI Service, um den Muse Chat zu erstellen, einen KI-Assistenten, der die Spieleentwicklung erleichtert. Der Muse Chat verwendet Inhaltsfiltermodelle in derAzure AI-Inhaltssicherheitum die verantwortungsvolle Nutzung der Software zu gewährleisten. Darüber hinausASOS,Ein in Großbritannien ansässiger Modehändler mit fast 900 Markenpartnern nutzte dieselben integrierten Inhaltsfilter in Azure AI Content Safety, um hochwertige Interaktionen durch eine KI-Anwendung zu unterstützen, die Kunden dabei hilft, neue Looks zu finden.
Wir sehen auch die Auswirkungen im Bildungsbereich.Öffentliche Schulen in New York CitySie haben eine Partnerschaft mit Microsoft geschlossen, um ein sicheres und kontextbezogenes Chat-System für den Bildungsbereich zu entwickeln, das jetzt in Schulen getestet wird.Das südaustralische Bildungsministeriumbrachte mit EdChat auch generative KI in den Unterricht und verließ sich dabei auf dieselbe Infrastruktur, um eine sichere Nutzung für Schüler und Lehrer zu gewährleisten.
Privatsphäre.Daten sind das Herzstück der KI, und Microsofts Priorität besteht darin, sicherzustellen, dass Kundendaten geschützt und konform sind.DatenschutzgrundsätzeSeit langem bestehend, einschließlich Benutzerkontrolle, Transparenz und rechtlicher sowie regulatorischer Schutzmaßnahmen.Um das principais novidades que estamos anunciando hoje:
- Vertrauliche Schlussfolgerungin der VorschauIn unserem Azure OpenAI Service Whisper-Modell, damit Kunden generative KI-Anwendungen entwickeln können, die eine überprüfbare End-to-End-Datenschutzunterstützung bieten.Die vertrauliche SchlussfolgerungGarantiert, dass die vertraulichen Kundendaten während des Inferenzprozesses sicher und privat bleiben, bei dem ein trainiertes KI-Modell Vorhersagen oder Entscheidungen auf der Grundlage neuer Daten trifft. Dies ist besonders wichtig für stark regulierte Branchen wie Gesundheit, Finanzdienstleistungen, Einzelhandel, Fertigung und Energie.
- Allgemeine Verfügbarkeit von Azure Confidential VMscom GPUs NVIDIA H100 Tensor Core, die es den Kunden ermöglichen, Daten direkt auf der GPU zu schützen. Dies basiert auf unseren Lösungen für vertrauliche Datenverarbeitung, die sicherstellen, dass die Kundendaten verschlüsselt und geschützt in einer sicheren Umgebung verbleiben, sodass niemand ohne Erlaubnis Zugriff auf die Informationen oder das System hat.
- Azure OpenAI-DatenzonenFür die Europäische Union und die Vereinigten Staaten kommen sie bald und basieren auf der bestehenden Datenresidenz, die vom Azure OpenAI Service bereitgestellt wird, was die Verwaltung der Verarbeitung und Speicherung von Daten generativer KI-Anwendungen erleichtert. Diese neue Funktion bietet Kunden die Flexibilität, generative KI-Anwendungen in allen Azure-Regionen innerhalb einer Geografie zu skalieren, während sie die Kontrolle über die Verarbeitung und Speicherung von Daten innerhalb der EU oder der USA behalten.
Wir beobachten ein wachsendes Kundeninteresse an vertraulichem Computing und eine wachsende Begeisterung für vertrauliche GPUs, auch bei Anwendungssicherheitsanbietern.F5, die vertrauliche Azure-VMs mit NVIDIA H100 Tensor Core-GPUs verwenden, um fortschrittliche KI-basierte Sicherheitslösungen zu entwickeln und die Vertraulichkeit der Daten zu gewährleisten, die von Ihren Modellen analysiert werden. Und die multinationale BankenkorporationRoyal Bank von Kanada (RBC) integrierte die vertrauliche Azure-Computing in Ihre eigene Plattform, um verschlüsselte Daten zu analysieren und die Privatsphäre der Kunden zu wahren. Mit der allgemeinen Verfügbarkeit der Azure Confidential VMs mit NVIDIA H100 Tensor Core GPUs kann das RBC jetzt diese fortschrittlichen KI-Tools nutzen, um effizienter zu arbeiten und leistungsstärkere KI-Modelle zu entwickeln.
Erreichen Sie mehr mit vertrauenswürdiger KI
Wir alle brauchen und erwarten eine KI, der wir vertrauen können. Wir haben gesehen, was möglich ist, wenn Menschen befähigt werden, KI zuverlässig zu nutzen, seitbereichern die Erfahrungen der MitarbeiterUndGeschäftsprozesse neu gestaltenbisKundenengagement neu erfindenUndunser Leben neu erfindenalltägliche Dinge. Mitneue Funktionendie die Sicherheit, den Schutz und die Privatsphäre verbessern, erlauben wir weiterhin den Kunden, vertrauenswürdige KI-Lösungen zu nutzen und zu entwickeln, die allen Menschen und Organisationen auf der Welt helfen, mehr zu erreichen.Letztendlich umfasst vertrauenswürdige KI alles, was wir bei Microsoft tun, und ist für unsere Mission unerlässlich, da wir daran arbeiten, Chancen zu erweitern, Vertrauen zu gewinnen, Grundrechte zu schützen und Nachhaltigkeit in allem, was wir tun, zu fördern.