С напредването на AI всички ние трябва да играем роля в отключването на положителното въздействие на AI за организации и общности по целия свят, поради което сме фокусирани върху подпомагането на клиентите да използват и създават AI доверен, тоест AI безопасно, защитени и частен.
В Microsoft имаме ангажименти да осигурим надежден AI и изграждаме авангардна технология за поддръжка Нашите ангажименти и възможности вървят ръка за ръка, за да гарантираме, че нашите клиенти и разработчици са защитени на всеки слой.
Въз основа на ангажиментите си днес обявяваме нови ресурси продукти за укрепване на сигурността, защитата и поверителността на AI системите.
Сигурност. Сигурността е наш основен приоритет в Microsoft, а нашата Бъдеща безопасна инициатива (SFI, на английски) expanded подчертава ангажиментите на цялата компания и отговорността, която чувстваме, за да направим нашите клиенти повече застраховки. Тази седмица обявяваме първия си Доклад за напредъка на SFI, подчертавайки актуализациите, които обхващат културата, управлението, технологиите и операциите, Това изпълнява обещанието ни да дадем приоритет на сигурността преди всичко и се ръководи от три принципа: сигурна по дизайн, сигурна по подразбиране и сигурни операции Microsoft Defender и Purview, Нашите AI услуги имат основни контроли за сигурност, като вградени функции, които помагат за предотвратяване на незабавни инжекции и нарушения на авторските права Въз основа на тях днес обявяваме две нови функции: В допълнение към нашите основни предложения, ние Microsoft Defender и Purview, Нашите AI услуги имат основни контроли за сигурност, като вградени функции, които помагат за предотвратяване на незабавни инжекции и нарушения на авторските права Въз основа на тях днес обявяваме две нови функции:
- Оценки не Azure AI Studio за подпомагане на проактивен анализ на риска.
- Microsoft 365 Copilot ще предостави прозрачност в уеб заявките за да помогне на администраторите и потребителите да разберат по-добре как уеб търсенето подобрява отговора на Copilot.
Нашите функции за сигурност вече се използват от клиентите. Къминс, 105-годишна компания, известна с производството на двигатели и разработването на технологии за чиста енергия, той се обърна към Microsoft Purview за да подсилите сигурността и управлението на данните си чрез автоматизиране на класификацията на данните, маркирането и етикетирането. EPAM системи, фирма за софтуерно инженерство и бизнес консултации, е разгърната на Microsoft 365 Копилот до 300 потребители заради защитата на данните, която получават от Microsoft. JT Sodano, старши директор на ИТ, сподели, че “бяхме много по-уверени с Copilot за Microsoft 365, в сравнение с други LLM (големи езикови модели), защото знаем същите политики за защита на данните и информацията, които сме настроили в Microsoft Purview кандидатствайте за втори пилот.“
Сигурност. Включително сигурността и поверителността, по-широките принципи на Отговорен AI от Microsoft, Създадена през 2018 г, ние продължаваме да ръководим как безопасно създаваме и внедряваме AI в цялото предприятие, На практика това означава правилно изграждане, тестване и системи за наблюдение, за да предотвратим нежелано поведение като вредно съдържание, пристрастия, злоупотреба и други непредвидени рискове През годините направихме значителни инвестиции в изграждането на рамката за управление, политиките, инструментите и процесите, необходими за защита на тези принципи и изграждане и внедряване на AI сигурно В Microsoft ние се ангажираме да споделяме нашите научени по това пътуване на защита на нашите принципи за отговорен AI с нашите клиенти, Ние използваме нашите собствени най-добри практики и научени, за да предоставим на хора и организации и инструменти за създаване на AI приложения по същите високи стандарти, които имаме на работа.
Днес споделяме нови възможности, за да помогнем на клиентите да преследват предимствата на AI, като същевременно смекчават рисковете:
- Ресурс поправителен във функционалността за откриване на заземяване на Microsoft Azure AI Content Safety, която помага за отстраняване на проблеми с халюцинации в реално време, преди потребителите да ги видят.
- Сигурност на вграденото съдържание, което позволява на клиентите да вмъкват Azure AI Content Safety в устройства, Това е важно за сценарии на устройството, при които облачната свързаност може да бъде периодична или недостъпна.
- Нови оценки в Azure AI Studio, за да помогне на клиентите да оценят качеството и уместността на резултатите и колко често тяхното AI приложение генерира защитен материал.
- Откриване на защитен материал за програмиране сега е в предварителен преглед в Azure AI Content Safety, за да помогне за откриването на вече съществуващо съдържание и код, Тази функция помага на разработчиците да изследват публичния изходен код в хранилищата на GitHub, насърчавайки сътрудничеството и прозрачността, като същевременно позволява по-информирани решения за кодиране.
Удивително е да се види как клиентите в различните индустрии вече използват решения на Microsoft за изграждане на по-сигурни и надеждни AI приложения единство, Единство платформа за 3 D игри, тя използва Microsoft Azure OpenAI Service за създаване на Muse Chat, AI асистент, който улеснява разработването на игри, Muse Chat използва модели за филтриране на съдържание в Безопасност на съдържанието на Azure AI за да се гарантира отговорно използване на софтуера, Освен това, на АСОС, базиран в Обединеното кралство моден търговец на дребно с близо 900 бранд партньори, той използва същите вътрешни филтри за съдържание в Azure AI Content Safety, за да поддържа висококачествени взаимодействия чрез AI приложение, което помага на клиентите да намерят нов външен вид.
Виждаме и въздействието върху образователното пространство. Държавните училища на Ню Йорк те си партнираха с Microsoft, за да разработят сигурна и подходяща система за чат за образователния контекст, която сега тестват в училищата. Министерството на образованието на Южна Австралия той също така донесе генеративен AI в класната стая с EdChat, разчитайки на същата инфраструктура, за да осигури безопасно използване за ученици и учители.
Поверителност. Данните са в основата на AI и приоритетът на Microsoft е да помогне да се гарантира, че клиентските данни са защитени и поддържани чрез нашите принципи за поверителност дългогодишни, които включват контрол на потребителите, прозрачност и правна и регулаторна защита, За да развием това, днес обявяваме:
- Поверително заключение в предишната версия в нашия модел Azure OpenAI Service Whisper клиентите могат да разработват генеративни AI приложения, които поддържат проверима поверителност от край до край. Поверително заключение гарантира, че чувствителните данни на клиентите остават безопасни и лични по време на процеса на извод, което е, когато обучен AI модел прави прогнози или решения въз основа на нови данни.
- Общата наличност на Azure Confidential VM с графични процесори NVIDIA H100 Tensor Core, които позволяват на клиентите да защитават данните директно на графичния процесор Това се основава на нашите поверителни изчислителни решения, които гарантират, че клиентските данни остават криптирани и защитени в защитена среда, така че никой да няма достъп до информацията или системата без разрешение.
- Azure OpenAI зони с данни за Европейския съюз и Съединените щати идват скоро и се основават на съществуващата резиденция на данни, предоставена от Azure OpenAI Service, което улеснява управлението на обработката и съхранението на данни от генеративни AI приложения Тази нова функционалност дава на клиентите гъвкавостта да мащабират генеративни AI приложения във всички региони на Azure в рамките на една география, като същевременно им дава контрол върху обработката и съхранението на данни в рамките на ЕС или САЩ.
Видяхме нарастващ интерес на клиентите към поверителни компютри и ентусиазъм за чувствителни графични процесори, включително от доставчика на сигурност на приложенията F5, който използва поверителни виртуални машини на Azure с графични процесори NVIDIA H100 Tensor Core за създаване на усъвършенствани базирани на AI решения за сигурност, гарантирайки поверителността на данните, които неговите модели анализират Royal Bank of Canada (RBC) Интегрирани Azure поверителни изчисления в собствената си платформа за анализ на криптирани данни, като същевременно се запази поверителността на клиентите. С общата наличност на Azure чувствителни виртуални машини с NVIDIA H100 Tensor Core графични процесори, RBC вече може да използва тези усъвършенствани AI инструменти, за да работи по-ефективно и да разработва по-мощни AI модели.
Достигнете повече с надежден AI
Всички имаме нужда и се надяваме на AI, на който можем да се доверим, и видяхме какво е възможно, когато хората са овластени да използват AI надеждно, от обогатете опита на служителите и прекрояване на бизнес процесите дори преоткрийте ангажираността на клиентите и преосмисляне на живота ни всеки ден. С нови функции които подобряват сигурността, защитата и поверителността, ние продължаваме да даваме възможност на клиентите да използват и изграждат надеждни AI решения, които помагат на всеки човек и организация на планетата да постигнат повече В крайна сметка довереният AI обхваща всичко, което правим в Microsoft и е от съществено значение за нашата мисия, докато работим за разширяване на възможностите, спечелване на доверие, защита на основните права и насърчаване на устойчивостта във всичко, което правим.