A medida que a IA avanza, todos nós temos um papel a desempenhar para desbloquear o impacto positivo da IA para organizações e comunidades em todo o mundo. Es por eso que estamos enfocados en ayudar a los clientes a usar y crear IAconfiable, es decir, una IAsegura, protegida yprivada.
En Microsoft, tenemos compromisos para garantizar una IA confiable y estamos creando tecnología de soporte de vanguardia. Nuestros compromisos y recursos van de la mano para garantizar que nuestros clientes y desarrolladores estén protegidos en todas las capas.
Siguiendo nuestros compromisos, hoy anunciamos nuevosrecursosde productos para fortalecer la seguridad, protección y privacidad de los sistemas de IA.
Seguridad.La seguridad es nuestra máxima prioridad en Microsoft y nuestraIniciativa para un futuro seguro(SFI) subraya nuestros compromisos a nivel de toda la empresa y la responsabilidad que sentimos de hacer que nuestros clientes sean másseguro. Esta semana, anunciamos nuestro primerInforme de progreso del SFI, destacando actualizaciones que abarcan cultura, gobernanza, tecnología y operaciones. Esto cumple nuestra promesa de priorizar la seguridad por encima de todo y está guiado por tres principios: seguro por diseño, seguro por defecto y operaciones seguras.Además de nuestras ofertas principales,Microsoft Defender y PurviewNuestros servicios de IA cuentan con controles de seguridad básicos, como funciones internas para ayudar a evitar inyecciones inmediatas y violaciones de derechos de autor. Con base en ellas, hoy estamos anunciando dos nuevas funciones: además de nuestras ofertas principales,Microsoft Defender y PurviewNuestros servicios de IA cuentan con controles de seguridad básicos, como funciones internas para ayudar a evitar inyecciones inmediatas y violaciones de derechos de autor. Con base en ellas, hoy estamos anunciando dos nuevas funciones:
- ReseñasNoEstudio de inteligencia artificial de Azurepara apoyar el análisis de riesgos proactivo.
- Microsoft 365 Copilot proporcionarátransparencia en las consultas webpara ayudar a administradores y usuarios a entender mejor cómo la búsqueda en la web mejora la respuesta de Copilot.Disponible próximamente.
Nuestros recursos de seguridad ya están siendo utilizados por los clientes.Un Cummins, una empresa de 105 años conocida por la fabricación de motores y el desarrollo de tecnologías de energía limpia,recurrió a Microsoft Purviewpara fortalecer su seguridad y gobernanza de datos, automatizando la clasificación, marcado y etiquetado de datos.Un sistema EPAM, una empresa de ingeniería de software y consultoría de negocios, implementóo Microsoft 365Copilot para 300 usuarios debido a la protección de datos que reciben de Microsoft. J.T. Sodano, Director Senior de TI, compartió que “estábamos mucho más confiados con el Copilot para Microsoft 365, en comparación con otros LLMs (grandes modelos de lenguaje), porque sabemos que las mismas políticas de protección de datos e información que configuramos en elPerspectiva de Microsoftse aplican al Copilot.
Seguridad.Incluida la seguridad y la privacidad, los principios más amplios deMicrosoft Responsible AIestablecidos en 2018, continúan guiando cómo creamos e implementamos IA de manera segura en toda la empresa. En la práctica, esto significa construir, probar y monitorear adecuadamente los sistemas para evitar comportamientos no deseados, como contenido perjudicial, sesgo, uso indebido y otros riesgos no intencionados. A lo largo de los años, hemos realizado inversiones significativas en la construcción de la estructura de gobernanza, políticas, herramientas y procesos necesarios para defender estos principios y construir e implementar la IA de manera segura. En Microsoft, estamos comprometidos en compartir nuestros aprendizajes en este viaje de defensa de nuestros principios de IA Responsable con nuestros clientes. Utilizamos nuestras propias mejores prácticas y aprendizajes para proporcionar a las personas y organizaciones recursos y herramientas para crear aplicaciones de IA que compartan los mismos altos estándares por los que nos esforzamos.
Hoy compartimos nuevas capacidades para ayudar a los clientes a aprovechar los beneficios de la IA y, al mismo tiempo, mitigar los riesgos:
- Un recursode correcciónen la funcionalidad de detección de grounding de Microsoft Azure AI Content Safety que ayuda a corregir problemas de alucinación en tiempo real antes de que los usuarios los vean.
- Seguridad de contenido integradoque permite que los clientes inserten Azure AI Content Safety en dispositivos. Esto es importante para escenarios en el dispositivo en los que la conectividad en la nube puede ser intermitente o estar indisponible.
- Nuevas reseñasen Azure AI Studio para ayudar a los clientes a evaluar la calidad y la relevancia de las salidas y la frecuencia con la que su aplicación de IA genera material protegido.
- Detección de material protegido para programaciónahora está en versión preliminar en Azure AI Content Safety para ayudar a detectar contenido y código preexistentes. Este recurso ayuda a los desarrolladores a explorar el código fuente público en repositorios de GitHub, promoviendo la colaboración y la transparencia, al mismo tiempo que permite decisiones de codificación más informadas.
Es increíble ver cómo los clientes de todos los sectores ya están usando las soluciones de Microsoft para crear aplicaciones de IA más seguras y confiables. Por ejemplo,una Unidad,una plataforma para juegos 3D, utilizó Microsoft Azure OpenAI Service para crear Muse Chat, un asistente de IA que facilita el desarrollo de juegos. El Muse Chat utiliza modelos de filtrado de contenido enSeguridad del contenido de Azure AIpara garantizar el uso responsable del software. Además, laASOS,Un minorista de moda con sede en el Reino Unido con casi 900 socios de marca utilizó los mismos filtros de contenido integrados en Azure AI Content Safety para respaldar interacciones de alta calidad a través de una aplicación de IA que ayuda a los clientes a encontrar nuevos looks.
También estamos viendo el impacto en el espacio educativo.Escuelas públicas de la ciudad de Nueva YorkHicieron una asociación con Microsoft para desarrollar un sistema de chat seguro y apropiado para el contexto educativo, que ahora están probando en las escuelas.El Departamento de Educación de Australia del SurTambién llevó la IA generativa al aula con EdChat, apoyándose en la misma infraestructura para garantizar un uso seguro para estudiantes y profesores.
Privacidad.Los datos son el núcleo de la IA y la prioridad de Microsoft es ayudar a garantizar que los datos de los clientes estén protegidos y cumplan con las normas a través de nuestraprincipios de privacidadde larga data, que incluyen control del usuario, transparencia y protecciones legales y regulatorias.Para desarrollar esto, hoy estamos anunciando:
- Inferencia confidencialen vista previaen nuestro modelo Azure OpenAI Service Whisper, para que los clientes puedan desarrollar aplicaciones de IA generativa que brindan soporte a la privacidad verificable de extremo a extremo.La inferencia confidencialgarantiza que los datos confidenciales del cliente permanezcan seguros y privados durante el proceso de inferencia, que es cuando un modelo de IA entrenado realiza predicciones o decisiones basadas en nuevos datos. Esto es especialmente importante para sectores altamente regulados, como salud, servicios financieros, comercio minorista, manufactura y energía.
- Disponibilidad general de máquinas virtuales confidenciales de Azurecon GPU NVIDIA H100 Tensor Coreque permiten a los clientes proteger datos directamente en la GPU. Esto se basa en nuestras soluciones de computación confidencial, que garantizan que los datos del cliente permanezcan cifrados y protegidos en un entorno seguro para que nadie tenga acceso a la información o al sistema sin permiso.
- Zonas de datos de Azure OpenAIpara la Unión Europea y los Estados Unidos están llegando pronto y se basan en la residencia de datos existente proporcionada por Azure OpenAI Service, facilitando la gestión del procesamiento y almacenamiento de datos de aplicaciones de IA generativa. Esta nueva funcionalidad ofrece a los clientes la flexibilidad de escalar aplicaciones de IA generativa en todas las regiones de Azure dentro de una geografía, al mismo tiempo que les da el control del procesamiento y almacenamiento de datos dentro de la UE o de los EE. UU.
Hemos observado un creciente interés de los clientes en la informática confidencial y entusiasmo por las GPU confidenciales, incluso por parte de los proveedores de seguridad de aplicaciones.F5que está utilizando VMs confidenciales de Azure con GPUs NVIDIA H100 Tensor Core para crear soluciones avanzadas de seguridad basadas en IA, garantizando la confidencialidad de los datos que están analizando sus modelos. Y la corporación bancaria multinacionalBanco Real de Canadá (glóbulos rojosintegrou la computación confidencial de Azure en su propia plataforma para analizar datos cifrados, preservando la privacidad del cliente. Con la disponibilidad general de las VMs confidenciales de Azure con GPUs NVIDIA H100 Tensor Core, el RBC ahora puede usar estas herramientas avanzadas de IA para trabajar con más eficiencia y desarrollar modelos de IA más potentes.
Logre más con una IA confiable
Todos nosotros necesitamos y esperamos una IA en la que podamos confiar. Vimos lo que es posible cuando las personas están capacitadas para usar la IA de manera confiable, desdeenriquecer las experiencias de los empleadosyremodelar los procesos de negociohastareinventando la interacción con el clienteyreimaginar nuestras vidascotidianas. Connuevas funcionesque mejoran la seguridad, la protección y la privacidad, seguimos permitiendo que los clientes usen y creen soluciones de IA confiables que ayudan a todas las personas y organizaciones del planeta a lograr más.En última instancia, la IA confiable abarca todo lo que hacemos en Microsoft y es esencial para nuestra misión, ya que trabajamos para ampliar oportunidades, ganar confianza, proteger derechos fundamentales y promover la sostenibilidad en todo lo que hacemos.