Por: Takeshi Numoto, vicepresidente ejecutivo y director de marketing. A medida que la IA avanza, todos tenemos un papel que desempeñar para desbloquear el impacto positivo de la IA en las organizaciones y comunidades de todo el mundo. Es por eso que nos enfocamos en ayudar a los clientes a usar y crear una IA que sea confiable, es decir, una IA que sea segura, protegida y privada. En Microsoft, tenemos el compromiso de garantizar una IA confiable y creamos tecnología de soporte líder en la industria. Nuestros compromisos y capacidades van de la mano para garantizar que nuestros clientes y desarrolladores estén protegidos en todas las capas. Sobre la base de nuestros compromisos, hoy anunciamos nuevas capacidades de productos para fortalecer la seguridad, la protección y la privacidad de los sistemas de IA. Seguridad. La seguridad es nuestra principal prioridad en Microsoft, y nuestra Iniciativa de Futuro Seguro (SFI, por sus siglas en inglés) ampliada subraya los compromisos de toda la empresa y la responsabilidad que sentimos para hacer que nuestros clientes estén más seguros.
Esta semana anunciamos nuestro primer Informe de Progreso de SFI, que destaca actualizaciones que abarcan la cultura, la gobernanza, la tecnología y las operaciones. Esto cumple con nuestra promesa de priorizar la seguridad por encima de todo lo demás y se guía por tres principios: seguro por diseño, seguro por defecto y operaciones seguras. Además de nuestras ofertas propias, Microsoft Defender y Purview, nuestros servicios de IA incluyen controles de seguridad fundamentales, como funciones integradas para ayudar a evitar inyecciones rápidas e infracciones de derechos de autor. Evaluaciones en Azure AI Studio para respaldar evaluaciones de riesgos proactivas. Microsoft 365 Copilot proporcionará transparencia en las consultas web para ayudar a los administradores y usuarios a comprender mejor cómo la búsqueda web mejora la respuesta de Copilot. Nuestras capacidades de seguridad ya son utilizadas por los clientes. Cummins, una empresa de 105 años de antigüedad conocida por su fabricación de motores y el desarrollo de tecnologías de energía limpia, recurrió a Microsoft Purview para fortalecer la seguridad y la gobernanza de sus datos mediante la automatización de la clasificación, el etiquetado y el etiquetado de datos.
EPAM Systems, una empresa de ingeniería de software y consultoría empresarial, implementó Microsoft 365 Copilot para 300 usuarios debido a la protección de datos que obtienen de Microsoft. J.T. Sodano, director senior de TI, compartió que «teníamos mucha más confianza con Copilot para Microsoft 365, en comparación con otros modelos de lenguaje grandes (LLM, por sus siglas en inglés), porque sabemos que las mismas políticas de información y protección de datos que hemos configurado en Microsoft Purview aplicar a Copilot». Protección. Incluidas tanto la seguridad como la privacidad, los principios más amplios de IA Responsable de Microsoft, establecidos en 2018, continúan como guías para la forma en que construimos e implementamos la IA de manera segura en toda la empresa. En la práctica, esto significa construir, probar y monitorear de manera adecuada los sistemas para evitar comportamientos indeseables, como contenido dañino, sesgo, uso indebido y otros riesgos no deseados. A lo largo de los años, hemos realizado inversiones significativas en la creación de la estructura de gobernanza, las políticas, las herramientas y los procesos necesarios para defender estos principios y construir e implementar la IA de forma segura.
En Microsoft, nos comprometemos a compartir con nuestros clientes nuestros aprendizajes en este viaje de defensa de nuestros principios de IA Responsable. Utilizamos nuestras mejores prácticas y aprendizajes para proporcionar a las personas y organizaciones capacidades y herramientas para crear aplicaciones de IA que compartan los mismos altos estándares por los que nos esforzamos. Una capacidad de corrección en la característica de detección de conexión a tierra de Microsoft Azure AI Content Safety que ayuda a solucionar problemas de alucinación en tiempo real antes de que los usuarios los vean. Seguridad de contenido incrustado, que permite a los clientes insertar Azure AI Content Safety en los dispositivos. Esto es importante para escenarios en el dispositivo en los que la conectividad en la nube puede ser intermitente o no estar disponible. Nuevas evaluaciones en Azure AI Studio para ayudar a los clientes a evaluar la calidad y la relevancia de los resultados y la frecuencia con la que su aplicación de IA genera material protegido.
La detección de material protegido para código ya está en versión preliminar en Seguridad de contenido de Azure AI para ayudar a detectar contenido y código preexistentes. Esta característica ayuda a los desarrolladores a explorar el código fuente público en los repositorios de GitHub, lo que fomenta la colaboración y la transparencia, al tiempo que permite tomar decisiones de codificación más informadas. Es sorprendente ver cómo los clientes de todos los sectores ya utilizan las soluciones de Microsoft para crear aplicaciones de IA más seguras y fiables. Por ejemplo, Unity, una plataforma para juegos en 3D, utilizó Microsoft Azure OpenAI Service para crear Muse Chat, un asistente de IA que facilita el desarrollo de juegos. Muse Chat usa modelos de filtrado de contenido en Azure AI Content Safety para garantizar el uso responsable del software. Además, ASOS, un minorista de moda con sede en el Reino Unido con casi 900 socios de marca, utilizó los mismos filtros de contenido integrados en Azure AI Content Safety para respaldar interacciones de alta calidad a través de una aplicación de IA que ayuda a los clientes a encontrar nuevos looks.