Microsoft deja que la IA generativa se sumerja en la ciberseguridad

por admin

Como parte de su búsqueda continua para inyectar IA generativa en todos sus productos, Microsoft presentó hoy Security Copilot, una nueva herramienta que tiene como objetivo «resumir» y «dar sentido» a la inteligencia sobre amenazas.

En un anuncio sin detalles, Microsoft presentó Security Copilot como una forma de correlacionar datos sobre ataques y al mismo tiempo priorizar los incidentes de seguridad. Innumerables herramientas ya hacen esto. Pero Microsoft sostiene que Security Copilot, que se integra con su cartera de productos de seguridad existente, mejora con los modelos de IA generativa de OpenAI, específicamente el GPT-4 de generación de texto lanzado recientemente.

«Avanzar en el estado de la seguridad requiere tanto personas como tecnología: ingenio humano combinado con las herramientas más avanzadas que ayudan a aplicar la experiencia humana a velocidad y escala», dijo el vicepresidente ejecutivo de seguridad de Microsoft, Charlie Bell, en una declaración enlatada. «Con Security Copilot estamos construyendo un futuro en el que cada defensor tendrá las herramientas y tecnologías necesarias para hacer del mundo un lugar más seguro».

Microsoft no divulgó exactamente cómo Security Copilot incorpora GPT-4, por extraño que parezca. En cambio, destacó un modelo personalizado capacitado, tal vez basado en GPT-4, que impulsa Security Copilot y que «incorpora un conjunto creciente de habilidades específicas de seguridad» e «implementa habilidades y consultas» relacionadas con la ciberseguridad.

Microsoft enfatizó que el modelo no se basa en datos de clientes, abordando una crítica común a los servicios basados ​​en modelos de lenguaje.

Este modelo personalizado ayuda a «captar lo que otros enfoques podrían pasar por alto», afirma Microsoft, al responder preguntas relacionadas con la seguridad, asesorar sobre el mejor curso de acción y resumir eventos y procesos. Pero dadas las tendencias mentirosas de los modelos de generación de texto, no está claro qué tan efectivo podría ser dicho modelo en producción.

El propio Microsoft admite que el modelo personalizado de Security Copilot no siempre hace todo bien. «El contenido generado por IA puede contener errores», escribe la empresa. «A medida que seguimos aprendiendo de estas interacciones, ajustamos sus respuestas para crear respuestas más coherentes, relevantes y útiles».

Con suerte, esos errores no terminan empeorando un problema de seguridad grave.

Pcenter.es – #Microsoft #deja #generativa #sumerja #ciberseguridad

Síguenos en YouTube: @PCenterES

También le puede interesar

Deja un comentario

Por favor, permite que se muestren anuncios en nuestro sitio web

Parece que estás usando un bloqueador de anuncios. Dependemos de la publicidad para financiar nuestro sitio web.