Microsoft lanza Azure AI Content Safety para entornos en línea más seguros

por admin

Microsoft ha lanzado Azure AI Content Safety, que utiliza detección de texto e imágenes para identificar y filtrar contenido dañino en aplicaciones y servicios.

El Departamento de Educación de Australia del Sur ha introducido en las aulas un chatbot impulsado por inteligencia artificial llamado EdChat para ayudar a los estudiantes en la investigación y a los educadores en la planificación de lecciones. Sin embargo, garantizar la seguridad de los estudiantes frente a contenidos potencialmente dañinos o inapropiados que puedan surgir al utilizar un modelo de lenguaje extenso es una preocupación importante.

El departamento utilizó Azure AI Content Safety, proporcionado por Microsoft, para establecer barreras de seguridad para EdChat. Estas características de seguridad bloquean
– consultas de entrada inapropiadas
– filtrar respuestas dañinas
Permitir que los profesores se centren en los beneficios educativos de la tecnología. Según Simon Chapman, director de arquitectura digital del departamento, Azure AI Content Safety fue esencial para el éxito del proyecto.

Luisa Han 2 1697498736284Luisa Han 2 1697498736284

Azure AI Content Safety ahora está disponible como producto independiente. La plataforma detecta contenido relacionado con temas de odio, violencia, sexualidad y autolesiones utilizando modelos avanzados de lenguaje y visión.

Cuando se detecta contenido potencialmente dañino, se marca con una puntuación de gravedad estimada, lo que permite a las organizaciones adaptar el servicio para bloquear o marcar contenido según sus políticas específicas.

Azure AI Content Safety se puede personalizar para diversos casos de uso y las organizaciones pueden adaptar sus políticas para alinearlas con sus necesidades específicas. Esta flexibilidad es crucial, ya que diferentes industrias y contextos pueden requerir estándares de contenido distintos.

Microsoft está trabajando para mejorar la seguridad del contenido de Azure AI a través de investigaciones y comentarios de los clientes para evitar posibles desafíos relacionados con la seguridad del contenido a medida que la IA generativa se generaliza. Esto incluye mejorar las capacidades de detección para combinaciones de contenido multimodal, como imágenes y texto en memes.

Pcenter.es

Síguenos en YouTube: @PCenterES

También le puede interesar

Deja un comentario

Por favor, permite que se muestren anuncios en nuestro sitio web

Parece que estás usando un bloqueador de anuncios. Dependemos de la publicidad para financiar nuestro sitio web.