Amazon ha anunciado la disponibilidad general de filtros de contenido de imagen en Amazon Bedrock Guardrails, una herramienta que permite moderar tanto contenido de texto como de imagen en aplicaciones de inteligencia artificial generativa. Anteriormente, la moderación estaba limitada a solo texto, pero esta nueva funcionalidad amplía significativamente las capacidades de control de contenido, facilitando la gestión de insumos y respuestas generadas por la inteligencia artificial.
Tero Hottinen, Vicepresidente de Alianzas Estratégicas en KONE, ha compartido su perspectiva sobre esta innovación, destacando que Amazon Bedrock Guardrails podría ser fundamental en la protección de aplicaciones de IA generativa, especialmente en cuanto a la verificación de relevancia y contexto. KONE planea integrar diagramas de diseño de productos y manuales en sus aplicaciones, utilizando estas medidas de seguridad para mejorar el diagnóstico y análisis de contenido multimodal.
Con Amazon Bedrock Guardrails, los usuarios pueden establecer salvaguardias configurables que les permiten bloquear inputs y outputs perjudiciales. La herramienta incluye seis políticas distinctas, desde filtros de contenido hasta detección de alucinaciones del modelo, ayudando a eliminar hasta el 88% de contenido multimodal perjudicial. Ahora, los desarrolladores pueden combinar la moderación de imágenes y texto, ajustando los umbrales de contenido de bajo a alto.
La utilidad de esta nueva función se extiende a varias regiones de AWS, como US East, US West, Europa y Asia-Pacífico, y permite a las organizaciones de sectores como la salud, el manufacturero, los servicios financieros, los medios de comunicación y la educación mejorar la seguridad de marca sin la necesidad de construir salvaguardias personalizadas o realizar evaluaciones manuales propensas a errores.
Para comenzar a utilizar filtros de contenido de imagen, los usuarios deben crear un guardrail en la consola de gestión de AWS y configurar los filtros deseados. También tienen la opción de utilizar el API independiente ApplyGuardrail para validar contenido en cualquier flujo de aplicación.
Esta herramienta representa un paso significativo hacia un uso más responsable y seguro de la inteligencia artificial, facilitando la construcción de aplicaciones que cumplan con las políticas de IA responsable de cada organización.
vía: AWS machine learning blog