Cómo Ring escaló su soporte global con Amazon Bedrock Knowledge Bases
Ring reemplazó un bot basado en reglas por una solución RAG centralizada usando Amazon Bedrock Knowledge Bases, reduciendo el costo por locale en 21% y manteniendo experiencia consistente en 10 regiones. En este artículo explicamos la arquitectura, flujos de contenido y lecciones útiles para equipos de soporte internacionales.
Resumen ejecutivo
Ring, la subsidiaria de Amazon enfocada en seguridad para el hogar, transformó su plataforma de atención al cliente para escalar soporte multiregional mediante un chatbot basado en Retrieval-Augmented Generation (RAG) y Amazon Bedrock Knowledge Bases. Al sustituir despliegues por región con una arquitectura centralizada y sin servidores, Ring redujo el costo de escalar a cada nuevo locale en 21% y mantuvo experiencias consistentes en 10 regiones internacionales.
En este artículo desglosamos los retos que motivaron el cambio, los requisitos arquitectónicos, el diseño de la solución y las prácticas operativas que permiten a equipos de contenido y producto mantener una base de conocimiento unificada pero con contenido específico por región.
El punto de partida: limitaciones del bot basado en reglas
El primer chatbot de Ring se construyó con Amazon Lex y lógica basada en reglas. Aunque resolvía consultas comunes, tenía limitaciones notables:
- Las conversaciones estaban restringidas a patrones predefinidos y no cubrían la diversidad de consultas reales de usuarios.
- En picos de actividad, 16% de las interacciones se escalaban a agentes humanos.
- Los ingenieros de soporte dedicaban cerca de 10% de su tiempo a mantener el sistema basado en reglas.
A medida que Ring expandió su presencia internacional, estas limitaciones hicieron insostenible continuar con despliegues por cada región.
Requisitos para la nueva solución RAG
El equipo definió cuatro necesidades clave que guiaron la arquitectura:
- Global content localization: no bastaba con traducir; cada territorio requería información específica del producto —por ejemplo especificaciones eléctricas o requisitos regulatorios— entregada desde un sistema unificado.
- Serverless, managed architecture: minimizar la gestión de infraestructura para que los ingenieros se concentren en experiencia de cliente y mejoras funcionales.
- Scalable knowledge management: soportar cientos de guías y documentos en constante actualización usando búsquedas vectoriales y pipelines automáticos de ingestión.
- Performance and cost optimization: objetivo de latencia end-to-end de 7–8 segundos; el análisis mostró que la latencia cross-region representaba menos del 10% del tiempo total de respuesta, lo que hizo viable una arquitectura centralizada.
Principio clave: filtrado por metadata y contenido por locale
Para entregar contenido específico por región sin desplegar infraestructura por cada país, Ring adoptó un enfoque basado en metadata-driven filtering. Cada fragmento de contenido se etiqueta con atributos como contentLocale y otros metadataAttributes, lo que permite que el sistema recupere y sirva texto pertinente a la región del usuario desde un repositorio central.
Este modelo facilita mantener una única fuente de verdad mientras se respeta la diversidad de configuraciones, regulaciones y documentación propias de cada territorio.
Tecnologías y decisiones serverless
Ring eligió componentes totalmente administrados y serverless para minimizar la carga operativa:
- Amazon Bedrock Knowledge Bases para almacenar y consultar el contenido indexado por vectores.
- Amazon Bedrock para la generación y orquestación de modelos de base cuando corresponde.
- AWS Lambda para procesamiento y eventos desde S3.
- AWS Step Functions para orquestación de workflows de ingestión y evaluación.
- Amazon S3 como repositorio de contenido bruto y archivos procesados.
Esta combinación permitió escalabilidad automática y eliminación de la gestión de servidores dedicados por región.
Arquitectura: separar gestión de contenido y publicación estable
La arquitectura de Ring separa el ciclo de vida del contenido en dos procesos principales: Ingestión & Evaluación, y Promoción (Promotion). Esta separación permite iterar y mejorar contenido sin impactar la base en producción.
Ingestión y evaluación
- El equipo de contenido sube documentos (guías, troubleshooting, especificaciones) a un bucket de S3. Cada objeto contiene contenido codificado y atributos de metadata que identifican el locale, el formato fuente y otros tags relevantes.
- Las notificaciones de S3 disparan funciones Lambda que copian raw data a un bucket de archivo y extraen metadatos para crear artefactos separados que alimentan la Knowledge Base.
- AWS Step Functions orquesta un flujo diario para crear y evaluar Knowledge Bases, ejecutar búsquedas vectoriales y validar calidad de respuestas.
Este flujo de evaluación asegura que nuevo contenido o revisiones sean analizados automáticamente antes de promotarse.
Promoción a producción
Una vez que el contenido pasa validaciones de calidad y evaluación automática, se promueve a la Knowledge Base de producción en Bedrock. La arquitectura permite controlar versiones y revertir promociones si se detecta regresión en la calidad.
Optimización de rendimiento y costos
El análisis de latencias permitió una decisión clave: la latencia cross-region contribuía con menos del 10% del tiempo total, y el objetivo end-to-end era de 7–8 segundos. Con esa evidencia, Ring optó por una arquitectura centralizada, evitando el costo y complejidad de desplegar infraestructuras en cada región.
Además, al usar servicios serverless y Knowledge Bases administradas, se redujeron tareas operativas y se minimizó la sobrecarga de recursos ocioso, lo cual contribuyó a la reducción de 21% en el costo incremental por locale.
Beneficios operativos y de experiencia del cliente
- Escalabilidad: agregar un nuevo locale no requiere configurar infraestructura regional adicional.
- Consistencia: los usuarios en 10 regiones obtienen experiencias más uniformes y actualizaciones simultáneas cuando procede.
- Eficiencia del equipo: menor tiempo invertido en mantenimiento de infraestructura y más foco en calidad del contenido.
- Calidad del soporte: menor necesidad de escalamiento a agentes humanos que con el sistema previo (aunque la cifra exacta de mejora operativa posterior no se detalló en la fuente).
Lecciones aplicables para América Latina
Para organizaciones latinoamericanas que buscan escalar soporte multiregional, varias lecciones de Ring resultan relevantes:
- Localización va más allá de la traducción: considerar regulaciones, voltajes, modelos de producto y diferencias de mercado.
- Centralizar con metadata: una fuente de verdad etiquetada por locale facilita gobernanza y reducción de duplicidad.
- Automatizar pipelines de contenido: integrar S3 + Lambda + orquestación para que las actualizaciones se publiquen sin intervención manual.
- Priorizar serverless cuando la meta es reducir operaciones: servicios administrados permiten al equipo centrarse en producto y experiencia.
- Medir latencias reales: entender el impacto de cross-region en el tiempo de respuesta puede justificar arquitecturas centralizadas más eficientes.
Conclusión
El caso de Ring muestra un patrón práctico para transformar soporte al cliente hacia modelos RAG escalables y gestionables. Al combinar metadata-driven filtering, pipelines automatizados de ingestión y una arquitectura serverless basada en Amazon Bedrock Knowledge Bases, Ring consiguió reducir costos de expansión y mantener experiencias consistentes en múltiples regiones.
Si están planificando un despliegue multiregional en América Latina, las prácticas descritas —etiquetado por locale, separación de flujos de ingestión y promoción, y uso de servicios administrados— ofrecen un marco probado para equilibrar calidad, costos y agilidad operativa.
Fuente original: AWS ML Blog