// blog
Construyendo agentes de IA que realmente se entregan: Lecciones de produccion
Hay una brecha entre el demo de agente de IA que impresiona a tu CEO y el agente de IA que corre de forma confiable en produccion a las 3 AM un sabado. He estado en ambos lados de esa brecha. Esto es lo que he aprendido.
Leccion 1: RAG sobre Fine-Tuning, casi siempre
Cuando construi el chatbot de IA en Keller Williams, la tentacion fue hacer fine-tuning de un modelo con nuestros datos propietarios de bienes raices. Lo intentamos. Fue caro, lento para iterar, y el modelo alucinaba con confianza sobre propiedades que no existian.
Lo que funciono: Retrieval-Augmented Generation (RAG) con pgvector. Embebimos nuestros datos de propiedades, documentacion de agentes y base de conocimiento interna en representaciones vectoriales, luego recuperamos el contexto mas relevante en tiempo de consulta.
El resultado:
- 90% de reduccion en alucinaciones comparado con fine-tuning
- Minutos para actualizar en lugar de horas para reentrenar
- Sourcing transparente — podiamos mostrar a los usuarios exactamente de donde venia la respuesta
Leccion 2: Disena para el fallo, no para el exito
Tu agente de IA se equivocara. La pregunta es: que pasa cuando lo haga?
Construye estas redes de seguridad desde el dia uno:
- Puntuacion de confianza. Si el agente no esta seguro, deberia decirlo. Implementamos un umbral simple: por debajo de 0.7 de confianza, el agente hace una pregunta de clarificacion en lugar de adivinar.
- Escalacion humana. Cada agente necesita una valvula de escape. El nuestro podia enrutar a un agente humano via WebSocket en menos de 2 segundos.
- Pista de auditoria. Registra cada decision que el agente toma, el contexto que uso y la respuesta que genero. Cuando algo salga mal (y lo hara), necesitas poder depurarlo.
Leccion 3: Empieza estrecho, expande lentamente
La tentacion es construir un asistente de proposito general. No lo hagas. Empieza con un workflow especifico:
- “Ayudar a agentes a encontrar detalles de propiedades” (no “responder cualquier pregunta sobre bienes raices”)
- “Clasificar tickets de soporte entrantes” (no “manejar todo el servicio al cliente”)
- “Generar reportes semanales de datos de ventas” (no “analizar todo”)
Una vez que domines un workflow con 95%+ de precision, expande al siguiente. Este enfoque:
- Mantiene el alcance manejable
- Hace la evaluacion concreta (obtuvo la propiedad correcta? si/no)
- Construye confianza con los stakeholders incrementalmente
Leccion 4: La integracion es mas dificil que la IA
Construir el pipeline de LLM tomo aproximadamente el 20% del esfuerzo total. El otro 80%:
- Autenticacion y autorizacion — en nombre de quien puede actuar el agente?
- Rate limiting — prevenir costos de API descontrolados
- Caching — no cada consulta necesita una llamada fresca al LLM
- Monitoreo — latencia, tasas de error, uso de tokens, costo por consulta
- Degradacion elegante — que pasa cuando el proveedor de LLM tiene una caida?
La parte de IA es la parte facil. La ingenieria de produccion alrededor de ella es donde vive el verdadero trabajo.
Leccion 5: Mide impacto, no impresividad
A nadie le importa que tu agente use GPT-4 con una cadena de razonamiento multi-etapa. Les importa que:
- El tiempo de resolucion de tickets de soporte bajo un 40%
- La entrada manual de datos paso de 20 horas/semana a 2
- Las tasas de error en procesamiento de ordenes cayeron un 85%
Construye tu dashboard de metricas antes de construir tu agente. Sabe como se ve el “exito” en numeros, y rastrealo desde el dia uno.
La fiebre del oro de los agentes de IA es real, pero la mayor parte del valor no esta en construir el modelo mas sofisticado — esta en elegir el proceso correcto para automatizar e ingeniar un sistema confiable a su alrededor. Empieza aburrido. Entrega rapido. Mide todo.