Responder a: Agente AI para convertir leads en clientes potenciales con WhatsApp API

  • Angel Sánchez

    organizador
    5 mayo, 2025 en 9:47 pm

    Problemas en la configuración actual:

    1. Mensaje del usuario no capturado:
      En el campo “Prompt (User Message)” debe ir el mensaje del usuario. Como no lo habías colocado, el sistema no sabía qué contenido debía procesar.

    2. Ubicación del mensaje del sistema:
      Lo que tenías antes en “Prompt (User Message)” en realidad debe ir en “System Message”. Te adjunto una imagen para que veas cómo debería estar estructurado este punto junto con el anterior.

    3. Uso de WhatsApp – Session Key:
      Si vas a usar WhatsApp, te recomiendo usar el número del usuario como valor en “Session Key From Previous Node”. Actualmente lo tienes en “1”, pero ese ID es el que define la sesión de cada conversación. Si no lo cambias, todas las conversaciones se guardarán como si fueran de una sola persona.

    4. Context Window Length:
      Este parámetro determina cuántos mensajes anteriores se mantienen en memoria. Te recomiendo establecerlo en alrededor de 50 para mantener un contexto útil sin sobrecargar la conversación. También adjunto imagen para este punto.

    5. Modelo de lenguaje:
      El modelo que estás utilizando es bastante costoso. Te recomiendo cambiarlo a “gpt-4o-mini”, que ofrece una excelente calidad a un costo mucho más accesible.

    Observaciones sobre el prompt:

    La estructura actual del prompt no está optimizada para mantener una conversación en fases, y además hace referencia a elementos que no están disponibles o que requieren configuración adicional. A continuación te comparto algunos puntos específicos:

    1. Inicio repetitivo:
      Iniciar siempre la conversación con “Hola, soy Rafa Motte” puede hacer que las interacciones se sientan forzadas o poco naturales. Se puede plantear un inicio más flexible.

    2. Identificación del usuario (género y país):
      Aunque es posible identificar estos datos mediante preguntas, si no los estás almacenando en alguna parte, no podrás usarlos posteriormente. Será necesario conectar una herramienta para guardar esta información (lo veremos más adelante).

    3. Invitación a sesiones por Zoom:
      Si no tienes una herramienta automatizada para gestionar estas invitaciones, el asistente no podrá generarlas solo. Lo mejor sería dejar el enlace fijo dentro del prompt en caso de que aplique. También lo revisaremos más adelante.

    4. Archivos adjuntos:
      Actualmente, si colocas PDFs dentro del prompt, el modelo no podrá leerlos directamente. Una mejor opción sería alojar los documentos en Google Docs o similar, y que el modelo acceda al contenido desde allí.

    5. Origen de la conversación (Meta, WhatsApp, etc.):
      El modelo no tiene forma de saber desde dónde se originó la conversación, a menos que tú proporciones esa información. Por ahora, no tiene sentido dejar esa instrucción si no hay datos disponibles que lo respalden.

    6. Aprendizaje progresivo del modelo:
      Lamentablemente, los modelos no aprenden automáticamente de cada conversación. Nosotros nos conectamos a modelos que ya están entrenados, y no tienen la capacidad de incorporar nuevos aprendizajes tras cada interacción (más allá del contexto de la conversación activa).

    Entiendo bien lo que estás intentando hacer. Sin embargo, hay varios puntos importantes que necesitan corregirse y otros que requieren más conocimientos técnicos. Por eso, mi recomendación es que sigas el proceso que tenemos planeado en las clases y cursos. A medida que avancemos, te será mucho más fácil implementar todo esto correctamente.