Antes que nada: una aclaración ética imprescindible

Este proyecto no busca sustituir a las personas. Su objetivo es claro: aliviar el peso del trabajo repetitivo y la fatiga mental que pueden llevar a errores por agotamiento. La misión es que el profesional se concentre en supervisar y tomar decisiones empáticas y éticas, y la máquina haga lo que mejor sabe hacer… procesar datos sin parar.

En todo Servicio de Urgencias, cada segundo cuenta. La presión sobre los profesionales de Enfermería para clasificar (triage) con rapidez y precisión es inmensa. Es justamente en ese punto donde la Inteligencia Artificial puede ofrecer un soporte tangible y seguro.

¿Por qué un Agente ESI con IA?

El Emergency Severity Index (ESI) es el estándar de oro para decidir quién debe ser atendido primero. Pero la sobrecarga asistencial hace difícil mantener una consistencia perfecta bajo estrés.

Este prototipo de Agente Multimodal Responsivo, fue diseñado para aportar:

*Coherencia inquebrantable: clasifica siempre siguiendo el protocolo, sin variabilidad emocional.

*Velocidad: completa su razonamiento en segundos.

*Seguridad y control: funciona bajo criterios estrictos, pensado para simulación y docencia.

El corazón técnico del sistema

 El sistema está basado en un modelo de lenguaje (LLM, Gemini), configurado para interpretar y aplicar los protocolos del ESI.  Este funciona mediante un árbol de decisiones que evalúa los parámetros clínicos (SPO2, FC) y el motivo de consulta, y guía la categorización final (C1 a C5).

Saturometro USB

Los datos ingresados pueden provenir directamente del usuario o de sensores USB de frecuencia cardíaca (FC), saturación de oxígeno (SpO₂) e incluso imagen, enviados a la IA en tiempo real a través de una webcam.

El flujo de funcionamiento se mantiene constante y verificable:

entrada sensorial → razonamiento → clasificación → sugerencia.

El Agente LLM opera bajo reglas estrictas que definen cómo debe razonar según el ESI, y el árbol de decisiones complementa al modelo para garantizar respuestas coherentes, auditable y libres de invenciones.

Cómo funciona el Agente “A.L.E.X.”

A.L.E.X. (Agente Lógico de Evaluación eXpress) es un LLM altamente restringido mediante “programación en el prompt”. Es importante señalar que esta implementación demostrativa utiliza un prompt persistente integrado directamente en el código HTML/JavaScript para lograr su restricción.

Aunque este método es práctico y altamente accesible (ideal para docencia y prototipos rápidos), existen técnicas más robustas utilizadas en entornos de producción, como:
* Restricción a nivel de API/Backend: Manejar el prompt inicial y la lógica de triaje en un servicio backend (ej. app.py) o usando bibliotecas específicas para la orquestación de LLMs.
* Ajuste Fino (Fine-Tuning): Crear un modelo especializado directamente entrenado con datos de triaje ESI.
* Modelos Personalizados: Utilizar herramientas como Ollama Modelfiles para crear y gestionar modelos locales o internos con reglas y restricciones inherentes.
Independientemente de la técnica, el resultado es el mismo: una salida que cumple un formato estrictamente clínico y seguro.

El flujo operativo es lineal:

  1. Entrada de datos: motivo de consulta, SpO₂ y FC.

  2. Interrogatorio dirigido: preguntas específicas (dolor, conciencia, frecuencia, cronicidad, etc.).

  3. Límites estrictos:

    • máximo 3 interacciones;

    • respuestas ≤ 250 palabras;

    • si los datos son suficientes, la conversación se detiene.

  4. Salida protocolizada:

    • Categoría: C#

    • Justificación breve (2 líneas)

    • no hace diagnósticos ni dialoga libremente.

Los signos vitales se incorporan dinámicamente en la llamada a Gemini, obligando al modelo a integrarlos en cada paso del razonamiento.


Ventajas del sistema

  • Reduce errores por agotamiento, especialmente en turnos prolongados.

  • Ofrece coherencia, sin variabilidad emocional.

  • Permite auditoría posterior, ya que registra el flujo lógico completo.

  • Accesible: funciona con HTML/CSS/JS desde cualquier navegador.

  • Económico: demuestra que la IA útil no requiere hardware avanzado.


Un recurso para docencia y práctica

A.L.E.X. fue creado como una herramienta académica y de práctica. Permite evaluar cómo un agente LLM acotado puede apoyar el triage en contextos formativos. Versiones más robustas pueden ampliar la entrada de signos vitales o incorporar datos multimodales (como imagen a través de la webcam), pero incluso así demuestra rapidez, previsibilidad y control.