Las pérdidas totales por fraude en 2020 ascendieron a 56 mil millones de USD y las empresas estadounidenses perderán en promedio el 5% de los ingresos brutos debido al fraude, lo que convierte a la mitigación del fraude en un área central de enfoque para empresas de todo tipo. Al mismo tiempo, detectar el fraude en tiempo real es una propuesta difícil que provoca pérdidas monetarias sustancialmente altas debido a la detección tardía del comportamiento fraudulento. Más del 50% de las organizaciones informaron en una encuesta que recuperan menos del 25% de las pérdidas por fraude. Además de las pérdidas monetarias, la detección tardía del fraude causa daños irreparables tanto a la equidad de la marca como a la confianza de los usuarios. Los usuarios de servicios en línea están en un mayor riesgo de privacidad en forma de exposición de datos personales, apropiación de cuentas para fraude o pérdidas monetarias, haciendo que la detección de fraudes sea crucial para el objetivo mayor de confianza y seguridad.
Bancos, empresas minoristas, compañías de seguros, productos de comunidades en línea y mercados por igual, necesitan herramientas y técnicas tanto para detectar fraudes y abusos en tiempo real como para tomar medidas de mitigación adecuadas en el momento adecuado, en lugar de cuando ya es demasiado tarde. Los patrones adversarios que evolucionan rápidamente hacen que la detección temprana de fraudes sea particularmente desafiante. Esto se agrava debido a la falta de herramientas para detectar esos patrones en tiempo real mediante reglas o modelos de Aprendizaje Automático (ML), ¡pero Oscilar puede cambiar eso!
La decisión instantánea de fraudes impulsada por una combinación de Aprendizaje Automático y reglas es el futuro de la mitigación de fraudes.
Detección de fraudes en tiempo real: ¿Reglas o Aprendizaje Automático?
Hasta hace poco, el enfoque principal para prevenir fraudes se centraba en la detección de fraudes basada en reglas definidas por humanos junto con la revisión manual de transacciones posiblemente fraudulentas. Aunque la revisión humana de transacciones fraudulentas puede conducir a menos falsos positivos, desafortunadamente deja una ventana de oportunidad para técnicas adversarias avanzadas y de rápida evolución que causan daños financieros y de reputación sustanciales. Por lo tanto, una mitigación efectiva del fraude requiere capacidad de decisión precisa e instantánea con bajos falsos positivos. La decisión instantánea contra fraudes implica la ingestión de cientos de señales, algunas de la transacción entrante y otras de análisis históricos, para decidir el curso de acción apropiado para la transacción mientras está ocurriendo.
¿Por qué un enfoque puramente basado en reglas es insuficiente?
Históricamente, la mitigación del fraude se centró principalmente en heurísticas definidas mediante reglas, que cuando se cumplen, desencadenan la acción correspondiente. En un enfoque basado en reglas, se marca un punto de datos como anómalo si supera un límite preestablecido y definido por humanos. Este enfoque requiere un conocimiento significativo del dominio de los datos entrantes y puede volverse menos eficaz con cambios en las señales de fraude subyacentes.
A medida que surgen nuevos patrones adversarios, la toma de decisiones debe evolucionar instantáneamente para abordarlos. Las reglas se prestan fácilmente a cambios, lo que las convierte en una buena opción para mitigar nuevos patrones adversarios. Sin embargo, a medida que los patrones adversarios se adaptan a los umbrales definidos por humanos, las reglas y los umbrales correspondientes deben adaptarse rápidamente también. Esto requiere ajustar las reglas basándose en análisis continuos de reglas y también utilizar Aprendizaje Automático.
Ajustar las reglas basadas en heurísticas puede funcionar bien para abordar ciertas señales de alta confianza, pero puede no ser suficiente para discernir nuevos patrones multidimensionales.
Por ejemplo, que la dirección de facturación utilizada para una transacción con tarjeta de crédito difiera de la dirección de facturación de la tarjeta es una señal de alto riesgo de la transacción. Pero una combinación de discernir tendencias a través de varias señales de transacciones financieras basadas en patrones históricos, tales como la cantidad de la transacción, tendencias de transacciones pasadas, ubicación GPS de la transacción, tiempo de la transacción, historial de la cuenta del comerciante, etc., limita rápidamente la efectividad de las reglas impulsadas por intuiciones humanas.
¿Por qué un enfoque puramente basado en Aprendizaje Automático es insuficiente?
El Aprendizaje Automático es efectivo para derivar predicciones de una amplia variedad de señales históricas, pero fundamentalmente no es ágil para responder a patrones adversarios de rápida evolución en el momento. Además, un enfoque puramente basado en Aprendizaje Automático para la detección de fraudes y abusos requiere una experiencia sustancial que podría no escalar bien si se aplicara en todas partes. Por ejemplo, los modelos de ML pueden operar con alta recuperación y tasas de falsos positivos relativamente altas, pero se pueden ajustar para tener una tasa de falsos positivos menor y una recuperación menor.
Encontrar el punto operativo correcto en la curva ROC es necesario para lograr el equilibrio adecuado entre la tasa de falsos positivos y la recuperación.
Los modelos de Aprendizaje Automático también son sustancialmente menos explicables en comparación con las reglas, limitando el conjunto de personas que pueden ajustar efectivamente el modelo.
Se trata de la complejidad de la lógica de decisión y la tasa de cambio
El código de aplicación es el punto de partida para reglas ligeras que son simples y no cambian a menudo, pero también es menos accesible para la mayoría de los equipos de riesgo debido a la necesidad de escribir código. A medida que el grado de complejidad y la tasa de cambio aumentan, el código de aplicación ya no es adecuado para lógica empresarial. Un motor de reglas es adecuado para lógica que cambia a menudo, pero es menos efectivo para la toma de decisiones a medida que la lógica se vuelve más compleja. El Aprendizaje Automático es mejor para sintetizar relaciones complejas entre cientos de puntos de datos en una puntuación de probabilidad cuando la tasa de cambio de los patrones de fraude es relativamente baja. A medida que aumenta la complejidad de la decisión y la tasa de cambio de las decisiones, un motor de decisiones que integre tanto Aprendizaje Automático como reglas ofrece el mejor ajuste para la toma de decisiones holística e instantánea.

Aprendizaje Automático vs Reglas: El ajuste
Aprendizaje Automático vs Reglas: El Ajuste
Aparte de la complejidad y la tasa de cambio, otros vectores para evaluar el ajuste de reglas frente a Aprendizaje Automático se centran en la explicabilidad, la precisión del resultado y el origen de la lógica.
Reglas vs Aprendizaje Automático: El Ajuste
La mitigación efectiva del fraude requiere tanto ML como reglas
La decisión precisa de riesgos en tiempo real utilizando una combinación adecuada de Aprendizaje Automático y reglas es un viaje. Esta evolución comienza reemplazando un subconjunto de reglas existentes con modelos ML, seguido de respaldar las puntuaciones de riesgo de los modelos ML con reglas, y finalmente aplicando varios modelos ML, algunos internos y otros externos, en la decisión final.
Esta evolución se caracteriza por los siguientes 3 pasos del camino.
Paso 1: Reemplace un subconjunto de reglas con nuevos modelos de Aprendizaje Automático
El primer paso en la aplicación del Aprendizaje Automático a la decisión de riesgos es reemplazar un subconjunto de reglas con un modelo ML para facilitar el mantenimiento y aumentar la recuperación.

Paso 1: Reemplace un subconjunto de reglas bien ajustadas usando Aprendizaje Automático
Con el tiempo, las organizaciones de riesgos acumulan un gran número de reglas con umbrales ajustados manualmente. No solo es esto menos sostenible, sino también engorroso para que el proceso de ajuste se mantenga al día con la evolución de los patrones de fraude. Para hacer esto, las características utilizadas en las reglas sirven como datos de entrenamiento para el modelo de Aprendizaje Automático. Por ejemplo, una regla puede negar una solicitud de usuario si el usuario no se conecta tres veces en los últimos 30 minutos y la cuenta tiene menos de 2 días de antigüedad. Otra regla puede intensificar la autenticación si el código postal de la transacción del usuario no coincide con uno en su perfil de cliente. Las características utilizadas en estas reglas, a saber, el monto de la transacción y el número de intentos fallidos de inicio de sesión, sirven como datos de entrenamiento para el modelo de Aprendizaje Automático para proporcionar una probabilidad de riesgo para la transacción del usuario en particular. Un humano generalmente define la decisión y la acción recomendada en función del umbral de la puntuación de probabilidad.
Paso 2: Respaldar nuevos modelos de Aprendizaje Automático utilizando reglas bien ajustadas
El siguiente paso en esta evolución es respaldar estos modelos ML recién creados utilizando reglas bien ajustadas.

Paso 2: Respaldar nuevos modelos ML con reglas bien ajustadas
Respaldar modelos ML con reglas es especialmente efectivo al lanzar un nuevo modelo de Aprendizaje Automático o cuando la señal que se está utilizando en las reglas no está disponible durante el entrenamiento del modelo. Compensar la precisión relativamente menos ajustada del modelo ML con algunas reglas bien ajustadas basadas en heurísticas sirve como un punto de partida razonable. Los modelos ML entrenados en otros fraudes relevantes también ayudan a proteger el lanzamiento de uno nuevo. Por ejemplo, si el resultado del modelo ML de fraude de cuenta > 0.65 y el modelo ML de reputación IP < 0.76 y el número de solicitudes de usuario en los últimos 30 minutos > 3, entonces bloquea la transacción.
El Aprendizaje Automático funciona bien cuando la puntuación de probabilidad de un modelo bien ajustado es lo suficientemente alta. Sin embargo, una puntuación de probabilidad en el área gris puede llevar a una tasa de falsos positivos alta que es difícil de explicar o razonar. Aquí es también donde el respaldo de la puntuación del modelo ML mediante reglas bien definidas ayuda efectivamente a aumentar la precisión general de la decisión. Por ejemplo, supongamos que su modelo ML de detección de fraudes tiene una puntuación de riesgo de 0.75 para el fraude de cuenta de usuario. Al mismo tiempo, si el monto de la transacción de pago es inusualmente más alto que las transacciones anteriores del mismo usuario, entonces puede aumentar la puntuación de riesgo.
Otra razón para aplicar este patrón es cuando la efectividad del modelo ML puede estar deteriorándose debido a cambios en los datos o patrones de comportamiento de los usuarios. Del mismo modo, el modelo puede estar entrenado en etiquetas que son diferentes pero correlacionadas con la etiqueta que se está prediciendo. Cuando esto sucede, agregar reglas bien ajustadas basadas en heurísticas puede aumentar la precisión general de la decisión. Por ejemplo, bloquea la transacción si el modelo ML de transacción con tarjeta de crédito > 0.81 y la edad de la cuenta del usuario > 10 días, o si el modelo ML de transacción con tarjeta de crédito está entre 0.55 y 0.81 y la edad de la cuenta del usuario ≤ 10 días. En este caso, el modelo ML ya puede estar entrenado con la edad de la cuenta del usuario, pero el comportamiento de los patrones de fraude influenciados por la edad de la cuenta del usuario puede cambiar de una manera que el modelo desconoce. Posteriormente entrenas un nuevo modelo ML incorporando el fraude de cuentas, un nuevo comportamiento de la edad de la cuenta, junto con otras características, y eventualmente reemplazas esta regla.
Paso 3: Integre múltiples modelos de ML en un modelo ML más avanzado
El paso final en la evolución lleva el péndulo del lado de las reglas al lado del Aprendizaje Automático. Este paso integra las puntuaciones de probabilidad de varios modelos ML bien ajustados, algunos internos y otros de terceros, en reglas y otros modelos ML.
Con el tiempo, a medida que la pericia de ML de la organización aumenta, varias puntuaciones de riesgo provenientes de herramientas especializadas de terceros y modelos ML internos por igual, deben integrarse para una habilidad de decisión de fraude holística. Por ejemplo, puede tener una herramienta de terceros que ofrece una puntuación de riesgo en fraude de cuentas y un modelo ML interno que ofrece una puntuación de riesgo en fraude de transacciones. Ambas puntuaciones de riesgo deben integrarse al evaluar la puntuación de riesgo general para la transacción. Tal integración comienza escribiendo reglas que combinen efectivamente varias puntuaciones de riesgo y umbrales correspondientes para luego recomendar el curso de acción apropiado. Y evoluciona hacia el entrenamiento de nuevos modelos ML utilizando salidas de modelos ML existentes bien ajustados.

Paso 3: Integre varias puntuaciones de riesgo del modelo ML en reglas al principio, seguido de un modelo ML más avanzado
Oscilar para la prevención de fraudes en tiempo real, impulsado por ML
La prevención de fraudes en tiempo real es un problema de procesamiento de datos cada vez más complejo que involucra la capacidad de integración de datos multifacética para respaldar las puntuaciones de riesgo del aprendizaje automático con reglas cuando sea necesario y tener capacidad de entrenamiento en línea para aprender continuamente nuevos patrones adversarios en evolución para proteger tanto al negocio como al usuario. Oscilar resuelve la detección de fraudes en tiempo real utilizando un motor de decisiones sin código que integra el aprendizaje automático y las reglas para habilitar una prevención de fraudes precisa y en tiempo real.