Combatiendo tecnologías financieras fraudulentas con aprendizaje automático

Combatiendo tecnologías financieras fraudulentas con aprendizaje automático

Plantilla G Bloques de contenido
Subeditor

Durante la última década, han aumentado las prácticas depredadoras y fraudulentas en las finanzas digitales y la tecnología financiera. Con la creciente proporción de la población mundial que utiliza dispositivos móviles para servicios financieros, existen preocupaciones constantes sobre proveedores problemáticos que se dirigen a usuarios con conocimientos limitados de servicios financieros digitales para explotar hogares y empresas vulnerables. La escala de este problema se ha acentuado por la pandemia de COVID-19. Esto no solo perjudica a los consumidores, sino que también puede generar desconfianza en las finanzas digitales y retrasar los esfuerzos de inclusión financiera. 

El aprendizaje automático, un tipo de inteligencia artificial (IA) que permite que las aplicaciones de software sean más precisas en la predicción de resultados sin estar programadas explícitamente para hacerlo, se muestra prometedor en la mitigación de las tecnologías financieras fraudulentas al analizar los datos disponibles recopilados regularmente en las tiendas de aplicaciones para crear un sistema para marcar y reportar aplicaciones altamente sospechosas. Para demostrar esto, los investigadores se basaron en los datos disponibles sobre las aplicaciones financieras de Google para 63 países que abarcan desde 2020 hasta mediados de 2021 para documentar la prevalencia de aplicaciones tan problemáticas y probar la eficacia de dichos métodos. Centrándose en las aplicaciones de préstamos personales, probaron dos enfoques para etiquetar las aplicaciones problemáticas en un conjunto de datos de entrenamiento y clasificarlas en varias clases sospechosas y legítimas mediante: 1) clasificación manual y 2) clasificación basada en orientación específica del mercado. Luego, configuraron modelos para predecir la propensión de las aplicaciones en un conjunto de datos de prueba separado a ser depredadoras o fraudulentas, aprovechando las señales estáticas y en tiempo real de los metadatos de las aplicaciones, así como las proporcionadas en los datos de revisión del usuario. Para ambos enfoques, compararon la precisión general de sus modelos con las eliminaciones reales de aplicaciones.

En general, las técnicas de aprendizaje automático demostraron la capacidad de crear un sistema para marcar e informar de manera eficiente y precisa las aplicaciones con comportamientos sospechosos, particularmente al separar entre aplicaciones "probablemente legítimas" y "probablemente sospechosas". Sin embargo, la precisión del modelo fue algo menor al diferenciar categorías más granulares, por ejemplo, entre casos de "fraude puro" y casos "depredadores". Se descubrió que diferentes configuraciones de modelos de aprendizaje automático tienen cierta influencia en la precisión predictiva. Si bien estos resultados indican que es necesario realizar más ajustes, también sugieren que el uso de un conjunto de enfoques puede ser útil para identificar con éxito las aplicaciones sospechosas de interés. En conjunto, los resultados muestran que el aprendizaje automático, incluso cuando requiere una revisión manual para protegerse contra falsos positivos o ajustes finos, puede reducir considerablemente la carga de los reguladores de la verificación manual de nuevas aplicaciones financieras. Esto también puede acelerar la velocidad a la que las aplicaciones sospechosas se pueden marcar y eliminar de las tiendas de aplicaciones.