Saurabh Bajaj

Agentes de IA Autônomos na Gestão de Fraudes e Riscos

Publicado

Publicado

November 8, 2023

November 8, 2023

Tempo de leitura:

Tempo de leitura:

Saurabh Bajaj
Conteúdos

Compartilhe este artigo

Inscreva-se para atualizações por e-mail

Mantenha-se informado e conheça as últimas tendências em fraudes, crédito e riscos de conformidade.

Inscreva-se para atualizações por e-mail

Mantenha-se informado e conheça as últimas tendências em fraudes, crédito e riscos de conformidade.

Inscreva-se para atualizações por e-mail

Mantenha-se informado e conheça as últimas tendências em fraudes, crédito e riscos de conformidade.

Inscreva-se para atualizações por e-mail

Mantenha-se informado e conheça as últimas tendências em fraudes, crédito e riscos de conformidade.

Aproveitar as capacidades dos agentes de IA autônomos na gestão de fraudes e riscos pode revolucionar a forma como as organizações abordam suas operações de risco, oferecendo uma estratégia mais sutil, eficiente e proativa.

Agentes generativos ou assistentes virtuais que utilizam modelos de linguagem avançados são a próxima fronteira nos algoritmos de aprendizado de máquina. Embora a promessa da inteligência artificial geral ainda possa estar distante, agentes inteligentes ainda podem trazer benefícios tangíveis para as organizações que os implantam.

De fato, o Markets and Markets relata que o mercado para agentes autônomos crescerá de USD 4,8 bilhões em 2023 para USD 28,5 bilhões até 2028.

Um agente autônomo (ou melhor, uma rede de assistentes virtuais) pode ajudar um usuário humano a alcançar seus objetivos do dia a dia, pois eles podem executar tarefas por conta própria, reduzindo o tempo gasto em tarefas banais por operadores humanos. Além disso, esses robôs inteligentes podem trabalhar em conjunto com outros agentes adequados para diferentes tarefas, a fim de alcançar autonomamente os objetivos do seu departamento ou organização, com operadores humanos supervisionando-os.

No mundo da gestão de fraudes e riscos, estamos acostumados a lidar com diferentes tipos de sistemas automatizados para enfrentar o conjunto quase infinito e sempre mutável de desafios peculiares à nossa indústria. 

Mas com agentes autônomos, avançamos além de modelos comuns de aprendizado de máquina para quase territórios de inteligência humana, nos quais o papel do gerente de fraudes muda de um mero operador de um sistema de gestão de fraudes para o de um comandante de uma frota de robôs inteligentes.

A plataforma de decisão de risco de IA de primeira linha da Oscilar usará esses agentes para ajudar nossos clientes a utilizarem a tecnologia de IA generativa na vanguarda do combate à fraude.

Assim, este artigo irá guiá-lo, com exemplos, sobre como agentes de IA autônomos estão transformando a gestão de fraudes e riscos, e quais são suas vantagens em relação aos sistemas tradicionais baseados em regras ou aprendizado de máquina.

Os tópicos que discutiremos são:

  • A evolução da gestão de risco: de sistemas baseados em regras para agentes autônomos

  • Compreendendo agentes de IA autônomos

  • O renascimento na gestão de fraudes e riscos

  • Integrando agentes para uma estratégia coesa

  • A importância de uma rede de agentes no planejamento de tarefas

  • O caminho à frente: integrando agentes autônomos na gestão de risco

Vamos começar.

A evolução da gestão de risco: de sistemas baseados em regras para agentes autônomos

Historicamente, a gestão de risco e fraude se baseou em sistemas baseados em regras para combater atores mal-intencionados e seus vários esquemas de fraude. Com o tempo, esses sistemas foram reforçados por inovações em aprendizado de máquina, escalando esses sistemas baseados em regras para atender às demandas de nossas vidas sempre conectadas.

No entanto, essas tecnologias de detecção de fraudes, que podemos chamar de Risco 1.0 e 2.0, respectivamente, encontram-se limitadas quando enfrentam novos cenários imprevistos, incapazes de aprender ou se adaptar além de sua programação original, limitando assim sua trajetória evolutiva.

Agora estamos em um ponto crucial na evolução das tecnologias de gestão de risco com a introdução da IA generativa na detecção de fraudes: Risco 3.0.

Na gestão de fraudes e riscos, a IA Generativa emerge como uma força dinâmica, capaz de analisar padrões de dados complexos e se adaptar a ameaças emergentes com agilidade. Ela pode prever potenciais caminhos de fraude analisando conjuntos de dados mais amplos, incluindo tendências de mercado e comportamentos de clientes, oferecendo uma postura proativa na mitigação de riscos e na proteção dos ativos organizacionais.

Além disso, a IA generativa pode ser implantada de maneira confiável na forma de agentes autônomos, um tipo de assistente virtual desenvolvido com um caso de uso específico em mente e capaz de atuar tanto como um co-piloto quanto como um programa inteligente capaz de automatizar tarefas repetitivas.

Para entender os aspectos tecnológicos dessa mudança, leia nosso artigo sobre casos de uso da IA generativa em serviços financeiros.

Agora vamos nos aprofundar no mundo dos agentes de IA autônomos e suas potenciais aplicações na gestão de fraudes e riscos.

Compreendendo agentes de IA autônomos

Agentes autônomos em IA são sistemas inteligentes capazes de realizar tarefas com intervenção humana mínima. Esses agentes podem analisar conjuntos de dados complexos, identificar padrões e tomar decisões com base em suas análises. 

No contexto da gestão de fraudes e riscos, esses agentes podem ser fundamentais para identificar e mitigar riscos potenciais antes que eles se intensifiquem, oferecendo uma abordagem proativa para a gestão de riscos.

Agentes autônomos na gestão de fraudes

Agente de análise de causa raiz

A análise de causa raiz (RCA) é uma técnica de prevenção de fraudes na gestão de riscos que visa descobrir a fonte ou causa principal de um problema. 

A versão abreviada mais comumente conhecida é olhar para um sintoma, como uma transação fraudulenta ou um falso positivo, e fazer a pergunta 'Por quê?' cinco vezes para descobrir o que realmente levou a esse resultado.

O RCA normalmente é implantado seja na análise pós-evento para descobrir vulnerabilidades sistêmicas ou como uma medida preventiva para se preparar contra ameaças hipotéticas, permitindo que as organizações implantem estratégias de mitigação com antecedência. 

Como os agentes de IA autônomos têm acesso a dados de várias fontes, eles são projetados para identificar as causas subjacentes dos problemas, ajudando as organizações a evitar ocorrências futuras.

Por exemplo, agentes RCA podem responder a perguntas relacionadas a recentes aumentos na atividade fraudulenta ou descobrir medidas de segurança mal configuradas que estão recusando transações legítimas.

A grande vantagem de depender de agentes autônomos de IA para RCA é que, enquanto a técnica é o coringa da gestão de riscos, as máquinas podem conduzir tal análise muito mais rápido que operadores humanos. 

O RCA requer reconhecimento de padrões, análise temporal e multifatorial, e agentes de IA se destacam nessas tarefas, enquanto os humanos precisam consultar diferentes bancos de dados, vasculhar dados e realizar a análise manualmente.

Agente de rotulagem

A rotulagem de dados, em essência, refere-se ao processo de marcar ou anotar dados (frequentemente crus) para torná-los utilizáveis para modelos de aprendizado de máquina. Na detecção de fraudes, as transações podem ser rotuladas como "fraudulentas" ou "não fraudulentas" com base em registros históricos. 

A identificação de características, que também é feita por meio de rotulagem, é necessária para identificar com precisão quais partes dos dados são relevantes para o caso de uso dado, a fim de pesar o modelo com precisão.

Agentes de IA autônomos podem ajudar com esse processo demorado de várias maneiras. 

Usando aprendizado ativo, os agentes podem usar um pequeno conjunto de dados rotulados para julgar o restante do conjunto, deixando apenas casos ambíguos para revisão humana. Com a capacidade de fazer aprendizado por transferência, um modelo de IA treinado em detecção de fraudes pode rapidamente rotular dados em um conjunto de dados não relacionado, mas semelhante, para o mesmo caso de uso.

Além disso, agentes de IA se destacam na criação de dados sintéticos para aprimorar conjuntos de treinamento para modelos de aprendizado de máquina, reduzindo a necessidade de dados reais rotulados em conjunto.

Como a rotulagem de dados é intensamente demorada, agentes de rotulagem podem tornar o processo mais rápido, se tornando mais precisos ao longo do tempo e exigindo cada vez menos supervisão humana.

Agente de suporte ao cliente

Embora a tecnologia de chatbot esteja conosco há anos, a nova geração de tecnologia de IA generativa melhora significativamente suas capacidades. Como a automação de tarefas de suporte ao cliente e, especialmente, as conversas com os clientes eram um de seus principais casos de uso, agentes de IA autônomos são uma escolha natural para essas funções.

A capacidade de entender o contexto e lidar com ambiguidades permite que agentes de IA tenham conversas mais naturais do que os chatbots tradicionais, baseados em scripts, da era anterior. Eles também podem ser alimentados com dados do cliente, permitindo criar experiências mais personalizadas para os clientes, o que é cada vez mais importante em áreas como finanças.

Agentes de IA autônomos também são multifuncionais, o que significa que podem ser configurados para lidar com uma infinidade de tarefas especializadas de atendimento ao cliente, como fornecer suporte para documentação, ajudar clientes com solução de problemas ou cumprir funções de Perguntas Frequentes.

Agente de visualização

A visualização de dados na gestão de fraudes e riscos é uma técnica fundamental tanto para obter uma ‘visão geral’ das tendências recentes quanto para mergulhos profundos que estão relacionados ao RCA. Atualmente, cientistas de dados trabalham com gerentes de fraudes para consultar os bancos de dados relevantes e criar visualizações para análise de dados, a fim de entender o que está acontecendo nos bastidores.

Agentes autônomos que se especializam em visualização transformarão esse processo. 

Um analista pode conversar com o agente e solicitar visualizações, destaques e até análises. O agente então transforma dados complexos em formatos visuais, ajudando os analistas a identificar padrões e tendências que podem indicar atividades fraudulentas.

Agente de rede

Ao funcionar dentro de ambientes de rede, esses agentes de IA podem monitorar ativamente, aprender e responder a ameaças potenciais em tempo real. Agentes de rede podem monitorar vastamente mais informações do que agentes humanos, detectando irregularidades que podem ser indicativas de ataques de fraude ou violações de segurança (como detectar automaticamente um grande número de tentativas de ATO).

Agentes autônomos também podem monitorar o comportamento em toda a rede, estabelecendo uma linha de base de ações e transações esperadas e rapidamente sinalizando desvios da norma. 

Além disso, ao aproveitar a análise de grafos, os agentes de IA de detecção de fraudes em rede podem detectar conexões ocultas ou difíceis de detectar entre diferentes entidades no sistema (um modus operandi comum de anéis de fraude sofisticados) e recomendar ações automaticamente. 

Como o agente é integrado à pilha de detecção de fraudes, essas ações podem variar de bloquear certos atributos (como cartões de crédito ou endereços IP) a configurar novas regras ou sinalizar diferentes casos para revisão manual, como em monitoramento de transações automatizado.

Agente de conhecimento

Gerentes experientes de fraudes e riscos são conhecidos por seu amplo conhecimento em casos históricos, melhores procedimentos, informações regulatórias e de conformidade, além de conhecimento geral.

Um agente de conhecimento é um repositório de informações, tendo acesso a todos os dados e insights relevantes no sistema, e pode servir como um co-piloto quando se trata de tomada de decisão em todos os níveis. Analistas experientes podem confiar neles para coletar todas as informações relevantes em relação a um caso, bem como aconselhar sobre quais decisões tomar, enquanto novos colegas recebem o benefício do aprendizado.

Agente de mapas

Dados geoespaciais são inestimáveis quando se trata de gestão de fraudes e riscos, pois podem ser usados para detectar anomalias com base em espaço (distância) e tempo. 

Agentes de mapas utilizam dados geográficos para analisar padrões e tendências em casos de fraude, ajudando a identificar anéis de fraude operando em regiões específicas ou detectando comportamentos anômalos em nível geográfico. 

IA para prevenção de fraudes pode descobrir novas áreas de alto risco que são favorecidas por anéis de fraude que visam sua empresa, ou detectar atores de ameaça agindo de forma controlada em diferentes regiões.

Agente de identidade

A verificação de identidade do cliente depende de uma infinidade de ferramentas desde processos de verificação de identidade (KYC) até tecnologia avançada, variando desde análise comportamental até sistemas de reconhecimento biométrico e facial.

Agentes de identidade de IA unificam os dados desses sistemas, permitindo que conduzam análises e tomem as decisões apropriadas, tornando-os ferramentas inestimáveis no combate a fraudes relacionadas à identidade.

O renascimento na gestão de fraudes e riscos

A metamorfose de sistemas baseados em regras e aprendizado de máquina para IA Generativa e agentes autônomos catalisou um renascimento no campo da gestão de fraudes e riscos. 

Estamos entrando em uma nova era de detecção proativa de fraudes e tomada de decisão aprimorada, caracterizada por profundidade intelectual e agilidade. 

Vamos aprofundar as nuances dessa transformação:

  • Detecção proativa de fraudes: uma nova fronteira
    Enquanto os sistemas tradicionais de prevenção de fraudes operam com base em regras predefinidas, identificando atividades fraudulentas com base em dados históricos, a IA generativa inaugura uma nova fronteira na detecção proativa de fraudes. 

    Detecção de fraudes com IA pode prever potenciais padrões de fraude antes que se manifestem, analisando e aprendendo com um conjunto de dados mais amplo e complexo, incluindo tendências e padrões emergentes. 

    Uma postura proativa é crucial para mitigar riscos em estágio embrionário, potencialmente protegendo organizações de perdas financeiras e reputacionais significativas.

  • Tomada de decisão aprimorada: a abordagem intelectual

    A IA Generativa facilita uma abordagem mais intelectual para a tomada de decisões na gestão de riscos. Ela pode dissecar vastos conjuntos de dados, descobrir padrões ocultos e fornecer insights profundos que auxiliam na tomada de decisões estratégicas bem-informadas. 

    A capacidade intelectual é um salto significativo em relação à IA tradicional, que está confinada a um conjunto fixo de regras e não pode se adaptar à fluidez de padrões ou tendências em mudança.

  • Resposta dinâmica a ameaças emergentes: o defensor ágil

    A agilidade é um ativo valioso no cenário sempre mutável de ameaças cibernéticas e fraudes. A gestão de risco com agentes de IA, com suas capacidades de aprendizado e adaptação, personifica essa agilidade, evoluindo suas estratégias e soluções em tempo real para oferecer uma defesa robusta contra esquemas de fraude sofisticados e continuamente evolutivos.

  • Compreensão e análise contextual: o mergulho profundo

    A IA Generativa introduz um nível mais profundo de compreensão na gestão de fraudes e riscos ao analisar o contexto por trás dos dados e transações. Ela pode identificar padrões sutis e complexos nos dados que seriam impossíveis ou extremamente demorados para um humano ou IA tradicional detectar. 

    Compreensão contextual permite uma abordagem mais sutil para a gestão de riscos, onde as decisões são baseadas em uma compreensão mais profunda dos fatores subjacentes e implicações potenciais.

  • Automatizando processos complexos: o maestro eficiente

    A gestão de fraudes com agentes de IA se destaca como um maestro na automação de processos complexos, que antes dependiam de intervenção humana. Ela pode lidar com tarefas multifacetadas, analisar estruturas de dados complexas e gerar insights, tornando o processo mais eficiente e menos suscetível a erros humanos.

Integrando agentes para uma estratégia coesa

No panorama geral, esses agentes não são apenas entidades individuais operando isoladamente. Eles são engrenagens em uma máquina maior, cada uma contribuindo para uma estratégia coesa visando revolucionar as operações de fraudes e riscos. 

Por exemplo:

  • O agente de rede pode identificar uma possível violação de segurança

  • Trabalhar em conjunto com o agente de identidade para verificar as identidades envolvidas

  • Enquanto o agente de conhecimento fornece insights para auxiliar na tomada de decisões. 

Uma abordagem colaborativa garante uma estratégia mais robusta e abrangente, onde tarefas complexas são tratadas de forma eficiente, abrindo caminho para a gestão de riscos autônoma.

O nome dessa estratégia é chamado de rede de agentes autônomos, que orquestra os diferentes tipos de agentes para trabalharem em uníssono para alcançar seus objetivos.

A importância de uma rede de agentes no planejamento de tarefas

Embora um agente de IA individual possa ser uma ferramenta poderosa, esses assistentes inteligentes realmente brilham em uma rede de agentes bem organizada. 

A rede de agentes serve como a espinha dorsal de uma estratégia coesa, onde diversos agentes trabalham em harmonia para realizar tarefas complexas que exigem abordagens multifacetadas e esforços colaborativos. Vamos explorar os aspectos críticos que destacam a importância de uma rede de agentes no planejamento de tarefas:

Delegação e autonomia

Uma rede eficiente de agentes de IA prospera nos princípios de delegação e autonomia. Agentes são atribuídos a papéis específicos com base em suas forças e capacidades, permitindo que se concentrem em aspectos particulares de uma tarefa. 

A delegação de tarefas garante que cada agente possa operar dado uma lista de tarefas autonomamente dentro de seu domínio, contribuindo para o objetivo geral sem supervisão constante, acelerando assim o processo e aumentando a eficiência.

Comunicação entre agentes

Para que uma rede funcione de forma fluida, a comunicação entre agentes é vital. Agentes precisam trocar informações, compartilhar insights e colaborar para tomar decisões bem informadas. 

O diálogo entre agentes facilita uma abordagem coesa para a resolução de problemas, onde insights de um agente podem auxiliar outros a cumprir seus papéis de forma mais eficaz.

Evitando comportamento recursivo e alucinações

Uma rede de agentes bem projetada está equipada com mecanismos para evitar armadilhas como comportamento recursivo, onde um agente pode ficar preso em um loop, repetindo as mesmas ações sem progredir. 

Da mesma forma, os agentes são programados para evitar alucinações, onde podem perceber padrões ou tendências inexistentes. Essas precauções garantem que os agentes permaneçam focados em suas tarefas, contribuindo positivamente para a estratégia geral.

Manter conversas longas e esforços colaborativos

No contexto de gestão de fraudes e riscos, as tarefas frequentemente requerem esforços sustentados e longas conversas entre agentes. Os agentes precisam manter um diálogo, discutir desenvolvimentos e compartilhar insights ao longo do tempo. 

A comunicação contínua garante que os agentes podem se adaptar a circunstâncias em mudança, modificando suas estratégias com base nas informações mais recentes e trabalhando juntos para alcançar o objetivo comum.

Colaboração multi-equipes

Tarefas complexas muitas vezes exigem o envolvimento de várias equipes, cada uma trazendo um conjunto único de habilidades e perspectivas para a mesa. 

Em uma rede de agentes, essa colaboração é facilitada por meio de uma abordagem estruturada, onde equipes trabalham juntas, complementando os esforços umas das outras e contribuindo para uma estratégia abrangente. 

A colaboração multi-equipes é vital na solução de questões complexas, oferecendo uma abordagem mais completa para a gestão de fraudes e riscos.

Ao fomentar delegação, autonomia, comunicação e colaboração, essa rede garante uma abordagem coesa e eficiente para a solução de problemas. 

À medida que avançamos ainda mais nesse domínio, o papel das redes de agentes se tornará, sem dúvida, mais pronunciado, oferecendo um caminho promissor para inovação e progresso na luta contra fraudes e crimes financeiros.

Equilibrando controle e autonomia: agentes autônomos serão confiáveis?

À medida que nos aprofundamos no reino dos agentes autônomos, surge uma pergunta pertinente: Podemos confiar nesses agentes para tomar decisões críticas de forma autônoma? 

A resposta está no equilíbrio entre controle e autonomia. Embora esses agentes sejam projetados para operar independentemente, um certo nível de supervisão humana é essencial para garantir confiabilidade e prevenir uso inadequado.

Por exemplo, no setor financeiro, um agente autônomo em gestão de fraudes poderia ser empregado para monitorar transações e identificar potenciais casos de fraude. 

No entanto, a decisão final sobre sinalizar uma transação como fraudulenta ainda pode exigir intervenção humana, garantindo um equilíbrio entre automação e julgamento humano.

O que significa para um agente de IA ser crível e semelhante ao humano?

À medida que a tecnologia de IA avança, a linha entre humano e máquina se torna cada vez mais tênue. 

No contexto de serviço ao cliente, por exemplo, os agentes de IA agora são capazes de entender e responder a consultas complexas de uma forma que é quase indistinguível de um agente humano. 

Essa capacidade quase humana não apenas melhora a experiência do cliente, mas também adiciona uma camada de segurança, pois esses agentes podem ser treinados para identificar e responder a tentativas de fraude potenciais de maneira mais sutil.

A inovação na gestão de fraudes e riscos geralmente espelha inovações em técnicas de fraude. Agentes de IA autônomos auxiliando os futuros gerentes de riscos surgem em um momento em que os mesmos agentes inteligentes estarão amplamente disponíveis para atores mal-intencionados também.

Fraudadores têm utilizado bots e tecnologia de automação desde sempre para escalar seus ataques, e a IA generativa lhes permitirá lançar novos ataques de bot com comportamento semelhante ao humano, aumentando a eficácia de ataques de phishing e engenharia social.

No futuro, isso significará um número crescente de ameaças ao resultado financeiro das empresas, o que significa que aumentar os analistas de risco através da mesma tecnologia de agente rapidamente se tornará uma necessidade para lidar com o crescente volume de ataques sofisticados.

O caminho à frente: integrando agentes autônomos na gestão de risco

À medida que navegamos pelo complexo cenário da gestão de fraudes e riscos, a integração de agentes de IA autônomos apresenta um caminho promissor para inovação e eficiência. 

Aproveitando as capacidades desses agentes, as organizações podem desenvolver estratégias mais robustas e proativas, ajudando a proteger seus ativos e clientes das ameaças sempre em evolução de fraudes e crimes financeiros.

O caminho à frente é promissor, e com a abordagem certa, a integração de agentes de IA autônomos pode revolucionar o campo da gestão de fraudes e riscos, abrindo caminho para um ecossistema financeiro mais seguro.

Próximos Passos: Como começar com a decisão de risco de IA generativa para o seu negócio

Pronto para revolucionar sua tomada de decisões com a tecnologia mais avançada de IA? Dê o primeiro passo em direção a uma detecção de fraudes aprimorada, menos falsos positivos e maior eficiência operacional com o Generative AI for Risk Decisioning da Oscilar

  • Participe da Comunidade RiskCon para fazer parte do maior grupo de especialistas em risco, subscrição de crédito e prevenção de fraudes.   

  • Veja as capacidades da plataforma Oscilar assistindo ao nosso vídeo tour

  • Inscreva-se no melhor boletim informativo no espaço de Gestão de Riscos e Fraudes abaixo

  • Ou agende uma demonstração diretamente para ver a Oscilar em ação

Continue lendo