Tag Archives: cyberwar

Prevenindo fraudes na internet pelo controle das fontes de tráfego.

Fraude

No início da Internet era muito interessante que as empresas pudessem contar com um site institucional recheado com as principais informações sobre o seu negócio: endereço, história, lojas, algum catálogo de produto.
Mas logo chegaram as redes sociais e exigiu uma postura mais ativa das empresas em relação aos seus consumidores, criando perfis sociais, para interagir diretamente com seus clientes.
Na atualidade, onde o e-commerce cresce a taxas de 24% ao ano (aproximadamente, 12 vezes a taxa de crescimento do PIB Brasileiro em 2012!), a internet acabou se tornando uma das principais formas de captação de clientes e conquista de mercados, motivo pelo qual a grande maioria das empresas se empenha tanto na geração de tráfego para seus “web sites”.
Mas o que ainda chama a atenção dos estudiosos é que a grande maioria das empresas que adquirem novas fontes de tráfego para incrementar a expansão de seus negócios na internet tem pouco conhecimento sobre a qualidade das mesmas e muito menos de seus visitantes individuais.
Apesar da adoção generalizada de ferramentas de análise e do aumento da acessibilidade de dados, o conhecimento sobre a autenticidade de um usuário não é parte do processo de tomada de decisão para a grande maioria das empresas que usam a internet para a realização de negócios.
Assim, assume um papel cada vez mais preponderante na realização de negócios, que as empresas, sejam do tamanho que for, procurem atentar para esta questão: este usuário é mesmo real?
E a situação fica ainda mais alarmante na medida em que os comerciantes de internet enfrentam uma série de ameaças, tais como fraudes internacionais, o uso de “botnets” com capacidade para gerar milhões de dólares em publicidade a cada dia, dentre outras.
Podemos citar, por exemplo, as empresas de publicidade pela internet, as quais, na maioria das vezes e com raríssimas exceções, tem muito pouco a oferecer em resposta aos problemas mencionados, o que leva a uma falta de transparência no tráfego de informações e a uma diminuição global no desempenho de campanhas levadas à cabo pela grande rede.
Atualmente pode ser vista uma grande preocupação por parte dos especialistas em segurança da informação quanto a estas questões, o que levou ao desenvolvimento de uma nova geração de ferramentas de detecção de fraude.
Estas novas ferramentas incluem uma série de recursos para facilitar a filtragem de tráfego em tempo real e na adoção de medidas muito mais eficientes nos processos de identificação de potenciais compradores, permitindo importantes recursos para a tomada de decisão em tempo real, identificação de usuários e modelos de pontuação abrangente que se correlacionam diretamente com a qualidade dos dados.
Mas diante de uma escalada cada vez maior nos custos de segurança da informação porque seria importante investir numa solução de detecção de fraudes?
Dentre as principais razões que podemos apontar, destacamos as seguintes:

1)Expandir o potencial de receita:
Ao fornecer informações em tempo real sobre a qualidade de fontes de tráfego, a detecção de fraudes permite que os administradores de “web sites” possam tomar importantes decisões muito antes das métricas de conversão estar disponíveis. Esta capacidade de filtrar rapidamente fontes fraudulentas abre as portas para novos canais de negócios, com identificação de alvos anteriormente desprezados pelo alto nível de risco, ainda com a vantagem de oferecer um “ROI” mais baixo para eventuais anunciantes.

2)Readquirir custos de oportunidade perdidos:
As empresas podem realocar verbas publicitárias contra fraudes para compra de fontes de tráfego de qualidade muito maior e consequentemente mais onerosas. Isso é possível através de um processo de compra transparente, o qual lança mais luz sobre a qualidade das fontes individuais. Ao transferir recursos para fontes mais lucrativas de tráfego, os comerciantes podem aumentar ainda mais a receita.

3)Inteligência contra fraude centralizada:
Serviços de detecção de fraude permite beneficiar os processos de inteligência interna a partir de análises mais eficientes de centenas de milhões de usuários, aliado ao conhecimento adquirido através de anos de experiência na área. Este enfoque oferece uma solução muito mais abrangente e que seria muito mais difícil de ser implantada pelos métodos comuns de inteligência empresarial voltados a identificação e prevenção de fraudes. É fato que os casos de fraude estão em constante evolução visando contornar métodos de detecção, sendo importante destacarmos que somente um serviço de inteligência de fraude centralizado pode fazer frente as mais avançadas e recentes táticas empregadas pelos fraudadores.

4)Ênfase na qualidade:
As empresas poderão tomar decisões mais inteligentes na compra de fontes de tráfego visando atrair novas parcerias e aumentar a amplitude de seus negócios, ao mesmo tempo em que poderá recuperar a transparência e o controle sobre as fontes de mídia utilizadas. Fornecer dados de maior qualidade é uma vantagem competitiva que atrai novos negócios e que permite a expansão do relacionamento com os clientes existentes.

5)Mitigação de fraudes através da obtenção de informações em tempo real:
Alguns indicadores de desempenho podem levar dias ou até meses para serem processados, porém, a detecção de fraudes está disponível em tempo real. Isto tem o condão de impedir a realização de negócios ruins envolvendo a aquisição de fontes de tráfego, antes mesmo que a empresa possa identificar e eliminar fontes ruins e proceder ao pagamento, ou que possa perder valiosos parceiros de negócios.

Por fim, é importante lembrarmos que a detecção de fraudes não é apenas uma tecnologia, mas uma estratégia.
É preciso envolver a intervenção humana para que analistas possam ser capaz de rever métricas bem apresentadas, permitindo a incorporação dos dados obtidos numa plataforma integrada que permita a utilização segura destas informações na gestão de relacionamento com o cliente.
Torna-se óbvio que serviços de detecção de fraudes podem ajudar as empresas a melhorar a qualidade do tráfego em seus “web sites” e na construção de seus processos de segurança interna de forma muito mais eficiente.

Campus Party: “Interagindo com a Justiça no combate aos crimes cibernéticos”

Campus Party

Participação no programa “Online” da Rede Brasil de Televisão

Ontem, tive a oportunidade participar do programa “Online”, que vai ao ar toda quarta feira a partir das 22:00 horas, na Rede Brasil de Televisão, acompanhado pelo notável consultor e professor  em segurança da Informação Jeferson D’Addario, onde pude tecer algumas considerações sobre o episódio de espionagem realizado pela N.S.A. do governo norte americano. Aproveito a oportunidade para a parabenizar toda a produção do programa pelo excelente nível da atração e cumprimentar a apresentadora Claudia Carla pelo maravilhoso trabalho realizado.

Claudia Carla

 

Palestra na OAB/S.P.: “Os novos Desafios do Direito Eletrônico”

Os novos Desafios do Direito Eletrônico

Fraqueza no sistema de roteamento da Internet pode causar interrupções nos principais serviços e permitir que hackers possam espionar comunicações.

Internet routingEngenheiros de TI estão estudando a maneira mais fácil de consertar uma fraqueza existente há muito tempo no sistema de roteamento da Internet que tem o potencial de poder causar interrupções nos principais serviços e permitir que hackers possam espionar dados.
O problema envolve os roteadores usados por organizações e empresas que tenham um bloco de endereços IP.
Esses roteadores se comunicam constantemente com outros roteadores (ocorrendo às vezes mais de 400.000 entradas), atualizando suas informações internas sobre a melhor maneira de chegar a outras redes que usam um protocolo chamado “Border Gateway Protocol” (BGP).
“BGP” permite que roteadores encontrem o melhor caminho quando, por exemplo, uma rede usada para recuperar uma página web a partir de Coreia do Sul não está funcionando corretamente.
Alterações deste tipo implicam no fato de que as informações de roteamento sejam distribuídas rapidamente aos roteadores ao redor do mundo em apenas cinco minutos.
Mas os roteadores não verificam se a rota dos “anúncios”, como são chamados, estão corretas.
Erros na entrada da informação, ou, pior ainda, um ataque malicioso, podem causar a indisponibilidade de uma rede.
Esta situação também pode causar, por exemplo, que o tráfego de uma empresa de Internet seja encaminhado através de outra rede tortuosa que não precisasse passar, abrindo a possibilidade do tráfego vir a ser interceptado.
Este ataque é conhecido como “rota de sequestro”, e não pode ser interrompido por qualquer produto de segurança.
Quando problemas de roteamento surgem é muito difícil dizer se este é decorrente da obtenção de resultados impróprios porque “dedos gordos” manipularam inadequadamente um roteador ou se ele é decorrente de uma ação má intencionada, segundo afirmou Joe Gersch, diretor de operações da “Secure64”, uma empresa que faz software para servidores de “Domain Name System” (DNS), afirmando ainda que isto poderia ser um ensaio para a guerra cibernética.
Gersch também afirmou sobre dados mostrarem que cerca de um terço do mundo não pode chegar a partes da Internet ao mesmo tempo devido a problemas de roteamento.
Em fevereiro, um erro fez com que o roteamento do tráfego internacional para a operadora australiana “Telstra” fluísse através da rede da sua concorrente, “Dodo”, uma vez que a mesma não podia lidar com o aumento do mesmo.
Em um incidente bem conhecido, a “Pakistan Telecom” cometeu um erro com “BGP” após o governo do Paquistão ordenar em 2008 que os “ISP’s” bloqueassem o “YouTube”, o que acabou fazendo com que os serviços do “Google” ficasse “off line”.
Em março de 2011, um pesquisador observou que o tráfego destinado ao “Facebook” na rede da “AT&T” estranhamente passou por um tempo pela China.
Normalmente os pedidos iam diretamente para o provedor de rede do “Facebook”, muito embora pela primeira o tráfego viesse primeiramente pela “China Telecom” e, em seguida, para a “SK Broadband” na Coréia do Sul antes do roteamento para o “Facebook”.
Embora o incidente tenha sido caracterizado como um erro, ele somente ocorreu para que o tráfego não criptografado do “Facebook” pudesse ser espionado.
Segundo Dan Massey, professor associado de ciência do computador na “Colorado State University”, o problema maior é que grande parte da infraestrutura crítica simplesmente confia que os jogadores irão se comportar corretamente, ressaltando que num sistema verdadeiramente global como a internet, se deve assumir que as organizações ocasionalmente cometem erros involuntários.
Ainda segundo Dan Massey, é necessário imaginar o que um determinado adversário pode ser capaz de fazer, inclusive ataques a infraestrutura crítica, tais como centrais elétricas, as quais se tornaram cada vez mais dependentes da Internet.
A solução é ter roteadores que verifiquem se os blocos de endereços IP anunciados pelos roteadores de outros, na verdade pertencem a suas redes.
Um dos métodos propostos, “Resource Public Key Infrastructure” (RPKI), usa um sistema de certificados criptografados que verificam se um bloco de endereços IP na verdade pertence a uma determinada rede.
“RPKI” é complexo, e sua implantação tem sido lenta.
Recentemente alguns especialistas apresentaram um método alternativo, apelidado de “Rover” para verificação da origem das rotas, o qual poderia ser mais fácil.
O método “Rover” tem sido amplamente adotado e armazenaria as informações legítimas de rota dentro do “DNS”, sendo que as mesmas podem ser assinadas com “DNSSEC”, o protocolo de segurança que permite que os registros de “DNS” possam ser assinados criptograficamente.
Outra grande vantagem do método com Rover é que nenhuma mudança precisa ser feita nos roteadores existentes, além de poder trabalhar ao lado do “RPKI”.
Joe Gersch, que foi o autor de duas especificações de como nomear uma rota e sobre o tipo de registro que pode ser inserido no “DNS”, afirmou que toda a infraestrutura necessária para assegurar a resposta se uma rota é legítima ou não já existe.
Por fim, o especialista informou que as especificações estão atualmente num estado denominado “internet daft”, situação anterior à criação de uma “Internet Engineering Task Force”, sendo necessário que as mesmas sejam devidamente documentadas por um grupo de trabalho para que possam tornar-se padrão.

Fonte: Jeremy Kirk do IDG News Service