This post was most recently updated on March 21st, 2023
Você está ciente de que mais de 42% de todo o tráfego da Internet é gerado por bots? Isso mesmo, de acordo com statista.com (em inglês), surpreendentes 42,3% de toda a atividade da Internet é uma atividade de tráfego inválido. Com o rápido avanço da tecnologia, não é surpresa que os bots tenham se tornado uma força tão prevalecente na web. Mas é importante notar que eles podem destruir as contas dos editores do AdSense quando não são detectados.
Este artigo explica tudo o que você precisa saber sobre o tráfego de bot e a melhor solução para detectar e bloquear IVT para sempre.
Nem todos os bots são projetados para inflar o tráfego e com a intenção de defraudar os marqueteiros. Como vivemos em um ambiente automatizado, alguns bots existem para executar tarefas específicas e repetitivas que seriam impossíveis ou difíceis de serem executadas com alta velocidade por humanos. Isto inclui tarefas como conteúdo de captação, scraper de dados, análise de captura, etc.
Distinguir bons bots de maus bots requer um pouco de discernimento, mas isso pode ser feito se você tiver as informações corretas.
Estes são os bots mais perigosos. Os bots Imposter se mascaram como visitantes legítimos. Eles têm muito mais intenções maliciosas do que apenas gerar uma contagem de cliques falsos, pois seu propósito é driblar as medidas de segurança online. Eles são frequentemente os culpados por trás dos ataques de negação distribuída de serviço (DDoS). Eles também podem injetar spyware em seu site, ou parecerem ser um falso mecanismo de busca, entre outras coisas.
Os “click bots” são do tipo que clicam fraudulentamente nos anúncios, fazendo com que a análise do site seja distorcida. Se seus dados analíticos mostrarem métricas incorretas, você pode estar tomando decisões de marketing erradas. Este bot malicioso é especialmente prejudicial para os marqueteiros que estão usando campanhas pay-per-click. Os cliques gerados por estes bots se somam ao desperdício de dólares em visitas falsas que não vieram sequer de humanos, muito menos de seu público.
Estes bots são projetados para inflar artificialmente contagens de download para software, música, vídeos ou outros conteúdos digitais. Eles fazem isso baixando repetidamente o mesmo arquivo, fazendo-o parecer mais popular do que ele realmente é. Este tipo de bot é frequentemente usado por desenvolvedores ou criadores de conteúdo para aumentar sua visibilidade e ganhar uma vantagem injusta sobre seus concorrentes.
Os scrapers da Web alcançam o efeito oposto, uma vez que os direitos autorais são protegidos. Em vez de proteger o conteúdo proprietário, os robots scraper roubam o conteúdo e o redirecionam para outro lugar. Isto pode incluir tudo, desde textos e imagens até preços de produtos e informações de inventário. Enquanto alguns scrapers são legítimos, como para fins acadêmicos ou de pesquisa, muitos deles são usados para roubar conteúdo proprietário e passá-lo como seu próprio conteúdo. Isto pode prejudicar os criadores do conteúdo original e os donos do site.
Estes são os bots mais comuns que distribuem conteúdo “spammy”, como e-mails injustificados, postar spam nos comentários, espalhar esquemas de phishing, etc. Eles também podem ser usados para conduzir campanhas de SEO negativas contra concorrentes. Estes bots são normalmente usados por atores ou empresas maldosos para obter uma vantagem injusta ou para espalhar conteúdo malicioso.
Este é o tipo de bot que minera informações sensíveis sobre indivíduos e empresas. Ele pode reunir credenciais de login, dados de cartão de crédito e endereços de e-mail de sites, grupos de notícias, conversas em salas de bate-papo, etc. Estas informações podem então ser utilizadas para fins nefastos, tais como roubo de identidade, criação de falsificações profundas, ou golpes de phishing direcionados.
Leitura relacionada sobre os tipos de tráfego inválido: https://www.monetizemore.com/blog/o-que-e-trafego-invalido-trafego-invalido-geral-vs-trafego-invalido-sofisticado/
De acordo com as definições mencionadas acima, você pode ver por que alguns bots podem afetar negativamente seu negócio editorial. Alguns podem não apresentar riscos reais e causar nada mais do que apenas aborrecimento. Entretanto, como editor, é importante notar que as Redes de Anúncios não se preocupam apenas com os editores, mas também com os anunciantes.
Elas fazem verificações regulares de qualidade para garantir que os sites que acrescentam à sua rede estejam livres de bots fraudulentos. Infelizmente, quer o editor esteja ciente ou não do tráfego inválido em seus sites, as redes de anúncios estão inclinadas a proteger mais seus anunciantes.
Elas não pensariam duas vezes em banir um site que não adere a suas políticas. Os editores são inteiramente responsáveis por garantir que seu site esteja livre desses bots indesejados.
Obtenha seu guia gratuito sobre Tipos de Bots Maus (em inglês).
Se você notou um aumento/diminuição incomum em suas métricas analíticas, então isto pode ser uma indicação de que seu site tem uma alta suscetibilidade ao tráfego fraudulento. Geralmente, há sinais de que seu site está sendo inundado por bots, e você precisa estar atento a eles. Cuidado com o seguinte:
#1: Taxa de rejeição excessivamente alta e taxa de novas sessões.
#2: O conteúdo do site está aparecendo em outros lugares online. Isto pode indicar que os scraper bots visitaram seu site.
#3: Mau desempenho do site. Se você notou que o site funciona mais lentamente e trava com frequência, ele pode ser invadido por bots.
#4: A fonte de tráfego parece estranha (localização geográfica irrelevante). Por exemplo, se seu site estiver em inglês, mas a maior parte do seu tráfego vier de países que não falam inglês.
#5: Seus principais domínios de referência (links de referência) são um dos seguintes:
– Spammy (não tem nada a ver com o site, contém links puros sem conteúdo)
– Malicioso (pode conter malware)
– Suspended sites
#6: Menos de 60 segundos de tempo médio no local gasto pelos usuários. Se o conteúdo de seu site for de forma longa e exigir que seu público permaneça em suas páginas por muito tempo, ter uma visita média curta pode significar que seus visitantes não são humanos.
Há algumas medidas preventivas que você pode fazer por conta própria como implementar CAPTCHAs em formulários e usar um construtor de sites de qualidade para que seu site seja protegido contra hackers e seus malwares.
Você pode tentar filtrar bots conhecidos ao realizar análises analíticas, mas é praticamente impossível bloquear o tráfego de bot, e para ser honesto, você não deve bloquear preventivamente o tráfego de bot, pois nem todos os bots são ruins. Abordá-lo conforme necessário seria a melhor abordagem.
Em conclusão, é vital para qualquer negócio online compreender os efeitos prejudiciais que os bots e o tráfego inválido podem ter sobre sua receita publicitária.
A implementação de uma solução premiada como “Traffic Cop“, que atua como guardião do tráfego de entrada, pode ser a diferença entre um negócio próspero e um que está constantemente lutando para se manter.
Com o Traffic Cop, você pode descansar tranquilo sabendo que sua receita com anúncios está protegida e não terá que se preocupar com deduções (clawbacks) ou suspensão de parceiros publicitários.
Não deixe mais os bots e o tráfego inválido corroer sua receita, que é muito difícil de obter. Tome medidas agora e proteja o futuro de seu negócio online com o ‘Traffic Cop‘.
Detectar o tráfego de bot nem sempre é fácil. Você pode procurar sinais como taxas de rejeição muito altas, fontes de tráfego de referência estranhas e tráfego de locais geográficos irrelevantes em suas contas do Google Analytics. Fornecemos mais informações sobre detecção de tráfego de bot em nosso post no blog.
Para impedir o tráfego de bot, você poderia bloquear o acesso de fontes específicas ao seu site em seu arquivo robots.txt. Para prevenir tráfego inválido e tráfego de bot que pode prejudicar seu negócio de editor clicando em seus anúncios, considere o uso de um serviço de detecção e prevenção de tráfego inválido, como o Traffic Cop. O Traffic Cop utiliza algoritmos de machine learning e de impressão digital para detectar e bloquear o tráfego inválido de visualização e clique em seus anúncios.
Geralmente, os bots visitam seu site para coletar informações ou realizar uma tarefa específica. Existem muitos tipos, sendo alguns bons e outros ruins. Exemplos de bots bons ou normais incluem os crawlers de SEO, bots de motores de busca e bots de direitos autorais, para mencionar alguns. Os bots que você não quer em seu site são scrapers de sites, spam bots, e aqueles que clicam em seus anúncios.
Kean Graham is the CEO and founder of MonetizeMore & a pioneer in the Adtech Industry. He is the resident expert in Ad Optimization, covering areas like Adsense Optimization,GAM Management, and third-party ad network partnerships. Kean believes in the supremacy of direct publisher deals and holistic optimization as keys to effective and consistent ad revenue increases.
10X your ad revenue with our award-winning solutions.