Sept menaces de robots contre votre site

image

Les attaques DDoS restent l'un des sujets les plus discutés dans le domaine de la sécurité de l'information. Dans le même temps, tout le monde ne sait pas que le trafic de robots, qui est un outil pour de telles attaques, comporte de nombreux autres dangers pour les entreprises en ligne. À l'aide de robots, les cybercriminels peuvent non seulement désactiver un site, mais aussi voler des données, fausser les statistiques commerciales, augmenter les coûts publicitaires et nuire à la réputation du site. Nous analyserons les menaces plus en détail et nous rappellerons également les méthodes de protection de base.

Analyse


Les bots analysent (c'est-à-dire collectent) des données sur des sites tiers en permanence. Ils volent du contenu afin de le publier plus tard sans référence à la source. Dans le même temps, placer du contenu copié sur des sites tiers omet la ressource source dans les résultats de recherche, ce qui signifie réduire l'audience, les ventes et les revenus publicitaires du site. Les bots suivent également les prix pour vendre des produits moins chers et éloigner les clients. Achetez diverses choses pour revendre plus cher. Ils peuvent créer de fausses commandes pour charger des ressources logistiques et rendre les marchandises inaccessibles aux utilisateurs.

L'analyse syntaxique affecte considérablement le travail des magasins en ligne, en particulier ceux dont le trafic principal provient des sites d'agrégation. Après avoir analysé les prix, les attaquants définissent la valeur du produit légèrement en dessous de l'original, ce qui leur permet d'augmenter considérablement dans les résultats de recherche. Les portails touristiques sont également souvent attaqués par des robots: ils volent des informations sur les billets, les visites et les hôtels.

En général, la morale est simple: si votre ressource a un contenu unique, les bots sont déjà partis pour vous.

L'analyse peut être remarquée par des explosions soudaines de trafic, ainsi que par le suivi de la politique de prix des concurrents. Si d'autres sites copient instantanément vos modifications de valeur pour eux-mêmes, cela signifie que les bots sont très probablement impliqués.

Tricher


La triche de performance est un effet concomitant de la présence de bots sur le site. Chaque action des bots se reflète dans les mesures commerciales. Étant donné que la part du trafic illégitime est palpable, les décisions basées sur l'analyse des ressources sont souvent erronées.

Les spécialistes du marketing apprennent comment les visiteurs utilisent une ressource et effectuent des achats. Ils examinent le taux de conversion et les prospects et identifient les principaux canaux de vente. Les entreprises effectuent également des tests A / B et, en fonction des résultats, rédigent des stratégies pour le site. Les bots affectent tous ces indicateurs, ce qui conduit à des décisions irrationnelles et à des coûts de commercialisation excessifs.
Les attaquants peuvent également utiliser des bots afin d'affecter la réputation des sites, y compris les réseaux sociaux. La même situation se produit avec les sites de vote en ligne, où les bots liquident souvent des indicateurs afin de déjouer l'option dont les attaquants ont besoin.

Comment détecter la triche:

  • Vérifiez les analyses. Une augmentation brutale et inattendue d'un indicateur, par exemple, les tentatives de connexion, signifie souvent une attaque de bot.
  • Suivez les changements dans l'origine du trafic. Il arrive qu'un nombre inhabituellement élevé de demandes provenant de pays inhabituels arrive sur le site - c'est étrange si vous ne les avez pas ciblées avec des campagnes.

Attaques DDoS


Beaucoup ont entendu parler ou même rencontré des attaques DDoS. Il convient de noter que la ressource n'est pas toujours désactivée en utilisant un trafic élevé. Les attaques sur l'API sont souvent de faible fréquence et, même si l'application se bloque, le pare-feu et l'équilibreur de charge fonctionnent comme si de rien n'était.

Le triplement du trafic vers la page principale ne peut en aucun cas affecter les performances du site, mais le même chargement directement sur la page avec le panier pose problème, car l'application commence à envoyer plusieurs demandes à tous les composants impliqués dans les transactions.

Comment détecter les attaques (les deux premiers points peuvent sembler évidents, mais ne les négligez pas):

  • Les acheteurs se plaignent que le site est en panne.
  • Le site ou les pages individuelles sont lents.
  • Le trafic sur les pages individuelles augmente fortement, un grand nombre de demandes apparaissent dans le panier ou sur la page de paiement.

Piratage de comptes personnels


BruteForce, ou craquage de mot de passe, est organisé à l'aide de bots. Les bases de données qui ont fui sont utilisées pour le piratage. En moyenne, les utilisateurs ne proposent pas plus de cinq options de mot de passe pour tous les comptes en ligne - et les options sont facilement récupérées par des robots qui vérifient des millions de combinaisons dans les plus brefs délais. Ensuite, les attaquants peuvent revendre des combinaisons réelles de connexions et de mots de passe.

En outre, les pirates peuvent prendre le contrôle de leurs comptes personnels, puis les utiliser à leur avantage. Par exemple, retirer des bonus accumulés, voler des billets achetés pour des événements - en général, il existe de nombreuses options pour d'autres actions.

Il n’est pas trop difficile de reconnaître BruteForce: un nombre anormalement élevé de tentatives de connexion infructueuses indique que des pirates tentent de pirater un compte. Bien qu'il arrive que les attaquants envoient un petit nombre de demandes.

Clique


Cliquer sur des publicités par des robots peut entraîner des pertes importantes pour les entreprises s'il n'est pas remarqué. Pendant l'attaque, les bots parcourent les publicités publiées sur le site et affectent ainsi de manière significative les métriques.

Les annonceurs s'attendent évidemment à ce que les vrais utilisateurs voient des bannières et des vidéos publiées sur les sites. Mais comme le nombre d'impressions est limité, la publicité, due aux bots, est présentée à un plus petit nombre de personnes.

Les sites eux-mêmes souhaitent augmenter leurs bénéfices grâce aux impressions d'annonces. Et les annonceurs, s'ils voient du trafic de robots, réduisent le volume d'emplacements sur le site, ce qui entraîne des pertes et une détérioration de la réputation du site.

Les experts distinguent les types de fraude publicitaire suivants:

  • Fausses vues. Les bots visitent de nombreuses pages du site et génèrent des vues d'annonces illégitimes.
  • Clickfrod. Les robots cliquent sur les liens sponsorisés de recherche, ce qui entraîne des coûts de publicité de recherche plus élevés.
  • Retargeting Les robots visitent de nombreux sites légitimes avant de cliquer pour créer un cookie qui coûte plus cher aux annonceurs.

Comment détecter le colmatage? Habituellement, après avoir éliminé le trafic de la fraude, le taux de conversion diminue. Si vous voyez que le volume de clics sur les bannières est plus élevé que prévu, cela indique la présence de bots sur le site. D'autres indicateurs de trafic illicite peuvent inclure:

  • Augmentation des clics sur les publicités avec une conversion minimale.
  • La conversion est en baisse, bien que le contenu de l'annonce n'ait pas changé.
  • Clics multiples à partir d'une seule adresse IP.
  • Une faible part d'engagement des utilisateurs (dont un grand nombre d'échecs) avec une augmentation des clics.

Recherche de vulnérabilité


Les tests de vulnérabilité sont effectués par des programmes automatisés qui recherchent les faiblesses du site et de l'API. Les outils populaires incluent Metasploit, Burp Suite, Grendel Scan et Nmap. Les services spécialement embauchés et les intrus peuvent analyser un site. Les sites négocient avec des experts en piratage pour vérifier leur protection. Dans ce cas, les adresses IP des auditeurs sont enregistrées dans des listes blanches.

Les attaquants testent les sites sans accord préalable. À l'avenir, les pirates utilisent les résultats des contrôles à leurs propres fins: par exemple, ils peuvent revendre des informations sur les points faibles du site. Il arrive que les ressources ne soient pas analysées à dessein, mais dans le cadre de l'exploitation de la vulnérabilité des ressources tierces. Prenez WordPress: si un bug est trouvé dans n'importe quelle version, les bots rechercheront tous les sites qui utilisent cette version. Si votre ressource figure sur une telle liste, vous pouvez attendre la visite des pirates.

Comment détecter les bots?

Pour rechercher des faiblesses sur le site, les attaquants effectuent d'abord des reconnaissances, ce qui entraîne une augmentation des activités suspectes sur le site. Le filtrage des robots à ce stade aidera à éviter les attaques ultérieures. Bien que les bots soient difficiles à détecter, les demandes à toutes les pages du site peuvent être envoyées à partir d'une seule adresse IP comme alarme. Il convient de prêter attention à la croissance des requêtes vers des pages inexistantes.

Spamming


Les robots peuvent remplir des formulaires de site avec du contenu indésirable à votre insu. Les spammeurs laissent des commentaires et des critiques, créent de fausses inscriptions et commandes. La méthode classique de traitement des bots, CAPTCHA, est inefficace dans ce cas car elle agace les vrais utilisateurs. De plus, les bots ont appris à contourner ces outils.

Le plus souvent, le spam est inoffensif, mais il arrive que les robots offrent des services douteux: placer des publicités pour la vente de faux produits et médicaments, promouvoir des liens vers des sites pornographiques et conduire les utilisateurs vers des ressources frauduleuses.

Comment détecter les robots indésirables:

  • Si du spam est apparu sur votre site, ce sont probablement les robots eux-mêmes qui sont publiés.
  • Votre liste de diffusion contient de nombreuses adresses invalides. Les bots laissent souvent des e-mails inexistants.
  • Vos partenaires et annonceurs se plaignent que des pistes de spam proviennent de votre site.

D'après cet article, il peut sembler difficile de lutter seul contre les robots. En fait, c'est ainsi, et il vaut mieux confier la protection du site à des professionnels. Même les grandes entreprises ne sont souvent pas en mesure de suivre indépendamment le trafic illégitime et encore plus de le filtrer, car cela nécessite une expertise considérable et des coûts élevés pour l'équipe informatique.

Variti protège les sites et les API de tous les types d'attaques de robots, y compris la fraude, les DDoS, les clics et l'analyse. Sa propre technologie Active Bot Protection permet de détecter et de couper les bots sans CAPTCHA ni blocage d'adresse IP.

Source: https://habr.com/ru/post/fr457276/


All Articles