Sept menaces de robots sur votre site Web

Sept menaces de robots sur votre site Web

Les attaques DDoS restent l'un des sujets les plus discutés dans le domaine de la sécurité de l'information. Dans le même temps, tout le monde ne sait pas que le trafic de robots, qui sert d’outil à de telles attaques, comporte de nombreux autres dangers pour les entreprises en ligne. Avec l’aide de robots, les attaquants peuvent non seulement désactiver un site Web, mais également voler des données, fausser les indicateurs commerciaux, augmenter les coûts publicitaires et ruiner la réputation du site. Analysons les menaces plus en détail et rappelons également les méthodes de protection de base.

L'analyse

Les robots analysent (c'est-à-dire collectent) en permanence des données sur des sites tiers. Ils volent du contenu puis le publient sans citer la source. Dans le même temps, la publication de contenu copié sur des sites tiers réduit la ressource source dans les résultats de recherche, ce qui signifie une réduction de l'audience, des ventes et des revenus publicitaires du site. Les robots suivent également les prix pour vendre des produits moins chers et faire fuir les clients. Ils achètent diverses choses pour les revendre à un prix plus élevé. Peut créer de fausses commandes pour charger les ressources logistiques et rendre les marchandises indisponibles pour les utilisateurs.

L'analyse a un impact significatif sur le travail des boutiques en ligne, en particulier celles dont le trafic principal provient de sites agrégateurs. Après avoir analysé les prix, les attaquants fixent le prix du produit légèrement inférieur au prix initial, ce qui leur permet d'augmenter sensiblement dans les résultats de recherche. Les portails de voyage sont également souvent victimes d'attaques de robots : des informations sur les billets, les circuits et les hôtels leur sont volées.

En général, la morale est simple : si votre ressource a un contenu unique, les robots sont déjà venus vers vous.

avis L'analyse peut être effectuée en cas d'augmentation soudaine du trafic, ainsi qu'en surveillant les politiques tarifaires des concurrents. Si d’autres sites copient instantanément vos modifications de prix, cela signifie que des robots sont très probablement impliqués.

Astuces

L'augmentation des indicateurs est un effet concomitant de la présence de robots sur le site. Chaque action du robot est reflétée dans les mesures commerciales. La part du trafic illégitime étant importante, les décisions basées sur l’analyse des ressources sont souvent erronées.

Les spécialistes du marketing étudient la manière dont les visiteurs utilisent une ressource et effectuent des achats. Ils examinent les taux de conversion et les prospects et identifient les principaux entonnoirs de vente. Les entreprises effectuent également des tests A/B et, en fonction des résultats, rédigent des stratégies de fonctionnement du site. Les robots influencent tous ces indicateurs, ce qui conduit à des décisions irrationnelles et à des coûts marketing inutiles.
Les attaquants peuvent également utiliser des robots pour influencer la réputation des sites, notamment des réseaux sociaux. La situation est la même avec les sites de vote en ligne, où les robots gonflent souvent les indicateurs pour que l'option souhaitée par les attaquants l'emporte.

Comment détecter la triche :

  • Vérifiez vos analyses. Une augmentation brutale et inattendue d’un indicateur, tel que les tentatives de connexion, signifie souvent une attaque de robot.
  • Surveillez les changements dans l’origine du trafic. Il arrive qu'un site reçoive un nombre inhabituellement élevé de demandes provenant de pays inhabituels - c'est étrange si vous n'avez pas ciblé vos campagnes.

Attaques DDoS

De nombreuses personnes ont entendu parler des attaques DDoS ou en ont même été victimes. Il convient de noter qu'une ressource n'est pas toujours désactivée en raison d'un trafic élevé. Les attaques d'API sont souvent peu fréquentes et, même si l'application plante, le pare-feu et l'équilibreur de charge fonctionnent comme si de rien n'était.

Tripler le trafic vers la page d'accueil n'a peut-être aucun impact sur les performances du site, mais la même charge directement sur la page du panier entraîne des problèmes, car l'application commence à envoyer plusieurs requêtes à tous les composants impliqués dans les transactions.

Comment détecter les attaques (les deux premiers points peuvent paraître évidents, mais ne les négligez pas) :

  • Les clients se plaignent du fait que le site ne fonctionne pas.
  • Le site ou les pages individuelles sont lents.
  • Le trafic sur les pages individuelles augmente fortement et un grand nombre de demandes apparaissent pour le panier ou la page de paiement.

Piratage de comptes personnels

La BruteForce, ou force brute des mots de passe, est organisée à l'aide de robots. Les bases de données divulguées sont utilisées à des fins de piratage. En moyenne, les utilisateurs ne proposent pas plus de cinq options de mot de passe pour tous les comptes en ligne - et les options sont facilement sélectionnées par des robots qui vérifient des millions de combinaisons dans les plus brefs délais. Les attaquants peuvent ensuite revendre les combinaisons actuelles de logins et de mots de passe.

Les pirates peuvent également s’emparer de comptes personnels et les utiliser à leur avantage. Par exemple, retirer les bonus accumulés, voler les billets achetés pour des événements - en général, il existe de nombreuses options pour d'autres actions.

Reconnaître BruteForce n'est pas trop difficile : le fait que des pirates tentent de pirater un compte est indiqué par un nombre inhabituellement élevé de tentatives de connexion infructueuses. Bien qu'il arrive que les attaquants envoient un petit nombre de requêtes.

En cliquant

Cliquer sur les publicités des robots peut entraîner des pertes importantes pour les entreprises s'ils ne sont pas remarqués. Lors d'une attaque, les robots cliquent sur les publicités publiées sur le site et affectent ainsi considérablement les métriques.

Les annonceurs s’attendent évidemment à ce que les bannières et les vidéos postées sur les sites soient vues par de vrais utilisateurs. Mais comme le nombre d'impressions est limité, la publicité, grâce aux robots, est présentée à de moins en moins de personnes.

Les sites eux-mêmes souhaitent augmenter leurs profits en affichant des publicités. Et les annonceurs, s'ils constatent du trafic de robots, réduisent le volume de placements sur le site, ce qui entraîne des pertes et une détérioration de la réputation du site.

Les experts identifient les types de fraude publicitaire suivants :

  • Fausses vues. Les robots visitent de nombreuses pages de sites Web et génèrent des vues publicitaires illégitimes.
  • Cliquez sur la fraude. Les robots cliquent sur les liens publicitaires dans la recherche, ce qui entraîne une augmentation des coûts de publicité dans les recherches.
  • Reciblage. Les robots visitent plusieurs sites légitimes avant de cliquer pour créer un cookie plus coûteux pour les annonceurs.

Comment détecter les clics ? En règle générale, une fois le trafic débarrassé de toute fraude, le taux de conversion diminue. Si vous constatez que le volume de clics sur les bannières est plus élevé que prévu, cela indique la présence de robots sur le site. D’autres indicateurs de trafic illégitime peuvent inclure :

  • Augmentation des clics sur les publicités avec une conversion minimale.
  • La conversion diminue, même si le contenu publicitaire n’a pas changé.
  • Plusieurs clics à partir d’une seule adresse IP.
  • Faible taux d’engagement des utilisateurs (incluant un grand nombre de rebonds) avec une augmentation des clics.

Recherche de vulnérabilités

Les tests de vulnérabilité sont effectués par des programmes automatisés qui recherchent les faiblesses du site et de l'API. Les outils populaires incluent Metasploit, Burp Suite, Grendel Scan et Nmap. Les services spécialement engagés par l'entreprise et les attaquants peuvent analyser le site. Les sites négocient avec des spécialistes du piratage pour vérifier leur protection. Dans ce cas, les adresses IP des auditeurs sont incluses dans des listes blanches.

Les attaquants testent les sites sans accord préalable. À l’avenir, les pirates utiliseront les résultats des contrôles à leurs propres fins : ils pourront par exemple revendre des informations sur les points faibles du site. Il arrive que les ressources soient analysées non pas délibérément, mais dans le cadre de l'exploitation de la vulnérabilité des ressources tierces. Prenons WordPress : si un bug est trouvé dans une version, les robots recherchent tous les sites qui utilisent cette version. Si votre ressource figure sur une telle liste, vous pouvez vous attendre à une visite de pirates.

Comment détecter les robots ?

Pour trouver les points faibles d'un site, les attaquants effectuent d'abord des reconnaissances, ce qui entraîne une augmentation des activités suspectes sur le site. Le filtrage des robots à ce stade aidera à éviter les attaques ultérieures. Bien que les robots soient difficiles à détecter, les requêtes envoyées depuis une adresse IP vers toutes les pages d’un site peuvent constituer un signe d’avertissement. Il convient de prêter attention à l'augmentation des demandes de pages inexistantes.

Spam

Les robots peuvent remplir des formulaires de sites Web avec du contenu indésirable à votre insu. Les spammeurs laissent des commentaires et des avis, créent de fausses inscriptions et commandes. La méthode classique de lutte contre les robots, le CAPTCHA, est inefficace dans ce cas car elle irrite les vrais utilisateurs. De plus, les robots ont appris à contourner ces outils.

Le plus souvent, le spam est inoffensif, mais il arrive que des robots proposent des services douteux : ils publient des publicités pour la vente d'articles et de médicaments contrefaits, promeuvent des liens vers des sites pornographiques et conduisent les utilisateurs vers des ressources frauduleuses.

Comment détecter les robots spammeurs :

  • Si du spam apparaît sur votre site, il est fort probable que ce soient des robots qui le publient.
  • Il y a de nombreuses adresses invalides dans votre liste de diffusion. Les robots laissent souvent des e-mails inexistants.
  • Vos partenaires et annonceurs se plaignent du fait que des pistes de spam proviennent de votre site.

D'après cet article, il peut sembler difficile de lutter seul contre les robots. C’est effectivement le cas, et mieux vaut confier la protection des sites Internet à des professionnels. Même les grandes entreprises sont souvent incapables de surveiller de manière indépendante le trafic illégitime, et encore moins de le filtrer, car cela nécessite une expertise importante et des dépenses importantes pour l'équipe informatique.

Variti protège les sites Web et les API contre tous les types d'attaques de robots, y compris la fraude, les DDoS, les clics et le scraping. Notre technologie exclusive Active Bot Protection vous permet d'identifier et de bloquer les robots sans CAPTCHA ni blocage d'adresses IP.

Source: habr.com

Ajouter un commentaire