Aller au contenu

Bons robots, mauvais robots : un intense trafic

Par François Hodierne

Mini-conf :
Langue :
Français
  • Diaporama
  • Le sujet

    Le trafic généré par les robots est souvent ignoré par les webmasters, car il n'est communément pas reporté par les outils de statistiques (comme Google Analytics). Pourtant, cette activité représente une importante partie des requêtes sur le serveur et, si elle n'est pas correctement contrôlée, elle peut peser sur les coûts et les performances.

    Pire, de mauvais ou vilains robots, aux intentions inavouables, se baladent en permanence sur le web, posant de nombreux problèmes de sécurité : brute forcing, security scanning, spamming, harvesting, scrapping.

    • Quelles sont les bonnes pratiques permettant de reconnaître un bon robot ?
    • Comment opèrent les mauvais robots et à quels dangers nous exposent-ils ?
    • Quelles stratégies mettre en place pour les contrôler ?

    En tant que webmaster de multiples sites webs, je m'intéresse à ces problématiques depuis plusieurs années et je travaille sur des outils permettant de les analyser. Je partagerais ce que j'ai appris : chiffres, conseils, anecdotes.

    Un sujet rarement abordé !

    Présenté par