Bons robots, mauvais robots : un intense trafic

La présentation

Ressources

Vidéo

Afficher le diaporama

Le sujet

Le trafic généré par les robots est souvent ignoré par les webmasters, car il n'est communément pas reporté par les outils de statistiques (comme Google Analytics). Pourtant, cette activité représente une importante partie des requêtes sur le serveur et, si elle n'est pas correctement contrôlée, elle peut peser sur les coûts et les performances.

Pire, de mauvais ou vilains robots, aux intentions inavouables, se baladent en permanence sur le web, posant de nombreux problèmes de sécurité : brute forcing, security scanning, spamming, harvesting, scrapping.

  • Quelles sont les bonnes pratiques permettant de reconnaître un bon robot ?
  • Comment opèrent les mauvais robots et à quels dangers nous exposent-ils ?
  • Quelles stratégies mettre en place pour les contrôler ?

En tant que webmaster de multiples sites webs, je m'intéresse à ces problématiques depuis plusieurs années et je travaille sur des outils permettant de les analyser. Je partagerais ce que j'ai appris : chiffres, conseils, anecdotes.

Un sujet rarement abordé !

Présenté par François Hodierne

François Hodierne

François fait du web depuis 15 ans. Parmi les premiers enthousiastes des standards du web en France, il commence sa carrière au sein d'Upian au début des années 2000. Vient ensuite la vague web 2.0, il crée Blogmarks et est emporté dans le monde des start-ups par Netvibes. Après avoir tout lâché et tenté une drôle d'aventure avec La Distribution, il est aujourd'hui retombé dans les start-ups et officie actuellement en tant qu'Ingénieur Backend chez EyeEm à Berlin.