Protéger son site web via crawlprotect

  1. Pages Webmaster
  2.  > 
  3. Sécurité


L'application web crawlprotect permet de protéger son site web contre les attaques


L'application web crawlprotect permet de protéger son site web contre les attaques.

Via un fichier .htaccess qui va être installé à la racine du site, ou qui va mettre à jour l'actuel, crawlprotect intervient sur différents types d'attaques.


Blocage des injections de code


Sécurisation des variables GET.
C'est le cas classique où l'intervenant essaye d'afficher une page extérieure au site en ajoutant dans les paramètres de l'url une variable qui commence par http. Toute la panoplie des variable est testé (ftp, https ...), en clair comme en crypté.
Les règles étant fortes, il y a des chances que les url même du site soient bloquées, notamment dans le cas d'utilisation d'Ajax, puisque certaines vérification se font via des variables GET.

Blocage de l'injection de code Sql


Empêcher l'exécution de SQL.
Se sont les instructions SQL qui sont testées, toujours via l'utilisation de variable GET passées dans l'url.

Blocage des injections de script


Sécurisation des variables GET.
Ici l'intervenant est bloqué lorsqu'il passe dans l'url des valeurs de variables qui sont en fait des commandes de script javascript, en exécution, en redirection.

Blocage des robots non désirés


Empêcher un crawl abusif.
Certains robots sont excessif dans leur vitesse de crawl, ou bien ne sont pas désirés car connu pour aspirer le contenu des sites. Ici c'est le HTTP_USER_AGENT qui est testé.

Installation et prise en main


Coté installation sur le site, le script crawlprotect s'installe sans base de donnée et ne nécessite qu'un login et password.
L'application propose de mettre à jour (ou de créer) le fichier .htaccess afin que les règles soient prises en compte. Avant de valider cette mise à jour, il est proposé une validation permettant de voir les nouvelles règles proposées. Cette étape permet éventuellement de supprimer les règles en doublons avec celles déjà en place.
Une fois validé, le fichier .htaccess est opérationnel, mais peut être modifié en jouant sur les paramètres proposés.
L'application propose également un audit des répertoires et des fichiers sur les aspects droits.


Voyez ici pour accéder au site et télécharger la dernière version de CrawlProtect



Article écrit par Janol le 16/07/2010
(Hits 4801
- Catégorie : Sécurité)

Faites passer - Imprimer

Commentaires

Cet article n'a pas encore été commenté.
Vous pouvez vous exprimer en remplissant le formulaire ci-dessous.


Autres publications Sécurité

Eviter le spam de forum
Poster un spam sur un forum est pour certains acteurs du web un exercice amusant. Pour d'autres c'est un moment de réflexion obligatoire pour éviter de se faire spammer.
Voyons quelles sont les solutions pour éliminer les posts des spameurs tout en gardant ceux des internautes.
(écrit le 23/12/2013 - 33.408 lectures)

Ce site risque d'endommager votre ordinateur
Lors d'une recherche sur le web via Google, une page d'information s'affiche en lieu et place de la page du site. Qu'est ce que cela signifie.
(écrit le 09/10/2011 - 4.280 lectures)

Protection contre les intrus
Comment protéger son site contre les intrusions, et mettre un peu de sécurité afin de conserver l'intégrité de son site : le cas des scripts de type open source.
(écrit le 02/04/2007 - 5.478 lectures)



Tutoriels Webmaster

Référencement :

Comment Google Analytics et la Search console Google fonctionnent. Quelle est la différence entre ces outils ? Est ce qu'ils interagissent entre eux ?


Scripts :

Internet a deux caractéristiques principales : Cela bouge beaucoup et cela bouge vite. Le webmaster se doit d'être actif, voire réactif, et de disposer de l'information rapidement. Un simple script en python peut l'aider.


Scripts :

Comment contrôler visuellement que l'affichage de différentes pages web se fait correctement avec les différentes configurations de navigateur, et résolution d'affichage. Le Webdriver de Sélénium permet via un script d'automatiser la captures de telles pages, pour contrôler en un coup d'oeil le résultat.


Conception :

Optimiser un site web avec du responsive design est un pas de plus fait vers l'utilisateur final
Pour autant, si une page du site a un poids de plusieurs méga, l'utilisateur risque, si il est sur un téléphone mobile, de partir avant que la page ne soit complétement chargée.


Outils :

Comment gérer les erreurs 404 not found sur le fichier browserconfig.xml, alors que celui ci est demandé par le navigateur.


Scripts :

Les feuilles de style d'un site web permettent d'adapter l'affichage à la taille de l'écran. Voyons comment faire pour un site qui s'affiche aussi bien sur un ordinateur, une tablette qu'un téléphone intelligent (smartphone).


Scripts :

L'attribut Placeholder, permettant en HTML5 de renseigner le label d'un champs input, ne fonctionne pas sous Internet Explorer. Voici un script JavaScript simple et efficace à insérer pour contourner ce manque de fonctionnalité.


Sécurité :

Poster un spam sur un forum est pour certains acteurs du web un exercice amusant. Pour d'autres c'est un moment de réflexion obligatoire pour éviter de se faire spammer.
Voyons quelles sont les solutions pour éliminer les posts des spameurs tout en gardant ceux des internautes.


Pages webmaster
Actu Webmaster

Thèmes Phortail