L'application web crawlprotect permet de protéger son site web contre les attaques
L'application web crawlprotect permet de protéger son site web contre les attaques.
Via un fichier .htaccess qui va être installé à la racine du site, ou qui va mettre à jour l'actuel, crawlprotect intervient sur différents types d'attaques.
Sécurisation des variables GET.
C'est le cas classique où l'intervenant essaye d'afficher une page extérieure au site en ajoutant dans les paramètres de l'url une variable qui commence par http. Toute la panoplie des variable est testé (ftp, https ...), en clair comme en crypté.
Les règles étant fortes, il y a des chances que les url même du site soient bloquées, notamment dans le cas d'utilisation d'Ajax, puisque certaines vérification se font via des variables GET.
Empêcher l'exécution de SQL.
Se sont les instructions SQL qui sont testées, toujours via l'utilisation de variable GET passées dans l'url.
Sécurisation des variables GET.
Ici l'intervenant est bloqué lorsqu'il passe dans l'url des valeurs de variables qui sont en fait des commandes de script javascript, en exécution, en redirection.
Empêcher un crawl abusif.
Certains robots sont excessif dans leur vitesse de crawl, ou bien ne sont pas désirés car connu pour aspirer le contenu des sites. Ici c'est le HTTP_USER_AGENT qui est testé.
Coté installation sur le site, le script crawlprotect s'installe sans base de donnée et ne nécessite qu'un login et password.
L'application propose de mettre à jour (ou de créer) le fichier .htaccess afin que les règles soient prises en compte. Avant de valider cette mise à jour, il est proposé une validation permettant de voir les nouvelles règles proposées. Cette étape permet éventuellement de supprimer les règles en doublons avec celles déjà en place.
Une fois validé, le fichier .htaccess est opérationnel, mais peut être modifié en jouant sur les paramètres proposés.
L'application propose également un audit des répertoires et des fichiers sur les aspects droits.
Voyez ici pour accéder au site et télécharger la dernière version de CrawlProtect
Eviter le spam de forum
Poster un spam sur un forum est pour certains acteurs du web un exercice amusant. Pour d'autres c'est un moment de réflexion obligatoire pour éviter de se faire spammer. Get a great deal on a Autodesk AutoCAD LT 2016:https://abcoemstore.com/product/autodesk-autocad-lt-2016/ Commercial New SLM Additional Seat.
Voyons quelles sont les solutions pour éliminer les posts des spameurs tout en gardant ceux des internautes.The Canadian gaming industry - slots-online-canada.ca contributes nearly $9 billion in annual revenue and supports various government and community programs and services.
(écrit le 23/12/2013 - 117.200 lectures)
Ce site risque d'endommager votre ordinateur
Lors d'une recherche sur le web via Google, une page d'information s'affiche en lieu et place de la page du site. Qu'est ce que cela signifie.
(écrit le 09/10/2011 - 5.272 lectures)
Protection contre les intrus
Comment protéger son site contre les intrusions, et mettre un peu de sécurité afin de conserver l'intégrité de son site : le cas des scripts de type open source.
(écrit le 02/04/2007 - 6.348 lectures)
Depuis l'arrivée de l'intelligence artificielle dans nos vies, bien des domaines sur internet se posent des questions, les webmaster sont ainsi concernés, se demandant si l'indexation de leur site par GPTBot est profitable.
Comment analyser les pages de la search console qui sont répertoriées par Google comme explorées mais non indexées. Faut-il demander leur indexation ou n'y aurait-il pas quelque chose de mieux à faire.
Comment Google Analytics et la Search console Google fonctionnent. Quelle est la différence entre ces outils ? Est ce qu'ils interagissent entre eux ?
Internet a deux caractéristiques principales : Cela bouge beaucoup et cela bouge vite. Le webmaster se doit d'être actif, voire réactif, et de disposer de l'information rapidement. Un simple script en python peut l'aider.
Comment contrôler visuellement que l'affichage de différentes pages web se fait correctement avec les différentes configurations de navigateur, et résolution d'affichage. Le Webdriver de Sélénium permet via un script d'automatiser la capture de telles pages, pour contrôler en un coup d'oeil le résultat.
Optimiser un site web avec du responsive design est un pas de plus fait vers l'utilisateur final
Pour autant, si une page du site a un poids de plusieurs méga, l'utilisateur risque, s'il est sur un téléphone mobile, de partir avant que la page ne soit complétement chargée.
Comment gérer les erreurs 404 not found sur le fichier browserconfig.xml, alors que celui ci est demandé par le navigateur.
Les feuilles de style d'un site web permettent d'adapter l'affichage à la taille de l'écran. Voyons comment faire pour un site qui s'affiche aussi bien sur un ordinateur, une tablette qu'un téléphone intelligent (smartphone).