Comment analyser les pages de la search console qui sont répertoriées par Google comme explorées mais non indexées. Faut-il demander leur indexation ou n'y aurait-il pas quelque chose de mieux à faire.
Google propose dans son outil de search console de lister les url qu'il a indexées ainsi que celles qu'il n'a pas encore détectées, voire d'autres qu'il a exploré mais qu'il a ignoré pour l'indexation.
Dans la Search console, ces pages se situent dans le menu Couverture puis l'onglet Pages exclues.
Attardons-nous alors sur les pages regroupées sous le statut Exclu et le type Explorée, actuellement non indexées.
Pour chaque page Google peut donner un état de l'indexation actuelle avec ce qu'il connait et qu'il veut bien révéler de la page.
A savoir : le nom du sitemap, la page d'origine sur le site, les informations sur la dernière exploration, ainsi que l'url canonique déclarée par le site et celle retenue par Google lors de l'indexation.
Google propose un bouton pour tester l'url en direct et savoir ce que Google pense de la page après inspection.
Lorsque tout va bien le résultat se présente comme suit avec des pictogrammes verts indiquant que tout va bien. 
Google propose ensuite un bouton DEMANDER UNE INDEXATION, pour proposer la page à google dans le but qu'il l'indexe, ce qu'il va faire, ou pas !
La proposition pour indexation ne signifie pas indexation
La question qu'il faut ensuite se poser c'est pourquoi google explore ces pages sans les indexer ?
Google a exploré ces pages, mais il ne les a pas indexées, alors que d'autres le sont.
Peut-être alors faut-il réviser ces pages-là, en tout cas on peut aller regarder le source pour essayer de comprendre.
Souvent on ne voit de la page que ce qui s'affiche, le titre, le contenu, la présentation, éventuellement la console, et l'on s'en tient là, car il y d'autres informations que Google remonte comme les pages canoniques.
Mais sur la non indexation des pages, il semble manquer des éléments, il faut aller inspecter le source pour avoir une idée de ce que google lit de la page.
Dans la version précédente de la Search Console, il y avait des informations sur le titre, les informations meta , ...
Dans notre cas de pages non indexées, il s'est avéré que l'inspection du source de la page comportait des insuffisances.
Pour des raisons de bug ou de complexité des pages, la méta description était dans certains cas identique sur plusieurs pages, dans d'autre cas elle était trop courte et manquait d'information pertinente.
Avant de proposer ces pages à l'indexation, les pages ont été corrigées. On peut ensuite se demander s'il est utile de relancer l'indexation à la main ou bien de laisser faire google tout seul à partir de ce qu'il connait du site ainsi que du site map.
Le résultat devrait suivre dans les prochaines semaines avec un nombre de pages explorées et non indexées inférieur à ce qui a été constaté.
Faut-il accepter l'indexation de GPTBot ?
Depuis l'arrivée de l'intelligence artificielle dans nos vies, bien des domaines sur internet se posent des questions, les webmaster sont ainsi concernés, se demandant si l'indexation de leur site par GPTBot est profitable.
Depuis l'arrivée de l'intelligence artificielle dans nos vies, bien des domaines sur internet se posent des questions, les webmaster sont ainsi concernés, se demandant si l'indexation de leur site par GPTBot est profitable.
Comment analyser les pages de la search console qui sont répertoriées par Google comme explorées mais non indexées. Faut-il demander leur indexation ou n'y aurait-il pas quelque chose de mieux à faire.
Comment Google Analytics et la Search console Google fonctionnent. Quelle est la différence entre ces outils ? Est ce qu'ils interagissent entre eux ?
Internet a deux caractéristiques principales : Cela bouge beaucoup et cela bouge vite. Le webmaster se doit d'être actif, voire réactif, et de disposer de l'information rapidement. Un simple script en python peut l'aider.
Comment contrôler visuellement que l'affichage de différentes pages web se fait correctement avec les différentes configurations de navigateur, et résolution d'affichage. Le Webdriver de Sélénium permet via un script d'automatiser la capture de telles pages, pour contrôler en un coup d'oeil le résultat.
Optimiser un site web avec du responsive design est un pas de plus fait vers l'utilisateur final
Pour autant, si une page du site a un poids de plusieurs méga, l'utilisateur risque, s'il est sur un téléphone mobile, de partir avant que la page ne soit complétement chargée.
Comment gérer les erreurs 404 not found sur le fichier browserconfig.xml, alors que celui ci est demandé par le navigateur.
Les feuilles de style d'un site web permettent d'adapter l'affichage à la taille de l'écran. Voyons comment faire pour un site qui s'affiche aussi bien sur un ordinateur, une tablette qu'un téléphone intelligent (smartphone).