La requête locale Le référencement local, aussi appelé géographique, permet aux entreprises de faire la promotion de leurs produits et/ou services pour les clients situés à proximité. Une requête locale est une recherche dans laquelle l’internaute souhaite s’informer sur quelque chose dans un lieu spécifique, comme « cafés près de chez
Techniques SEO
Vous trouverez dans ce blog des informations pour comprendre le fonctionnement du SEO, et de nombreux conseils pour optimiser le référencement naturel de votre site. Nos experts SEO partagent leur expérience et leur point de vue sur les bonnes pratiques SEO à mettre en oeuvre, mais aussi sur les techniques qu’il faut éviter.
Vous recherchez des spécialistes du référencement naturel pour vous aider à améliorer la visibilité de votre site dans Google ? Contactez-nous, ou demandez un audit SEO gratuit de votre site.
Pourquoi la difficulté des mots-clés est-elle importante ? En bref : c’est une partie très importante du processus de recherche de mots-clés. Avec le volume de recherche mensuel et d’autres facteurs, la difficulté des mots-clés vous aide à choisir les meilleurs pour le référencement. Le seul problème est que chaque
Que sont les requêtes de recherche informationnelles ? Les requêtes de recherche informationnelles proviennent de consommateurs qui recherchent simplement des informations spécifiques et qui ont des questions sur un sujet particulier. Les requêtes informatives sont difficiles à cibler. Google le sait, c’est pourquoi il a développé le Knowledge Graph pour
Noindex tag, quelques explications Les directives « Noindex » demandent aux moteurs de recherche d’exclure une page de l’index, ce qui la rend inéligible dans les résultats de recherche. Balises Meta Robots « Noindex » (sans index) La façon la plus courante de demander aux moteurs de recherche de ne pas indexer une
Les pénalités manuelles permettent à Google de déclasser ou de supprimer des pages ou des sites dans leur ensemble. Elles ne sont pas liées aux changements d’algorithmes tels que Penguin, Panda ou Hummingbird. C’est l’un des membres de l’équipe Google qui « punit » manuellement les sites qui ne respectent pas les
Que sont les X-robots-tag ? Il existe quelques types de directives qui indiquent aux robots des moteurs de recherche les pages et autres contenus que les robots seront autorisés à explorer et à indexer. Les plus courantes sont le fichier robots.txt et la balise meta robots. Le fichier robots.txt indique aux
Que sont les paramètres URL ? Les paramètres URL sont utilisés pour indiquer comment les moteurs de recherche doivent traiter certaines parties de votre site en fonction de vos URL, afin d’explorer votre site plus efficacement. Il s’agit de dossiers dans une chaîne d’URL, par exemple votre site.com/folder-one/ ou votre site.com/folder-two/,
Que sont les techniques de spamming ? Comme dans le monde réel, où les gens font constamment ce qu’il ne faut pas faire, la sphère numérique n’est pas différente. La majorité des propriétaires de sites Web respectent les règles et mettent en œuvre sur leur site des stratégies qui génèrent
Qu’est-ce qu’un plan de site ? Un plan du site ou « sitemaps » est un plan détaillé de votre site Web qui aide les moteurs de recherche à trouver, explorer et indexer l’ensemble du contenu de votre site. Les sitemaps indiquent également aux moteurs de recherche quelles sont les pages les
Imaginons qu’un moteur de recherche soit sur le point de visiter un site. Avant de visiter la page cible, il consultera le fichier robots.txt pour y trouver des instructions. Qu’est-ce qu’un fichier robots.txt ? Le fichier robots.txt est un fichier texte que les webmasters créent pour indiquer aux robots Web