,

Référencement naturel : les bonnes pratiques pour une optimisation SEO réussie en 2018

La préoccupation des acteurs du marketing digital reste d’améliorer la visibilité de leur site sur le Web. Effectivement, sans visiteur, un site ne rapporte aucun bénéfice à l’entreprise. Tous se précipitent alors pour trouver des techniques efficaces qui amélioreront leur notoriété sur le net.

Le référencement naturel est, bien évidemment, la base de la visibilité de votre site Internet. Toutefois, ses règles sont sujettes à des changements, en fonction de l’évolution des algorithmes des moteurs de recherche.

Sur quoi sont-elles orientées pour cette année ?

Du contenu qualifié, encore et toujours

L’optimisation SEO d’un site passe par celle de ses contenus. Les moteurs de recherche, notamment Google, restent catégoriques sur leur qualité. Et d’ailleurs, pour celui-ci, les mises à jour apportées à ses algorithmes visent à augmenter les exigences requises au niveau du contenu.

L’objectif des moteurs de recherche est d’apporter des résultats qualifiés et précis aux internautes, qui correspondent au mieux à leurs requêtes. La pertinence du contenu est donc déterminante !

Par ailleurs, les algorithmes, tels que Google Panda, pénalisent les sites dont le contenu est considéré comme de faible qualité. Proposer un site de contenu, qui vise uniquement le référencement avec une optimisation abusive des mots clefs, vous coûtera donc cher. Votre site Web risque de perdre de crédibilité et de passer en bas des résultats.

Tenir le site à jour pour gagner en positionnement

Les moteurs de recherche préfèrent les contenus frais et récents. Lorsque vous mettez régulièrement du contenu en ligne, cela a un impact considérable sur son référencement naturel. Ces contenus permettent d’indexer régulièrement votre site et de le positionner dans les premiers résultats.

En outre, les tendances d’utilisation des mots clefs changent continuellement. Certains mots clefs fortement utilisés peuvent ne plus l’être peu de temps après.

Une mise à jour régulière de vos contenus vous aide donc à suivre la tendance des mots clefs et de travailler sur les plus pertinents dans votre secteur d’activité.

Proposer un contenu original pour optimiser votre référencement naturel

Le duplicate content présente un réel danger pour votre site. Celui-ci sera déclassé dans les SERPs, et perdra donc en visibilité.

Au travers de ses algorithmes, Google est capable de reconnaître les contenus dupliqués. Le moteur de recherche mettra le site avec l’original dans les premiers résultats. En revanche, celui qui propose le double sera mis en bas des résultats.

Cette règle de duplicate content ne concerne pas uniquement les sites qui reprennent l’intégralité du contenu d’un autre. Un contenu est dupliqué dès qu’une partie de celui-ci est similaire à celle d’un autre site Web.

Il vaut donc mieux un article bien rédigé, assuré d’être original, plutôt que de se contenter de reprendre des contenus déjà publiés sur d’autres sites.

L’optimisation sémantique, indispensable pour améliorer le référencement naturel

Pour apparaître dans les résultats de recherche, il faut, bien entendu, se concentrer sur les termes utilisés par les internautes. Toutefois, les moteurs de recherche filtrent les résultats de sorte à éliminer les sites de contenus qui font une suroptimisation. Encore une fois, la qualité du contenu prime.

Ainsi, les mots clefs doivent être intégrés dans un contenu rédigé avec soin et placés d’une manière stratégique.

L’optimisation sémantique implique également que le contenu soit riche. Autrement dit, la rédaction ne doit pas se pencher sur le seul mot clef principal. L’article doit couvrir le champ lexical de celui-ci, pour donner lieu à des mots clefs secondaires et des occurrences. Il s’agit donc d’imprégner le contenu des termes liés au mot clef principal, et qui sont tout aussi utilisés que ce dernier.

D’où l’importance d’un article bien travaillé. Ce qui évite une utilisation abusive des mots clefs au risque d’être pénalisé par les moteurs de recherche.

Le contenu doit également être rédigé dans un langage approprié aux lecteurs cibles. Tout comme il doit être à forte valeur ajoutée, et apporte des réponses à leur questionnement.

Bref, un contenu qui répond tant aux exigences des lecteurs qu’à celles des moteurs de recherche en termes de qualité.

Ecrire pour le Web, une tâche qui demande de la technicité

La rédaction web est une tâche cruciale pour qui souhaite réussir son business. La difficulté se trouve parfois dans la manière de proposer un contenu qualifié, que ce soit pour les cibles ou pour les moteurs de recherche.

D’un côté, il faut écrire pour les moteurs de recherche afin de gagner un meilleur positionnement. D’un autre, il faut écrire pour les cibles afin de mettre à leur disposition un contenu à forte valeur ajoutée. Les deux objectifs peuvent bel et bien s’associer. Pour qu’il en soit ainsi, la rédaction Web doit être réalisée de façon méthodique.

Confier le travail de rédaction à un professionnel qui connaît les exigences y afférentes est ainsi indispensable. C’est l’assurance d’avoir un contenu qualifié qui permet de réussir son référencement et d’attirer les cibles.

En résumé, le contenu est l’élément central d’une stratégie SEO efficace. Avoir un site bien structuré ne suffit à lui seul pour plaire aux moteurs de recherches. Un contenu original, à jour et riche est ce qui vous permet de rayonner sur le Web.

Quels sont les nouveaux tarifs Copyscape pour 2018?

Dès qu’un bloc de contenus est similaire sur deux pages Web différentes, l’une des pages sera pénalisée pour duplicate content. Ainsi, comment être sûr de n’avoir aucune partie dupliquée dans son contenu ?

Aujourd’hui, la recherche d’un duplicate content est plus facile grâce à des outils de vérification tels que Copyscape. Celui-ci se charge d’analyser et de relever les parties dupliquées dans vos contenus. Il est donc d’une aide précieuse pour ceux qui sont amenés à produire régulièrement ou mettre en ligne des contenus.

Pourquoi utiliser des outils de vérification ?

Le référencement naturel de votre site est le premier élément qui sera impacté par les problèmes de contenus dupliqués. En effet, la qualité des contenus est un critère à la base avec lequel Google classe ses résultats de recherche. Cette qualité inclut leur originalité.

Et pour les moteurs de recherche, la pénalisation implique de déclasser la page et de la mettre en bas des résultats. En d’autres mots, une page incluant ne serait-ce qu’une partie des contenus d’une autre aura une difficulté à bénéficier d’un meilleur positionnement.

L’utilisation des outils de vérification tels que Copyscape vous évite de pareilles situations. Ils permettent d’ailleurs une analyse approfondie de chaque bloc de contenus qui constitue vos articles.

Vous vous assurez ainsi de ne proposer que du contenu original sur votre site, un critère de base pour optimiser votre stratégie SEO.

Comment fonctionne Copyscape ?

Copyscape vous permet de scanner vos contenus pour y trouver d’éventuelles parties dupliquées. L’outil les analyse d’une manière détaillée pour mettre en avant la moindre partie qui sera identique avec celle d’une autre page Web.

Copyscape compare donc vos contenus avec ceux des autres sites Web déjà indexés par Google. Les parties dupliquées seront mises en relief avec l’URL des pages sources.

Identifier les parties similaires vous donne la possibilité de les revoir et de les corriger.

Outre la vérification, vous pouvez également prévenir les plagiats grâce au service CopySentry. Lorsque vous mettez vos articles en ligne, vous êtes rarement à l’abri d’un risque de plagiat. CopySentry vous aide à les protéger.

Celui-ci s’occupe de vérifier régulièrement les contenus mis en ligne sur la toile dans le but de trouver ceux qui pourraient être identiques aux vôtres. Un système d’alerte est mis en place pour vous prévenir si une telle situation se présente.

La combinaison entre Copyscape et CopySentry vous aide donc à préserver vos contenus. Elle vous évite les problèmes de contenus dupliqués ou plagiés qui affecteront le référencement naturel de votre site.

Comment bénéficier des fonctionnalités de Copyscape ?

Un service gratuit et une offre Premium sont disponibles sur Copyscape. Bien évidemment, le premier propose un accès plus limité que la seconde. L’offre Premium vous permet une recherche plus poussée et vous donne accès à des fonctionnalités supplémentaires telles que :

  • La vérification de l’intégralité de votre site, en analysant jusqu’à 10 000 pages en une seule opération ;
  • L’analyse de vos contenus en ligne ;
  • L’intégration d’une interface de vérification de duplicate content sur votre système de gestion de contenus avec Premium API ;
  • La possibilité de partager un seul et même compte à plusieurs utilisateurs ayant chacun leur identifiant et avec un suivi permanent de leurs activités sur Copyscape ;
  • Une analyse entre vos propres contenus.

L’accès à Copyscape Premium se fait à la base d’un tarif forfaitaire de 5 centimes par recherche. Vous pouvez payer le montant que vous souhaitez. Ce montant sera ensuite traduit en crédit. Le nombre de crédit détermine celui des checkings que vous pouvez réaliser.

Un nouveau tarif à partir du 2 avril 2018

A partir du 2 avril, Copyscape changera de mode de tarification. Dès lors, le coût d’une vérification sera défini suivant le nombre de mots du contenu à analyser.

Avec ce nouveau tarif, vous devez payer 3 centimes pour un article de 200 mots. Vous devez ajouter 1 centime pour chaque 100 mots supplémentaires.

A la place du crédit, vous aurez une solde de compte. Votre solde définira donc le nombre de checkings que vous pouvez effectuer.

Quant aux crédits accumulés avant cette date, ils seront convertis en solde, 1 crédit vaut 5 centimes.

Tableau comparatif du nouveau et de l’ancien tarif

Nombre de mots du contenu

Coût par checking, en centimes Différence en centimes
Ancien tarif Nouveau tarif

200

5

3 -2

300

5 4

-1

400 5 5

0

500

5 6 +1
750 5 8,75

+3,75

1000

5 11 +6

1250

5 13,75 +8,75
1500 5 16

+11

1750 5 18,75

+13,75

2000

5 21

+16

 

Adobe programme la fin de Flash pour 2020

Utilisé depuis plusieurs années pour lire des vidéos et des jeux vidéos, Flash va disparaître du monde des multimédias. Son éditeur, Adobe, compte retirer ce logiciel du marché à la fin de 2020.

Une fin propulsée par le développement des technologies utilisées sur le Web

La décision de l’éditeur de logiciels Adobe concerne Flash et Shockwave, tous deux des plug-ins utilisés pour les animations multimédias.

Cette décision est prise suite à la baisse de l’utilisation de Flash.

L’essor des technologies telles que HTML5 ou WebAssembly a favorisé la mort des anciens plug-ins dont Flash et Shockwave. En effet, ces nouvelles extensions sont dotées de fonctionnalités qui dépassent largement celles de ces deux derniers. Aussi, développeurs et utilisateurs de tout genre basculent désormais vers ces nouveaux formats.

Selon Google, seuls 17% des utilisateurs de Chrome ont recours à Flash à présent, alors qu’ils étaient encore 80% en 2014.

Flash remplacé par les nouveaux formats

Adobe annonce qu’aucune mise à jour ne sera disponible pour Flash. L’éditeur encourage même les utilisateurs à opter dès à présent pour les nouveaux formats qui peuvent supplanter à Flash tels que HTML5, CSSS3 ou WebGL.

L’éditeur compte ainsi développer une collaboration avec Apple, Facebook, Google, Microsoft ou Mozilla, principaux utilisateurs de Flash, pour réaliser progressivement la transition vers ces extensions qui l’avoisinent.

Pour certains utilisateurs, dont les entreprises qui travaillent dans les jeux vidéos et l’éducation, cette mutation va demander du temps. Et pourtant, l’adaptation à ces nouveaux formats doit impérativement se faire dans les trois ans à venir, car la fin est définitive pour Flash.

Il y en a toutefois ceux qui devront se réjouir de cette décision, notamment les spécialistes de la sécurité. Ces dernières années, Flash était déjà bloqué par de nombreux navigateurs en raison de ses failles de sécurité.

De nouvelles fonctionnalités de recherche sur Google+

Des mises à jour ont été réalisées par Google sur son réseau social Google+. Ces mises à jour ont pour objectif d’améliorer la fonction recherche sur la plateforme pour que les utilisateurs trouvent facilement les contenus qu’ils souhaitent.

Des mises à jour attendues depuis des mois

Depuis plusieurs mois, Google n’apportait aucune mise à jour à son réseau social, à croire que Google+ était mort. Une idée qui n’est pas à exclure. En effet, ces derniers temps, Google+ a quelque peu perdu sa notoriété sur le Web.

Les mises à jour apportées par Google permettent donc de redynamiser sa plateforme sociale. Ces mises à jour, réalisées le 31 juillet, ont permis d’ajouter de nouvelles fonctionnalités au moteur de recherche interne de Google+.

Et effectivement, ces nouvelles fonctionnalités ont redonné vie à la plateforme, rendant la fonction recherche plus pratique.

L’interface, les suggestions ainsi que les filtres de domaines ont tous été touchés par ces mises à jour.

Les recherches récentes dans les suggestions de résultats

En effectuant des recherches sur Google+, il est désormais possible de voir des suggestions se présenter en dessous du champ de recherche avant même d’entrer un mot clé. Ces suggestions sont composées des informations sur les recherches récentes.

Avec cette fonctionnalité, Google tient à offrir un accès facile et rapide aux recherches récentes. L’utilisateur gagne alors du temps s’il souhaite revoir les communautés ou les sujets qu’il a récemment cherchés.

La fonction d’autocompletion améliorée

L’autocompletion est une fonctionnalité qui permet d’avoir des suggestions de termes relatifs au mot clé entré dans le champ de recherche. Sur Google+, les suggestions contiennent des résultats variés issus de rubriques différentes : communautés, collections, contacts, pages.

Au fil de la saisie du mot clé, l’utilisateur aura accès à des propositions différentes telles que des noms de communauté, de personnes ou des collections.

Des résultats filtrés suivant 5 catégories

Suite à cette mise à jour, les utilisateurs ont la possibilité de filtrer les résultats de recherche suivant 5 catégories : “Toutes”, “Posts”, “Communautés”, “Collections”, “Contacts et pages”. Cette fonctionnalité a été intégrée afin de faciliter et d’accélérer les recherches selon Google.

Et plus encore, il est possible de filtrer les résultats dans chaque catégorie. Dans la catégorie “Posts”, les utilisateurs peuvent par exemple choisir d’afficher les résultats suivant des sous-catégories telles que “Posts plus récents” et “Meilleurs résultats”, ou par source de posts “de tout le monde”, “de personnes auxquelles vous êtes abonné”, “uniquement les vôtres”.

Limiter les posts affichés dans les résultats de recherche

L’utilisateur peut restreindre les posts contenus dans les résultats de recherche pour n’afficher que les contenus dans son domaine au lieu d’afficher les contenus publics.

Toutefois, cette fonctionnalité n’est disponible que sur Web.

Il faut dire que ces mises à jour apportent du renouveau à Google+. Mais alors qu’on s’attendait à de nouvelles versions, Google a souhaité de ne réaliser que quelques mises à jour. C’est déjà un bon début, la suite est à voir pour cette plateforme sociale.

Arrivée imminente de la 5G en France

Un type de réseau plus puissant, qui permettra de développer de nouveaux services pour le consommateur final. L’IMT2020 est le nom officiel de la technologie de communication mobile 5G dans l’Hexagone. Cette technologie cinquième génération prendra prochainement le relai de la 4G+.

4G versus 5G

L’IMT2020, ou plus communément le réseau mobile 5G permettra de faire transiter plus rapidement un plus grand nombre de données. Les utilisateurs de la 5G pourront télécharger un film en HD en deux secondes. En clair, la 4G, encore en déploiement dans certaines zones rurales de France, offre actuellement un débit 100 fois inférieur au futur réseau 5G (transfert de 20 giga bits de données/seconde d’une station de base vers un appareil connecté ; 10 gigabits d’un appareil vers une station de base).

Une information qui découle d’un document relayé par l’Union internationale des télécommunications (branche de l’ONU du secteur des télécommunications) daté du 23 février 2017.

Mais la 5G, c’est bien plus que la rapidité de transfert pour un volume extraordinaire de données ! D’autres applications de cette technologie seront désormais possibles : l’information circulant de manière plus vite offre un temps de latence inférieur à une milliseconde (la 4G offre 25 millisecondes voir 40 millisecondes de temps de latence).

Ce temps de latence grandement réduit est une caractéristique essentielle pour des applications  nouvelles avec des processus en temps réel. C’est par exemple le cas pour des applications de voiture autonome, d’opérations chirurgicales robotisées à distance…

Un projet en cours de gestation chez les opérateurs mobiles et FAI en France

La 5ème génération de réseau de communication équipera prochainement tous les appareils mobiles : objets connectés, smartphones, tablettes.

Une norme 5G provisoire, non-standelone 5G NR, sera lancée à la mi-2018 selon une annonce faite en mars 2017 par le 3GPP (Organisation internationale chargée de standardiser les technologies de télécommunication, « third generation partnership project). De son côté, l’Arcep – Autorité de régulation des communications électroniques et des postes a présenté en juin dernier sa raodmap avec des expérimentations en cours pour attribuer deux nouvelles bandes de fréquences aux opérateurs mobiles en 2018 (2,6 GHz et 3,5GHz). L’attribution achevée, les principaux groupes de télécommunication pourront installer leurs infrastructures : logiciels, antennes, cœurs de réseau. Selon les opérateurs, ce déploiement durera entre 12 mois ou un an et demi. Par conséquent, les premières offres 5G devraient voir le jour en 2020 !

Ailleurs, depuis juillet 2017, Apple avait demandé aux Autorités américaines de lui accorder des ondes radios millimétriques pour des tests de la 5G. D’ici 2019, le géant américain pourrait fort probablement sortir des appareils compatibles 5G.

Sur le plan économique, la 5G équivaudrait à 12 000 milliards d’euros de retombées sur le plan mondial entre 2020 et 2035 et à créer 22 millions de postes.

L’Europe envisage d’imposer les lois européennes aux géants américains du Web

Lutter davantage contre les pratiques commerciales illicites et accepter de traiter les poursuites suivant les juridictions du pays de l’utilisateur, c’est ce que l’Europe exige des géants américains du Web. Les réseaux sociaux sont les principaux concernés par cette décision.

Facebook, Twitter et Google visés par la Commission européenne

Un ultimatum est posé par la Commission européenne à l’égard de Facebook, Twitter et Google. Celle-ci exige que ces trois plateformes mettent en place des conditions générales d’utilisation en adéquation avec le droit de la consommation européen.

L’ultimatum posé leur demande de modifier ces conditions générales d’utilisation avant la fin du mois de septembre.

Deux points sont à revoir dans ces conditions d’utilisation : la lutte contre les pratiques commerciales abusives et le lieu de juridiction en cas de litige.

Les réseaux sociaux sous la juridiction du pays de l’utilisateur

Les litiges doivent être réglés dans un tribunal du pays de l’utilisateur, c’est ce que cherche à imposer la Commission européenne aux réseaux sociaux. Les poursuites ne doivent donc plus relever de la seule juridiction du pays où se trouve le siège de la plateforme.

Pour la France, il convient de souligner que le débat ne date pas d’hier. En février 2016, la Cour d’appel de Paris s’est chargée d’une affaire impliquant Facebook. Un instituteur s’est en effet attaqué à la plateforme de Mark Zuckerberg après que son compte ait été censuré. La raison du conflit : un tableau de Gustave Courbet, “L’origine du monde”, qui représente le sexe féminin, publié sur le compte de cet instituteur.

A cette époque, la Cour d’appel de Paris a déjà jugé abusive la clause désignant le tribunal de l’Etat de Californie comme le seul pouvant trancher pour cette affaire.

La demande de la Commission européenne cherche donc à ce qu’on revoie cette pratique afin d’attribuer une compétence à juger au tribunal de l’Etat où se trouve l’utilisateur.

Une réglementation plus stricte pour les contenus à publier sur les réseaux sociaux

Une partie des conditions générales d’utilisation met déjà en relief les règles qui régissent les contenus à publier sur ces réseaux sociaux. Pour la Commission européenne, c’est encore insuffisant. Ainsi, celle-ci exige que ces plateformes établissent des règles plus détaillées et plus spécifiées concernant ces contenus. L’objectif est en effet de lutter contre les pratiques commerciales abusives.

Le dossier est entre les mains de Vera Jourova, commissaire européenne en charge de la justice, des consommateurs et de l’égalité des genres.

Espérons alors que Facebook, Twitter et Google prennent en compte l’ultimatum qui leur est imposé et passent à la modification de leurs conditions générales d’utilisation. En tout cas, ils ont jusqu’au 20 juillet pour réaliser les modifications demandées pour ensuite les mettre en application au plus tard à la fin du mois de septembre.