Aller au contenu

ybet

Hubmaster
  • Compteur de contenus

    180
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par ybet

  1. Après les trucs standards (genre lit ... ) Une petite analyse. Je commence par la page d'accueil Meta <TITLE>Champs Elysées -Le Portail du Luxe et du Prestige</TITLE> <!-- InstanceEndEditable --> <META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=iso-8859-1"> <META name="description" content="Champs-Elysées.fr vous présente sa sélection des meilleures adresses : Hôtellerie, Restauration, Club House... Le Best of"> déjà dans le titre un petit problème de code de caractère. Pour le titre, ... c'est ce qui est notament affiché dans les recherches comme titre. Débuter par ... OK, mais la suite est plus coriace. Je suis un père de famille, je passe au résultat suivant (en plus manque PARIS). Pour la description, elle n'est plus utilsiée pour le référencement par GG mais est affichée. Vire déjà "vous présente sa sélection", .... et rajoute quelque chose qui attire le visiteur. Maintenant http://64.233.183.104/search?q=cache:http:...252&strip=1 le quartier est dilué dans un nuage de mots qui n'ont finalement rien à voire genre les départements de France (ou les régions, suis pas français). J'ajouterais que j'arrive sur cette page en cherchant des renseignements sur les champs Elysés, ... je quitte direct. Puis je passe sur une page interne, les restaurants ... http://www.champs-elysees.fr/listetabl.php?typ=2 (même si je suis pas un fan de l'URL rewriting ... un peu juste et je cherche un restaurant sur les champs élysés ... soit mes notions de géographie sont un peu vague (Lyon, un quartier des champs élysés peut-être ...) soit c'est un siite foure tout avec un super nom de domaine. mais sur cette page, je retrouve le même titre et la même description ... (sans les erreurs de caractère set). Ca ca s'appelle du diplicate content ... (c'est pas la seule méthode pour être déclassé un peu ou même pénalisé mais quand même) Du boulôt .... mais un site, c'est pas un nom de domaine, c'est un contenu dans la thématique, ce que les gens recherchent et espèrent trouver. Désolé d'aoir l'air un peu carré mais beaucoup de choses à faire pour en faire un vrai site.
  2. Sans rentrer trop dans des tests, et sans avoir la science "infuse". Les déclassement des sites moyens ont l'air de venir de différentes parties. GG découpe les pages en deux parties, la partie navigation (normlement les liesn plus le header reprenant le logo du site) et le contenu. . Trop de liens avec peu de texte ou contenu -> out . duplicate content dans la partiie contenu (souvent les annuaires) -> out . répétition des parties de liens sur toutes les pages, surtout avec un nombre de liens importants -> out. On a longtemps pensé que c'était les annuaires qui étaient visés depuis novembre mais d'autres sites similaires (vente en ligne, annonces, ....) sont dans le même cas. Mais je connais aussi des contre exemples, lié au PR peut-être. Les gros sans sortent plutôt mieux (quoique quelques vieux PR 6 sont tombés aussi).
  3. en premier, les outils ne sont pas mis à jour en temps réels, un nouveau post n'est donc pas forcément repris dans la liste des liens. En deuxième (mais c'est plus spécifiques), GG grise des anciennes pages depuis des mois. Sans donner des solutions ou des explications dans ce post, ces pages grisées sont reprises (ou non) dans les liens du compte webmaster. Mias l'important, c'est pas les liens affichés (y compris dans le compte webmaster), mais bien ta position sur le moteur
  4. Dudu, suis pas franchement un débutant et je sais que tu ne l'est pas non plus La même chose existe en Word et pas 1 utilisateur sur 100 ne les utilise. Mais quand le robot arrive sur une page, qu'il trouve des segmentations en balises h1, h2, .... l'algorytme doit se rendre compte que le site a pas été fait par un débutant, mais au moins par quelqu'un qui a lut quelques trucs et que maintenant, il se méfie tellement que tout ce qui est fait correct (sans esprit de tricherie aucune) est vu avec méfiance .... Ca explique pas les pénalités des derniers mois, mais au mpoins que Google modifie son algorythme pour essayer que ces techniques ne fonctionnent plus. Je ne lui reproche pas ses modifs, mais bien les dégats collatéraux.
  5. déjà, h1, h2, h3 est déjà une suroptimilisation. Pas un webmaster débutant ne sais que ca existe. En deuxième, GG semble plutôt méchament virer les pages (et sites ) qui utilisent des trucs de webmasters connus depuis des lustres ... et pas forcément QUE les techniques douteuses. Toutr ce qui semble être fait pour passer Naturel, les liens, mais ... naturels les textes aussi. Ca va être dur de référencer un site en restant de GG. on va finire par tous reprendre à zero. Pas de liens d'annuaires, pas de lies de copains, pas d'écahange de liens (même s'ils sont pas voulus (quitte à mettre un HTaccess ou mieux, interdie via la configuration apache l'adresse IP). D'accord, je blague (un peu) mais tout se passe depuis novembre comme si GG cassait tous les trucs, anciens ouy nouveaux, utiles ou pas mais repris dans les forums: les mauvais sites comme les bons.
  6. La géolocalisation s'est accentuée ces derniers mois. C'est valable pour tous les sites. Par contre, certains sites sont moins géolocalisés que d'autres. Sans faire de généralités, il semble 1. les anciens sites sont généralement moins géolocalisés que les nouveaux 2. des liens majoritaires d'un pays ne permettent pas au site qui recoit les liens de la passer Par contre, il suffit parfois de 2 ou 3 liens "importants" de sites d'un autre pays pour que la page monte sur ce pays. J'ai déjà vérifié quelques sites avec trend, c'est parfois affolants. http://trends.google.com/websites?q=materi...=all&sort=0 le plus gros en terme de visiteur est ybet.be, mais sa part google france est très importante par rapport aux deux autres sites. Par contre, si on vérifie Belgique, ce sont les petites annonces qui prennent nettement le dessus. Si celui-ci n'était pas géolocalisé belge à outrance, sur qu'il multiplie par 4 ses visiteurs sans problèmes. Pour ybet.be, sans la géolocalisation (il est aussi rétrogradé sur GG.fr), lui aussi augmenterait son nombre de visiteurs d'une manière importante. Remarque, celui qui reçoit les plus gros liens français est le troisième (et pas moins géolocalisé que les autres), c'est aussi le plus gros PR.
  7. Ca dépend de beaucoup trop de chose. Tant que c'est dans la même thématique et en rapport avec le contenu des différents liens (même si GG casse les pages avec uniquement des liens maintenant). Dois avoir une bonne trentaine de pages qui envoient plus de 500 liens internes. Certaines passent, d'autre non. un exemple: -www.materiel-informatique.be. les pages "lettres" s'en prennent quasiment toutes, les pages de liens thématiques non. Faut réfléchir comme un humain dans le sens intérêt visiteur, pas forcément référencement. Ca aide parfois d'oublier ce qu'on lit sur les forum de référencement et de .... s'identifier à un visiteur.
  8. Ce petit problème date dedéjà quelques mois. Ce n'est pas à proprement parlé du duplicate content. GG grise les pages dont le rapport contenu (texte) - texte de lien est trop faible. Sur un de mes sites, doit bien avoir une trentaine de pages qui sont passée de PR4 à grisées sans autres explications. Une est revenue en rajoutant du texte. Portant, pas évident, ces pages sont les pages d'entrées des lettres d'un dictionnaire. Toutes n'ont pas le problème , la lettre A (j'en ai conclu que les internautes cliquent plus souvent sur A que sur Z (mais c'est aussi celle qui a le plus de définition) et quelques pages qui reprennent un mot suivi d'une petite définition (le reste de mon début de travail quand je l'ai commencé). Soit réduit le nombre de liens, soit augmente le texte.
  9. Ben le gamain est pas du tout visible dans l'index ... Mais te rassure, mes sites sont toujours dans l'index. Je connais même un PR5 qui est dans le cahce de Google (mais il date de 6 mois) et jamais repris sur les recherches, même pas sur son nom de domaine. (Un achat de liens en Pologne, la version officielle du webmasters, mais d'autres achats en Union Soviétique et quelques trucs cachés, un système d'achange de lien d'un site un peu disparu) Mais en effet, la distinction backlisté ou sanction sévère devient de plus en plus flou. Sauf que les deux sont pas visibles. L'affichage du PR n'est plus une condition sine qua none. Sauf que depuis décembre 2007, les pages avec du PR qui passent en grisé, c'est une méthode de communication. Un site backlisté garde l'affichage du PR mais est bien supprimé de l'index. Préférait avant: backlisté, PR grisé + plus visible. Site correct, un PR affiché (même 0) et visible. Page pas dans les normes de GG (y compris rapport liens internes / contenu texte), grisé, pas référencé mais cache correct. Met la même signature puisque c'est aussi mon prénom Patrick
  10. Raté. Un site peut être dans le collimateur de Google et avoir unPR affiché. Un copain donne un nom de domaine PR3 dans le collimateur de Google (ancienne parque blanche avec des bricolages mais laissé vides des mois). Le gamain met un annuaire (d'accrod un Freeglobe dézippé de chez dézippé)? Dernières GD, le site pase PR1 puis PR0 (déjà pas grisé, 'c'sest déjà ça). Pourtant pour l'indexation, 5 pages en 2 mois et pas dans l'index .... C'est beaucoup plus subtil. En janvier, des sites virés par Google gardait le PR mais n'étaint plus visibles (me rappelle d'un PR 5 basé sur des achats de liens supprimé en decembre. Le PR est redescendu à 4 mais dans les recherches, toujours en fond de couloir. Google utilise la petite barre verte affichée comme bon lui semble. Pas dans SES règles, la laisse grisée. Pas dans les règles du tout, grise ou laisse le niveau mais ne la prend pas en compte, y compris après changement complet du site.
  11. Me semble aussi qu'un nom court et facile à retenir favorise et les visiteurs directs et le référencement. Google n'est pas dupe.
  12. en gros, il semble les utiliser quand les mots sont en rapport avec le cvontenu. Pourtant, c'est tellement faible que le travail pour les mettre n'en vaut probablement pas la chadelle. Quand on sait qu'un annuaire Freeglobe les crée en utilisant la description et en supprimant tous les mots qui dépassent 3 ou 4 lettres .... On comprend mieux l'idée de Google. Maintenant pour le site .... c'est autre chose. Une copie de ton <head> <!-- titre différent chaque page ? MAXI 100 caractères y compris les espaces --> Si Google lit tout, il a du bien se marrer, enlève déjà le commentaire Mais reste la description .... comme exemple: <meta name="description" content="" /> <!-- 150 / 200 caractères maximum (y compris espaces), pas de passage à la ligne sur l'éditeur HTML --> Google ne voit pas la description (normale, elle est vide). Il y a une bonne dizaine de meta qui servent à rien ... -http://www.ybet.be/internet-22/liste-meta.htmhttp://www.ybet.be/internet-22/liste-meta.htm Reste le contenu. Design propre mais ... le contenu manque de tests "référencement". Je ne vois que la page d'accueil (mon but est pas d'analyser ton site). <head> titre: <title>Handy-Mobil > Accueil du site</title> ---> vers queque chose en rapport avec ce que tapent les internautes, genre Handy-Mobil, déplacement des handicapés d'Annemasse et Haute-Savoie. Ca serait déjà beaucoup mieux. Maintenant le contenu de cette page. On siuppose que les internautes vont taper des requêtes de type handicapé, déplacement, haute Savoie, ... Pas le mot handycapé (je sais personnes à mobilité réduites - au passage met le au singulier), mais les internautes sont fénéants .... et se foutent des directives administratives. Quelqun qui recherche un emploi de techniciene de surface tapera probablement plus souvent nettoyage batîment (ben oui, c'est cru mais c'est comme celà ). Ta solution est de rechercher les mots qu'un gamin de 12 ans taperait comme recherche (désolé, mais c'est l'âge mental du vocabulaire des requêtes sur Internet) et de les faire apparaître dans le texte de la page avec des phrases standard (pas des listes de mots séparés par des virgules ....) Je remontrait aussi un peu le header dans le graphisme... pour faire apparaître le contenu. PS: j'espère ne pas t'avoir froissé avec mes propos, ce n'est pas le but.
  13. Mais si que Google tient compte d'un paquet de stats pour positionner ses pages (Analytic, maintenants gratuit alors qu'il était payant, le google Barre (avec options avancées, quelques brevets comme l'intérêt des internautes sur de portions de pages, ....). Pour le nombre de visiteurs, effectivement le premier sur GG en a plus, mais il sait aussi tenir compte si le visiteur du premier résultat quitte tout de suite et reste longtemps sur le deuxième (en plus analytic lui permet de savoir s'il a continué dans le site ...)
  14. Il n' a maheuresement pas de répnonses toutes faites ... des liens oui, mais ca différe pour chaque site. A mo avis, pour créer un site, il faut d'abord une idée de site (c'est conn, mais rien qu'à voire le nombre de Freegloque qui débutent chaque semaine (plus ceux qu'on ne connaitra jamais) La deuxième chose est quals moyens ..... un site local ne se donnera pas les mêmes moyens qu'un site de vente planétaire. la troisème est quel nombre de pages au final. Une location de vacance reprendra tout au plus 10 pages. Un site sur l'actualité informatiaque va grandir. Cette dernière va jouer sur la structure du site, surtout au nivean liens internes, mpais aussi le type de site: HTML et statique ou dynamique avec une base de donnée assosciée. Une fois décidé .... reste plus qu'à construire le site. La méthode va très vite arrivée dans la méthode de programmation: 110 pages et l'HTML est facile, des fonctions standards: un CMS, le temps de s'y mettre, un peu plus quel CMS peut m'apporter des contributions supplémentaires. Un truc un peu dingue (ma spécialité), on programme quasiment tout. l'idée bien établie et le développement fait, reste à le mettre en ligne. NDD ou hébergement genre Lycos n'est pas un problème en soit. C'est l'avenir qui doit faire le choix (et pas de chance, mieux vaut le faire au départ) Rest plus qu'à le faire connaître. Pour la partie choix de départ, tu as ceci (niveau débutant): -http://www.ybet.be/internet12/conception_site.htm La stratégie de liens internes va directement jouer ici (les liens externes en plus, même pire)
  15. Ca serait plutôt là, pas le contenu, le manque de contenu... Pour le www ou pas .... je pense pas que les niveaux actuels de Google soient à ce point si bête (même si accueil est plus embétant). Mais c'est probablement pas là le problème. Depuis décembre 2007, GG a donné quelques baffes .... qui ont fait du bruit, mais continue à en donner beaucoup plus sournoises. Ca s'appelle les pages grisées pour des anciennes pages ... Dans ce cas, le PR n'apparaît plus (jusque là), mais les pages n'apparaissent quasiment plus dans les recherches non plus, et ne renvoient plus de liens, y compris vers la page d'entréee de ton site. Ton site se retrouve finalement avec quelques malheureux liens externes et quasiment plus de lien internes (Vide). Au passage, à moins de voulior passer première sur la recherche Accueil, tu peux aussi travailler tes liens dans cette direction. Pour arriver à cet état, une page remplit au moins une des condition suivante (entre autre, mais ce q-sont les principales, quoique je soupconne GG de vérifier également les visiteurs via GG analytic et la barre verte affichée, sans comtre le affichage adsence ... et pas dans l'intérêt de les afficher). 1. page comprenant uniquement des liens (où en trop forte majorité) . Qu'ils soient internes ou externes n'a pas trop l'air d'être pris en compte. Le no-follow ou le follow n'ont d'aillieurs pas l'air de changer grand chose. 2. page avec peu de contenu. Dans ton cas, toutes tes pages internes ou presque sont passées grisées -http://kokimi-mohair.com/chauss.php .... sauf -http://kokimi-mohair.com/pulls.php et devine, c'est la page qui contient un texte explicatif au dessus. Au passage, les ALT dans les images, c'est bien ... sauf qu'elle doit remplir son rôle, ... pas reprendre par exemple écharpe rouge avec une photo suivante de nouveau le même terme, encore une petite sanction: des listes de mots cachés dans les images. En gros, rajoute du texte sur tes pages avec de vraies phrases, remplace les ALT de tes photos par du vrai texte. Avec le temps, m'a fallu deux mois pour en faire sortir une, par contre, d'autres reviennent quelques jours et disparaissent pour revenir plus tard.
  16. <strong> et <b> reviennent tout à fait au même niveau affichage et référencement ... Pour la question de départ ... Déjà relooker peu apporter des visiteurs, refaire toutes les pages inclus de ne pas changer l'adresse (sauf redirection ...) et changer la structure du site est pas forcément la solution. On utilise trois structures pour la création de sites: . en ligne. Toutes les pages reprennent un lien vers les autres pages. Cette structure s'adapte très bie aux petits sites (pas beaucoup de pages), genre gîte, site de présentation. . en arbre (identique à la structure des répertoires de Windows). Cette structure s'adapte aux gros sites (plus il y a de pages plus on peu ajouter de sous... sous... pages. . hybrides une structure en ligne pour les thèmes principaux, des sous parties .. et entre pages de même groupes, des liens (identiques à la méthode ci-dessus) sauf que tu met aussi des liens entre des pages de groupes différents mais parlant de méthodes similaires. exemple, la marque (groupe), dans la page lien vers les différents modèles ... et sous page par modèle reprenant moteur, entretien, ... Si l'entretien est similaire à un modèle d'une autre marque,, lien vers l'autrepage. La troisième a l'avantage de ne pas modifer le site. Pour les images , je crois que Google a compris l'utilisation par les webmasters du ALT dans les images (cacher des mots clés et les consersations de type pour faciliter l'accessibilité ... c'est la réponse des webmasters qui font du référencement - le débutant sait même pas que celà existe, désolé pour le W3C). Mieux vaut le texte en dessous de l'image qu'en remplacement de l'image. De toute façon, GG commence à bloquer tout ce qui semble pas naturel pour le visiteur
  17. Pas persuadé que trente liens (unbon plus quelques autres) permettent un meilleur référencement actuel que 1 bon line (je commence même à croire le contraire). Un partenariat demande généralement footer contre footer. ... Par contr, si c'est pour un de tes sites (parle référencement, pas visiteurs), j'en mettrais qu'un .
  18. Suis le référencement depuis déjà quleques années ... et c'est effectivement le cas. J'ajouterai que quand un "petit référenceur" tourve quelque chose qui marche et l'annonce sur un forum ... un paquet suivent l'exemple et Google s'en apercoit! là il modifie son algorythme.
  19. Ben oui, le référencement est un métier artisanal. A croire que Google lit les posts sur les forums de référencements avec les trucs standards ... Et effectivement, ce qui fonctionne sur un site ne marche pas forcément sur d'autres (va comprendre).
  20. Pour une fois un beau post sur un forum de référencement, pas trop le temps maintenant ... j'essayerais dimanche (avant l'apéro c'est là que je prend le temps).
  21. Probablement, ... mais il y a une grosse différence entre Google 2004 et ses fin de Google danses (dans le sens où les plus anciens la connaissent) et Google actuellement ... ses outils pour perfectionner l'algorythme. La google barre avec affichage du PR est nettement mieux analysée, Analytic doit franchement lui servir à quelque chose (connais pas une entreprise qui achète un truc payant et le met gratuit pour le plaisir), même Adsence doit être décortiqué ... La grosse différence vient surtout des moyens de calculs des ordinateurs actuels (Ouf Google utilise pas Vista ). La majorité ont vu le mois de décembre comme une baffe aux "vendeurs de liens" (et tout personnes non jugée coupable est présumée innocent). Quelques idées: . des sites (pages) "vendant" des liens perdent une large partie du PR mais pas de visiteurs (même souvent l'inverse): soit, c'est pour rappeler que le PR d'une page ne se vend pas, pour celà, il y a adword. . des pages avec beaucoup de liens externes ou internes perdent leur PR (genre table de matière), soit, Google considère que la page ne sert qu'à renvoyer des liens de fort PR vers d'autres pages .... . des pages deviennent grisées mais toujours dans le cache. Pourtant, elles n'apparaissent quasiment plus dans les recherches (ou tellement loin ...). Tiens, généralement c'est le site et là non, ce sont des pages avec des caractéristiques similaires trop de liens externes ou un seul jugé trop favoritisme, ou même (ce qiui est plus bizarre) vers uniquement des pages internes . des sites sanctionnés (on va citer big-annuaire) et d'autres pires .... (là je cite pas de nom ) pas sanctionnés avec aucune logique. Pourquoi un et pas l'autre. . des petits annuaires disparus des gros qui restent (là honnêtement, entre un gros bien tenu et la multitude de petits qui sont finalement là pour mettre des adsences ...) ca pourrait se comprendre. J'ai fait un paquet de tests sur ses sanctions en décembre ("profitant" malgré moi des différentes sanctions sur certaines pages de mes sites). En référencement, surtout avec Google, tirer des conclusions, c'est parier sur 10 ricochet sur l'eau avec une pierre ronde, possible mais ... Pourtant, de plus en plus je pense que Google essaye d'utiliser les différentes statistiques de ses outils "webmasters" mais n'y parvient pas. Tout ce qui ce passe (y compris les pseudo message de trustrank) sont uniquement là pour masquer le manque de résultats, ou plutôt les essais humain d'adapter l'algorythme pour améliorer les résultats. L'avantage de l'informatique c'est de faire rapidement et sans erreur des tâches de calcul facile. Le défaut, c'est le programme qui doit être parfaitement calibré. C'est probablement là la majorité des bizarretés de ces deux derniers mois. Google tatonne, un peu comme un cuisinier qui essayerais d'inventer un nouveau plat, pas assez de ci, trop de celà, .... chercher l'équilibre. Toute les communications (y compris les bruits des webmasters) sont justes là pour masquer les essais. Ce n'est peut-être qu'une simple idée. PS: le référencement était une science exacte il y a trois ans: le titre avec les bons mots au début, la description avec les mots les plus importants, plus d'autres un peu moins importants et quelques petits mots anodins sensés faire croire à Google que la page n'essayait pas de passer, titre 1, titre 2, .... les mots moins importants en liste (plus quelques mois plus tard noyés dans le texte ) et pour finir, liens massifs de pages à fort PR (le texte mélangé par précaution). Faudra juste oublié les trucs de la parfaite petite bible du référenceur pour devenir naturel (ca c'est ce qu'il espère). Finalement ca devient un métient de feeling et plus de technicien.
  22. préconise. J'ai des pages qui font plus de 1200 liens et qui passent sur google sans problèmes. On ne construit pas des pages en lisant le manuel du parfait référenceur mais pour les visiteurs. Si la page doit avoir 500 liens, mets les 500 liens. GG sanctionne actuellement les pages qui ne mettent que des liens et pas de textes. Il considère sans doute que ces pages sont faites uniquement pour envoyer les liens. Cette remarque des 100 liens maximum date de la préhistoire de Google, pas dans la pratique, en même temps que la limitation des 100 K de code HTML pour une page. Actuellement, j'ai des pages de 300 K qui passent aussi sans problèmes. Par contre, comme dit michaeljack, la suroptimalisation ..... là ca passe de moins en moins (quoique ca dépend des pages, difficile de tirer des conclusions, certaines passent, d'autres pas).
  23. Si google est capable de cibler des pubs adsences, de corriger les fautes d'orthographes dans les recherches, de reconnaître le singulier du pluriel, de reconnaitre restaurant et restaurateur comme synonymes dans les recherches, .... Ca doit franchement pas lui poser de problèmes de définir les mêmes thématiques. Même si on sait tous (enfin j'espère) que le PR affiché n'est plus le PR utilisé par Google, les tests que j'ai fait en decembre suite au baffe de quelques gros sites montrent que les pages grisées avec des liens internes oou externes de PR supérieurs ne passent quasiment pas dans les recherches. C'est une sanction de Google coontre des trucs qu'il n'apprécie pas (justifié ou non d'aillieurs). Ce qui est normal pour une nouvelle page est une sanction pour des anciennes. Un petit exemple, le site darut.eu en cours de construction au niveau fonctionnalités (mais en ligne depuis plus d'un an avec quelques pages au début) reprend un annuaire quasiment intégré dans le site de petites annonces. La page d'entrée est PR4 (du bol .... ou plutôt quelques liens de mes autres sites), l'annuaire est grisé et comme par hasard pas de visites de Google sur cette zone. Il y a déjà du progrès, en décembre quand ca a commencé, des Pages PR4 se sont retrouvées grisées (et plus en cache) sans réellement savoir pourquoi sur d'autres sites. Avec tout le respect que je te dois, faudrais un peu suivre l'actualité.
  24. Mais si .... On s'est retrouvé il y a quelques semianes à une dizaine de webmaster dans ma région comme soirée rencontre, amateurs purs, sociéetés de créations, et d'autres. Dans le paquet trois plus spécialisés dans le référnencement. Pour les liens internes, même si les autres techniques cont bonnes, travaille franchement avec les liens internes. mélanger les textes, mettre des liens d'une page d'une thématique vers un autre de même thématique, ... si possible en plein dans le texte.
×
×
  • Créer...