Aller au contenu

jnj

Actif
  • Compteur de contenus

    47
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre

À propos de jnj

  • Date de naissance 27/09/1958

Pour me contacter

  • Mon Site
    http://www.referencement-positionnement-sites.com/
  • Skype
    ggregoire

Information du profil

  • Genre
    Homme
  • Localisation
    Essonne
  1. bonjour, excellente synthèse mais si quelques points ne me paraissent peut être pas tout à fait justes d'après mes propres campagnes de mesure. je ne suis pas persuadé que un échange de liens footer à footer entre A et B soit acceptable dans l'exemple de l'échange de liens à 3 sur A, B et C. en théorie des graphes, cela ferme la boucle, donc l'échange tripartite devient immédiatement flagrant. j'éviterais personnellement une telle fermeture de boucle trahissant la relation entre A et B. JnJ
  2. salut, je ne suis pas modérateur , mais tu aurais plus de réponses en postant dans ce fil plutôt que ici :: web master : URL rewriting et autres .htaccess
  3. hello j'ai testé sur un site pour vérifier :: une redirection 301 perd son efficacité (en référencement bien sur) au bout d'un laps de temps se mesurant en mois. (quelques mois) à éviter donc. Il vaut mieux mettre le ou les liens à jour vers la bonne URL dès que possible pour éviter un duplicate content il y a aussi "no index , no follow" en meta tout simplement je doute que le poids d'une page dupliquée et gérée en link canonical ait une quelconque influence en positionnement. Cela me parait illogique mais je n'ai pas testé à+
  4. salut, je découvre ce fil un peu tard. voici ma modeste contribution le code de 4 ans de Dan est efficace. il en existe des variantes sur quelques autres forum mais le code de Dan est le + complet et le mieux écrit. MAIS : cela revient à fournir à Google une page avec une URL et laisser les internautes naviguer avec d'autres URL => dans un point de vue c'est du duplicate content potentiel mais le user agent ne voit qu'une URL donc non. => dans un autre point de vue c'est du cloaking : n URL pointent vers une même page physique. Mais les URL sont différentes puisque phpsessid les différencie. Donc on revient sur du duplicate content et de toute façon seule une page est visible de Google Google, en mode "vérification et lutte contre le cloaking" , en comparant le résultat d'une indexation pourra comparer le contenu de l'URL "propre" et celui des URL "enrichies" Question : soit une même URL , propre ou affectée de phpsessid et de passage de paramètres. Ces URL sont elles du cloaking ? C'est à dire N même URL présentées à Google ou à des internautes avec une seule page physique ? Ma réponse mais je suis ouvert à toute discussion : non. Google considère que ce sont des URL différentes, que les pages à URL enrichies ne sont pas indexées et même si il considère que non, si VOUS AVEZ A PEU PRES LE Même CONTENU, il ne considèrera pas cela comme du cloaking. il semble que la nuance pour lui porte sur l'existence dans son index d'une URL et que strictement la même URL ait un contenu différent quand son bot "officiel" accède à cette même URL. je suis preneur de tout avis
  5. je viens de faire une campagne de vérif du respect du W3C multilangue par Google , vous savez cette société si à cheval sur les balises ALT pour les malvoyants. Il en a rien à f<censuré>e !!!! il prend en compte la balise lang de toute la page, s'il y en a pas il calcule une langue et c tout donc ne jamais mélanger les langues sur une même page du texte balisé anglais dans une page native fr est ignoré du moteur US et UK - pour lui c du français. bon ...... je vais corriger mon support de cours multi langue en l'annotant : respecter le W3C uniquement si vous en avez rien à faire de Google sur les textes insérés dans d'autres langues.
  6. le site pour qui j'ai fait cette manip est passé ensuite à une langue / une page et à l'époque cela ressortait je peux tester sur un de mes sites en PR5 et voir ce qui se passe tiens pourquoi pas à suivre ...
  7. voici quelques extraits du cours que je donne. A priori Google est capable de comprendre cela. Il y a de nombreux cas où il est nécessaire de baliser la langue utilisée Je pense que la citation de matt cutts est bidon et là pour se simplifier la vie. en effet, ce sont les malvoyants (rappelez vous la balise ALT des images) qui ont le plus besoin pour leurs périphériques spéciaux de ces balises linguistiques. Et Google est censé respecter un minimum la norme WAI. < meta http-equiv="Content-Language" content="fr" /> # langue native de la page : français < meta http-equiv="Content-Language" content="fr,en" /> # langues natives de la page : français et English La déclaration bilingue fr / en ci dessus est valide pour une page d'accueil bilingue. Elle n'est pas faite pour une page qui serait en français avec juste une citation en English par exemple ou pour une formation d'anglais destinée à des francophones. En HTML et XHTML, on peut définir qu'une partie de la page est dans une langue autre que celle(s) définie(s) en meta. Il faut aussi encadrer les segment de code quand la langue change CODE <html lang="fr" xml:lang="fr"> que nous déclinerons sous cette forme : <html lang="en" xml:lang="en"> <head> <title>English page</title> </head> <body> . . . text in english, default language of this page . . . <span lang="fr" xml:lang="fr > Du texte en français au milieu d'une page en langue anglaise </span> . . . text in english . . . quelques variantes : <p lang="es">...texte en espagnol...</p> <em lang="en">some english sentences</em>
  8. Well le problème peut venir d'où ? le point commun entre la grande majorité de ces pages différentes sanctionnées, "propres", c'est leur relatives petites tailles face à un menu de gauche relativement important. des pages sont passées de visibles avec PR5 à invisibles PR0 ! sans rien faire ! et sans spamdexing ????
  9. cherubin, non tu ne peux pas mettre un xml lang:en et faire la page en français à 95% 1 - tu peux mixer les 2 langues et même y ajouter du chinois mais tu dois le signaler 2 - ta balise est incomplète - tu dois signaler en XML et en HTML - les 2 technologies. 3 - tu ne peux choisir qu'une langue dans la structure descriptive - en clair si tu indiques tout en haut lang="en", TITLE et toutes les balises / meta avant body devront être en ENglish exclusivement ce sont les règles du W3C et Google les suit. Si tu ne les respectes pas, tu ne peux pas préjuger de la réaction de Google et des éventuelles pénalités qui vont avec.
  10. thick, le menu de gauche, le bandeau du haut, bref des éléments récurrents communs à toutes les pages du site sont du duplicate content Donc on peut parfaitement avoir une page avec un contenu unique et être en duplicate content Exemple : bandeau, balises ALT et TITLE des visuels du bandeau, menu généré par un classique .php pèse 200 mots significatifs Si la partie "unique" de la page contient peu de mots, un formulaire simple de contact par exemple, elle bascule en page sanctionnée. la part unique de la page n'est pas assez importante face à la part récurrente dupliquée n fois de la page. Question age du ndd, il est exact , pour le moment, que les sites jeunes de moins de 2 ans ont ces problèmes et que je n'ai rien sur les sites plus agés Social et Google oui, je pense comme thick. Depuis des années GG accumule des infos via la GG bar. mais une immense majorité de gens ne l'ont pas et ne l'auront jamais ce qui limite l'usage de ces données par GG indiscutablement Google met l'internaute au centre de ses algorithmes c clair depuis des années. Juste qu'ils commencent à passer à l'offensive maintenant
  11. Cherubin, il y a des anomalies dans ton site la pénalité Google est peut être provisoire voici : un title en langue anglaise et le reste du site en français : perso j'évite ce genre de blague avec un robot vu que tu as un xml:lang="en" en haut de page , un title en anglais et la page en français derrière. la page provisoire en latin a été indexée. De mon expérience, quand il tombe sur des anomalies, statistiques ou autre, Google fait n'importe quoi ou il met en des pénalités provisoires. Suffit de faire le ménage dans les anomalies et tout revient dans l'ordre ensuite. Sinon tu auras enlevé des psites expliquant des pénalités contre ton site. JnJ
  12. Merci Thick et cherubin aucune des pages sanctionnées n'a de contenus répétés sauf bien sur le bandeau du haut et le menu de gauche. La "camme" comme tu dis est exclusive à chaque fois les noms de domaine ont de mémoire un an et quelques pour l'un et deux et quelques pour l'autre Les optimisations de toutes ces pages sont standards. rien n'est poussé sauf 'l'URL qui est travaillé en mot clef. Et les autres pages baties sur la même architecture n'ont pas été sanctionnées - elles ont plus de contenu. Hasard ?? je n'ai pas l'impression. qu'est ce que : "une dose de social sur des URL" je ne connais pas le terme.
  13. bonjour thème de ce fil : Google a t il changé son algorithme de détection de duplicate content et donc de l'application des pénalités associées ? je présente la situation Sur plusieurs sites de mes clients ou de sites que je gère, je constate des pénalités inexpliquées : pas de spamdexing , pas de liens loués ou autre techniques sanctionnées par Google sur ces pages. Les pages sont isolées au sein de chaque site. Ces pages avaient du PR dans la Googlebar et depuis , disons début avril, de nombreuses pages sont passées de PR vert quelque chose à gris Pire, quand je cherche cette page via des mots clefs , Google ne la donne jamais en réponse. Dans certains tests, il me propose 5 pages en SERP sur le web mondia via une requete sur 15 mots clefs. Et la page du site qui est référencée sur sur ces mots clefs n'est pas proposée en SERP. Dès que je mets un peu de guillements pour forcer casse et mots consécutifs, hop elle sort dans la SERP. => symptôme typique d'un black list partiel de la page. Des comme cela j'en ai entre 0 et quelques dizaines par site. différentes campagnes de tests et mesures m'ont conduit à suspecter un changement d'algorithme chez Google et un des symptômes en est l'application très rapide de pénalités pour duplicate content Pour être transparent : - je n'expliquerai pas encore pourquoi j'en suis arrivé à cette conclusion (histoire de ne pas influencer ceux qui accepteront de me répondre ou de faire des tests de leurs côtés) - je communiquerai plus tard les raisons ayant amenées à cette conclusion - il y a d'autres changements qui basculent des pages "propres" depuis des années en googlebar grisée avec des pénalités. Je les ai détectées mais pour le moment je ne les ai pas encore toutes identifiées clairement. - un autre symptôme de l'ensemble de ces changements : la variation en PR , en général à la baisse, sur les pages d'un site. le contexte étant posé, Mes questions à la communauté des référenceurs professionnels ou amateurs avertis : 1 - avez vous constaté de tels "phénomènes" ? 2 - avez vous essayé de déterminer le pourquoi ? 3 - avez vous d'autres idées sur la cause de ces applications de pénalités ? au plaisir de partager ces informations Cordialement
  14. Bonjour Le PR a plusieurs utilités : - il chiffre très grossièrement le nombre de liens et la qualité globale de ces liens, internes ou externes. - il sert de levier. Exemple : une page d'accueil a un PR de 0 et plusieurs niveaux de pages en arborescence - elles ne seront pas explorées par Google. ou pas toute. Ce même site avec une page d'accueil à PR3 verrait toutes ses pages rapidement indexées - il est utile quand on joue finement en échanges de liens internes dans un même site. Trop compliqué à expliquer comment et pourquoi. - quand on avait un PR sur la googlebar et que d'un coup il devient grisé => la page a des sanctions par Google. Faut chercher pourquoi. les variations brutales de PR sont dues à la chasse aux liens non naturels par Google juste une chose : il n'existe aucune définition claire d'un lien loué chez Google. Il y a une définition bidon sur le blog de matt Cutts et c'est tout. Google juge à son aune ce qui est loué ou non. Donc vous pouvez n'avoir aucun lien loué de votre avis et Google de penser le contraire
  15. hello mettre les accents ! les résultats sont presque les même avec ou sans MAIS : - il y a un an et demi il n'y avait aucune différence - actuellement il y en a un peu - et demain .. ??? rappel : Google a déposé un brevet , dit trustrank, qui indique sa volonté à terme de "noter" la qualité syntaxique, grammaticale etc. des contenus. En clair, mieux c'est écrit, mieux ce sera positionné dans l'index. dernier point : ne pas oublier : é n'est é mais é bon dépannage de PC
×
×
  • Créer...