Aller au contenu

David Wynot

Membre
  • Compteur de contenus

    6
  • Inscrit(e) le

  • Dernière visite

Messages postés par David Wynot

  1. Bonjour

    Les SEO font semblant de ne pas être au courant car beaucoup pratiquent la chose (ceux qui ont le temps, moi pas).

    Ce n'est ni méchant, ni gentil, c'est intéressé.

    Et puisque ce n'est pas interdit....

    Ces sites ont besoin de nos noms de domaines.

    Ils récupèrent une base de centaines de milliers de ND et ils font tourner leurs scripts de génération de pages avec des infos automatiques (Alexa, Trends, nb de pages indexées....)......Bien sur chaque page est optimisées et de fçon automatique pas à la petite semaine comme les SEO d'il y a 10 ans (j'en étais déja). Et ces pages se placent bien sur la marque ou le mot-clé du ND.

    Peu importe alors, quel public fait 1 visite et sur quel motif, l'important c'est que les visiteurs repartent par les adsenses ou la pub et tout est fait pour ça. Ca tourne tout seul sur des milliers de pages à 1 visite par semaine et parfois + (cf Hotfrog).

    Longue Traine, did you know?? Depuis le temps qu'on explique ....

    David

  2. Bonjour,

    Difficile de se faire une idée sur un tel cas sans voir le site concerné. L'impact des pages multilingues que tu as ajoutées dépend du "dosage" et de la façon dont l'ajout de ces pages a modifié la structure (de liens) du site.

    On peut imaginer plusieurs raisons susceptibles d'expliquer des pertes de positions suite à l'ajout des pages multilingues. Par exemple:

    - Dilution du "link juice" passé aux pages en français du fait de l'ajout de liens vers les pages multilingues => perte de position des pages en français

    - Suite à l'ajout (brutal et massif?) de pages multilingues, Google a "un doute" (sans doute temporaire) sur le caractère français du site => il le classe moins bien sur google.fr

    - Duplicate content (partiel) entre tes pages fr et non-fr

    Hello

    Je pratique sur 1 petit site, le multilinguisme sur des sous-domaines.

    Ainsi je déclare chaque sous-domaine dans le Web Master tools comme un domaine à part.

    Ce site n'a pas l'ambition d'évoluer vers 1 nom de domaine par langue.

    Les contenus traduits ne sont pas considérés comme dupliqués.

    Il y a un menu simple et répété qui relie les sous-domaines entre eux.

    Enfin, TOUT est traduit y compris l'arborescence, les noms des images.....Seuls les sous-domaines où tout est traduit ont PROGRESSé.

    Et ce site assz jeune (2005) a dépassé fin 2006 un vieux site (à moi) moins pourvu en langues et sur le meme thème

    J'espère que cela vous aide et que ça va faire réagir le zig-expert qui a déclaré que les sous-domaines étaient une technique condamnée.

    C'était la meilleure réponse dans ce cas là, je persiste.

    David

  3. Des sites comme dicodunet sont assez faciles à devancer avec des pages riches en contenu, ou des sites spécialisés.

    J'ai dans l'idée qu'un site ecommerce bien fait, avec des fiches détaillées et un bon linking interne doit aussi dépasser les "toujours-devant".

    mon Avis

    "We try harder"

    David

    et puis nos amis "toujours devant" n'arriverons jamais à épuiser la Longue Traine des mots.

    1 mot, bonjour la gloire

    100 000 mots (du meme champ sémantique), bonjour le trafic

    donc les pages riches en contenu sont bien d'actualité.

  4. Pour le SEO, il y a des sites qui ne font que ça.

    donc ils sont "libres" de tout faire pour se placer.

    EXEMPLE : certains annuaires te passent devant (sur le kw que tu leur donnes en +) dés que tu y inscris ton site.

    Et tu as raison certains sont ainsi positionnés sur TOUT.

    Effectivement quand on affute un template à fond et tout le linking qui va avec,

    on arrive à une bonne formule de mise en valeur d'1 mot/expression (et souvent d'1 seul).

    Les blogs ont la fraicheur pour eux. Google adore se rafraichir les neurones.

    Les sites marchands, les sites de sociétés ne peuvent pas faire TOUT (ou n'importe quoi) pour se positionner

    donc ils n'ont pas toutes les armes même si leurs référenceurs (dont je suis) connaissent et ont compris les "toujours-devant"

    Certains SEO d'entreprise ont compris aussi qu'il y avait un risque à court-terme à imiter les "toujours-devant".

    Bien sur dans l'IMMO, l'assurance, le crédit, ou les produits hitech, la guerre fait rage et les dénonciations vont bon train

    quoique certains sites y survivent assez bien malgré des quasi pages satellites visibles (un site d'immo en particulier me fait bien c...).

    Dans ces domaines, les annuaires pirates de positions font moins les fiers..

    quoique...dicoduflou s'en tire encore pas mal. Bravo dicoduflou, ça c'est du net :hypocrite:.

    David (encore 1)

  5. Bonjour

    Oui, GG tient compte du pays d'hébergement depuis qqs temps déja.

    Cela s'est accentué l'été dernier où j'ai remarqué qu'un meme site était préféré en .fr par rapport au .com sur Google en France.

    C'est confirmé par la réponse de Google à un de mes contacts FR qui s'étonnait de ne pas etre dans Page France : réponse GG parce que votre serveur est aux USA.

    De plus, dans vos tests, il faut aussi tenir compte de la langue préférée pour l'interface GG. Car un GG interface en français ne donne pas les memes résultats qu'un GG en anglais.

    Last (mais peut etre provisoirement), une interrogation de Google.com à travers un proxy US (ou Anonymizer) peut encore donner un résultat différent.

    Un outil US me permet de suivre le nb de pages dans GG sur une certaine requête et il me donne 7 fois moins de pages que Google.com interrogé en France (interface anglaise).

    De là à penser que Google.com aux USA donne des résultats US en particulier alors que Google.com donne des résultats Monde partout ailleurs, cela reste une hypothèse.

    Ai je bien fait le tour de la question?? Surement que non :)) - A vous...

    A+

    DW

  6. En regardant les stats de mes sites je m'aperçois que le trafic a fortement chuté ce WE... espérons que la semaine sera meilleure?

    <{POST_SNAPBACK}>

    Hello Marie

    Je m'étonne que dans Webmasterhub personne n'ai évoqué l'horrible BOURBON (mal cherché ??)

    sur lequel toutes les raisons ont été données

    de la Sandbox à la mauvaise 404 en passant par le duplicate content.

    Trop de raisons tuent la raison.

    Donc personne ne sait vraiment pourquoi certains sites vont en enfer.

    testez vos requetes favorites ainsi

    REQUETE /**************************************

    mettez 40 étoiles pour faire bonne mesure et vous verrez certains sites réapparaitrent.

    Il y a donc filtre volontaire.

    Si Google disait ses raisons, il serait meilleur pédagogue mais moins bon vendeur d'Adwords.

    Evidement avec un peu de chaos, la logique des référenceurs est mise en défaut et le "tous aux Adwords" de GG Père la Vertu est mieux compris.

    Certains sites sont revenus à la surface sans rien faire (donc sans corriger),

    d'autres restent au fond alors qu'ils se mettent "en regle"

    et d'autres meme licencient car GG c'est 80% du trafic quand on est bon.

    Les rescapés se réjouissent en traitant les "noyés" de spammeurs.

    GG me tape sur les nerfs.

    Il s'est attaqué à l'ensemble de mes sites sur .free.fr. C'est extremement clair quand je passe en revue les trafics issus de Google.fr avec XITI.

    Est-ce moi ou Free qui était visé ?? Pas de grosse "faute" reconnue sur mes sites.

    Ou alors nous n'avons pas les memes valeurs éthiques.

    Je ne place pas l'éthique dans une mauvaise 302, moi.

    Google va t il finir comme Robespierre ou comme Bill Gates (monopole durable) ??

    DW

×
×
  • Créer...