Aller au contenu

ybet

Hubmaster
  • Compteur de contenus

    180
  • Inscrit(e) le

  • Dernière visite

Messages postés par ybet

  1. Une bonne manière de le tester serait de mettre en ligne deux versions d'un même article : la version sans commentaires, et la version avec les commentaires, et voir laquelle des deux ressort dans google pour une requête sur le titre de l'article. Quelqu'un a-t-il déjà effectué ce genre de test ?

    Tu oublie le duplicate content ;) je pense.

    les commentaires (genre blog) semblent être passés de mode mais fonctionnent encore à condition qu'ils soient un peu modérés (te rappelle que comme webmaster, tu es responsable du contenu (y compris les commentaires) du site

  2. La stratégie que je proposais, plus détaillée :

    - Admettons que l'internaute soit à 3 clics du call-to-action en arrivant sur la page d'accueil du .net via les SERPs.

    - On conserve le .net tel quel (en raison de la stratégie de comm déjà mise en place).

    - On continue le référencement sur le .net.

    - On fait un site complémentaire au .net sur le .com avec une stratégie de linking fine : de façon à ce que les internautes qui arrivent sur le .com via les SERPs soient également à 3 clics du call-to-action sur le .net.

    - On référence le .com

    Au final :

    - On exploite le .com

    - On exploite le .net

    - On ne perd pas le travail de référencement fait sur le .net

    - On ne perd pas la travail de comm déjà réalisé

    - On n'a pas à refaire les supports de comm avec la nouvelle adresse

    - Le call-to-action reste toujours à la même distance pour les internautes quelque soit le site par lequel ils arrivent

    - On gagne en visibilité sur les SERPs (le potentiel est de 40% des liens de la première page de Google par exemple) et en comm

    Tout à fait d'accord. Les habitués du . com vont rester (sans utiliser l'ancienne thématique) . Je me méfie des redirections, généralement ca marche mais là les deux sites sont anciens. Pour les liens du "nouveau site .com", pas de lien directe (genre on a démanagé), juste une présentation de l'entreprise différente du .net et quelques liens sans trop forcer en utilisant les bons mots.

    Pourquoi casser des référencements (même faibles) pour regrouper? Tant que le .com ne devient pas une espèce de farmlink (ferme de liens) vers le .net, ca ne peux que favoriser le .net (à part un petit travail d'inscription dans les annuaires du ...com complémentaire). Seul défaut c'est deux sites à gérer au début (au moins pour le .com u graphisme et des textes corrects, ensuite ...) uniquement le .net à s'occuper avec le "petit" . com squi aide

  3. ça pourrait expliquer le blacklistage de 5 sites ouvert sur le même hébergement.

    uniquement si tu y va un peu fort avec les liens entre-eux. La chasse aux liens pas "naturels" engagés depuis deux ans par Google passe aussi par là. Par expérience et si c'est le cas, pas besoin de demander via le compte GWT de revenir, il te suffit juste d'enlever les liens qui sont manufestement vus par Google pour faire monter le PR (dixit GG puisqu'il n'affiche plus réellement le PR dans la barre d'outils)

  4. Je viens de remodeler mon site... On va voir ce qui se passe.

    OK il traque les sites "barbares" qui mettent des liens d'affiliation un peu partout à l'arrache, sans contenu soigné.

    Mon site a un réel contenu propre, un design sympa, mis à jour régulièrement et quelques liens d'affiliation (en noffolow) : vous pensez que ce genre de site est voué à l'échec à cause de quelques liens d'affiliation ?

    Pas du tout sûr que GG tienne complètement compte du nofollow.

    Les sites barbares, il doit plus en rester beaucoup :hypocrite: mais de toute façon, quelques liens en nofollow, autant essayer quelques semaines pour voire.

  5. C'est normal car ce sont des sites qui reprennent le flux RSS du HUB. BigDar n'a rien fait de répréhensible

    :shutup: pourtant, les flux rss font aussi partie du duplicate :blush:

    Concernant mon problème, effectivement mes sites ont le même contenu (à 95%) mais dans des langues différentes et des IP différentes...

    Le sites multi-lingues ne sont pas pour autant pénalisé ???

    Aujourd'hui, j'ai enlevé les liens en footers, enlevé 90% de mes liens d'affiliation et intégrer l'attribut nofollow sur les liens qui reste.

    J'ai aussi et surtout intégré une trentaine de pages de contenu "propres" (en plus des 13 existantes).

    Voilà, je pense que Google n'appréciait pas le fait que mon site, qui avait peut de contenu propre, comportait un nombre de lien pointant vers mon site affilié beaucoup plus élevé que celui de lien pointant vers des pages internes.

    Pouvez-vous svp me confirmer ces 2 points :

    - l'attribut nofollow est fiable pour dire à Google qu'il ne comptabilise pas mes liens d'affiliation

    - est-ce judicieux de passer par Google Webmaster Tools pour demander au robot de réexaminer mon site ? Ou mieux vaut-il laisser le robot gérer tout seul comme un grand ?

    Un grand merci pour votre préciseuse aide ! ;)

    Le contenu dans d'autres langues n'est pas pénalisé. Sites d'affiliation :thumbsdown: c'est ce que GG traque. Pour le nofollow, il n'intervient pas comme méthode de rédemption dans toutes les pénalités (Google voit un lien qu'il suit, juste qu'il ne tiens pas compte du lien et du texte du lien pour positionner la page qui le recoit). En cas de pénalités pour trop de liens par rapport au contenu, ca change rien.

    Et correspondant ma demande de réexamination de mon site via Google Webmaster Tools, quelqu'un a-t-il un conseil à me donner ?

    Pensez-vous que cela me fera gagner du temps ? Ou que ce soit pire ? (des amis, peut-être un peu "paranos" m'ont conseillé de ne pas prendre contact avec Google...)

    C'est pas une sanction délibérée de Google pour mauvaise conduite mais bien une pénalité d'algorythme donc aucun intérêt de contacter Google - mais je doute que Google casse un site pour redemander une inclusion si le site n'est pas corrigé (d'accord, sans savoir ce qu'il veut réellement et tu n'a pas reçu le petit mail te signalant un problème). Au pire, pas de réponse. Les sites corrigés repassent lentement souvent (et pas tous, hélas). Plus qu'à corriger les différents problèmes et attendre. J'ai des pages corrigées qui sont repassées après 10 jours, d'autres après 3 mois, ... d'autres pas. Et même des pages qui me semblaient sans problèmes mais complètement déclassées qui sont repassées sans rien changer.

    A mon avis, même Google ne sait pas pourquoi certaines pages sont pénalysées depuis plus d'un an, suffit de changer une virgule dans l'algorythme pour casser quelques pages et en récupérer quelques unes.

  6. Désolé si ma réponse te semble "agressive" mais ce n'est pas le cas. J'analyse vite fait ton site (ca sera à toi de corriger) .

    Page d'accueil

    contenu: Bienvenue sur MyPicard.Com! normalement, pour le nom de domaine, ce sont les liens externes qui font passer le nom du site sur les recherches (le contenu doit déjà oublier le ... Bienvenue).

    <head>

    <title>MyPicard.*Com : Ren*contres Gra*tuite [Picardie]</title>

    Tu joue sur le nom du site et l'important, c'est la recherche Ren*contres Gra*tuite [Picardie], autant le mettre devant, puis le nom du site

    <meta name='Description' content="Description Meta Tag par défaut du réseau social"> ... la description n'est plus utiliée par GG (les autres moteurs oui) mais elle est un peu courte (c'est ce qui est affichée dans les rsultats de recherche, autant qu'elle soit aguichante et un peu plus longue).

    On continue ... ;)http://209.85.229.132/search?sourceid=navc....com%2Fhome.php page d'entrée inconnue de GG: te manque des liens externes (quelques annuaires suffisent à condition de prendre les principaux - évite les trucs automatiques - un bon annuaire est juste dans les liens au-dessus :smartass: )

    En plus, j'ai visité les pages internes, contenu vide ... même balise title et toujours pas de descrition.

    Comme a dit Le-juge, commence déjà par la page d'accueil, en faire une page d'entrée pour les visiteurs (y compris le robot de Google), ensuite complète tes pages internes

  7. On va encore dire que j'ai une mauvaise gueule mais http://www.google.be/search?q=%22Voil%C3%A...96&filter=0

    Trois forums de référencement avec strictement le même post. Petite question.... est ce que tu as créé plusieurs sites avec un contenu similaire (histoire de lier les sites entre eux :blush: ). Si c'est le cas, tu as déjà la raiso du déclassement.

    Liés un site entre eux peut passer sans trop de problème (tant que GG ne détecte pas une habitude de référencement), mais des contenus similaires, .... les "sanctions sont aléatoires" mais réelles.

  8. Désolé de m'immiscier dans un post sur l'hébergement :wub:

    Prenons, le site et sa copie (désolé si je le vois comme celà mais Google va le voire aussi comme celà, deux adresses différentes avec le même contenu). Passer d'un hébergement FAI vers un sous domaine ne pose pas de problème tant que tu crée les redirections. Dans le cas contraire, duplicate content -> nouveau site cassé et ancien site (plus ou moins) sanctionné.

    Bref au choix:

    1. tu crée un nouveau site et modifie tout (c'est TOUT le site, pas des titres de pages et descriptions identiques ou quelques tournures de phrases par hasard)

    2. le plus facile puisque FREE le permet: redirection

  9. ou de vouloir se placer aussi bien que des gros sites trop vite

    on va dire cette solution ;)

    et le référencement, c'est surtout de la patience. Du moins, c'est ce que j'ai appris en débutant il y a 6 ans. Mais à l'époque, on montait pas un site avec un CMS en deux jours sans contenu, avec un max de liens venant directement d'annuaires (ca c'est pour la sandbox), ni en copiant plus ou moins des textes existant (ca c'est pour les pénalités de duplicate), ni en mettant un maximum de liens internes sur chaque page en navigation (ca c'est pour les sanctions de partie liens par rapport au contenu). :blush:

  10. Je suis dans la meme situation que toi mais moi a l'inverse mon site a 1 an

    J'ai constater un matin que je suis passer de la PR 2 à PR3 mais derriere j'ai perdu enormement de positions sur Google (de la 1ere sur certains mot cle a la 5 eme pages)

    comme quoi, le PR affiché n'est pas vraiment une source de positionnement :hypocrite:

    Comme Sora, le ALT des images me fait aussi peur, difficile de savoir effectivement ce que GG voit (rien que du texte, on le sait) mais souvent on a tendance à en rajouter dans le ALT (c'est probablement le problème). Par principe (désolé pour les aveugles qui peuvent pas voire les images mais peu les textes associés ... sauf avec des logiciels spécifiques et couteux), je met rien en ALT. A chaque fois ca modifie le référencement et pas franchement en bien.

    Tandis qu'un site tout neuf, qui n'a pas encore de visites, et qui cherche à se faire trop rapidement une place au soleil, n'a vraisemblablement pas sa place en première page sur des requêtes concurrentielles, d'où la pénalisation en cas de suroptimisation.

    Ca me semble aussi normal, non?

  11. Bonjour et bonne année 2009,

    Google semble recommander d'utiliser le titre du site dans la balise h1 de toutes les pages du site... Je n'ai pas retrouvé la page où j'ai lu ça le mois dernier.

    Jusqu'à présent j'utilisais le h1 pour la titraille de ma page, et h2 pour les sous titres, h3 pour les sous sous titres, etc...

    Pour moi le H1 de la page d'accueil est le titre du site lui même...

    Qu'en pensez vous et que pratiquez vous ?

    Apparament, GG commence à remettre de l'importance aux H1 par rapport au <title> mais c'est mitigé ... Je crois que l'idée est de mettre les deux différents en ... mettant les mots importants dans les deux (et si possible plutôt au début)

  12. Pas confondre le trafic et le référérencement. Le référencement est une méthode pour avoir du trafic, basée sur les moteurs de recherches. Inscrire un site sur Fastbook ou wikipedia ne sont pas du référencement, la liste de Feelyou oui.

    Faire une news par courrier qui rapporte quelques centaines de visiteurs par jour n'est pas du référencement non plus.

    Le trafic, c'est

    1. visiteurs directs, des habitués qui connaissent le site. La majorité du contenu des sites sociaux est inconnu des moteurs

    2. moteur de recherche = référencement

    3. liens directs, ca se discute je sais, reste à voire si le lien est plus prolifique au niveau des moteurs ou des visiteurs. Un lien en follow peut être les deux, un no follow uniquement visiteur, pas moteur.

    4. email, pas non plus du référencement, pourtant la majorité des visiteurs des gros sites de news viennent de là. Et pas besoin que le site soit connu de Google.

    et la question de départ est:

    est-ce que le fait d'avoir une page myspace ou autre peut aider pour le référencement ?

    Non.

  13. Je n'ai pas compris en quoi il pouvait être question de technique borderline ?

    Tout ce qui est des espèces d'idées webmasters lachées sur Internet, des rumeurs, ... genre mettre les liens dans un titre h1, ou même une balise farfelus pour les liens (j'e la vois souvent sur des forums mais ma rappelle plus la balise), toutes les méthodes de liens bricolés ou jouant sur des gros sites, ... J'en passe à force de lire et de participer des forums.

    Depuis presqu'un an, GG a modifié l'algorythme pour faire plus "vert" (d'accord ou pas n'est pas le problème, c'est GG qui décide).

    Comme exemple,

    .les liens en footer ont de moins en moins de consistance par rapport à quelques liens biens choisis

    . les liens hors thématique ne sont pas (encore) sanctionnés mais plus trop bien vus

    . un gros site (on va parler de PR quoique ce qui est affiché est modifié en partie tous les 15 jours, mise à jour des webmasters tools) qui envoit un lien vers un petit nouveau dans ses premiers jours

    Ca changera probablement pas grand chose aux positionnements, c'est juste une adaptation des méthodes pour les référenceurs. Utiliser des techniques plus directes (plus prêts d'échanges qui ont l'air naturel :whistling: ) que les grosses du méthodes du début des années 2000, voire les échanges de liens qui ont nettement modifié le WEB vers 2005 - 2006 .

    PS on pourrait remplace bordeline par borde*lique mais c'est pas un mot à mettre sur les sites, le line renvoit aussi vers les googles Lines.

  14. merci pour cet article, bien instructif pour moi :thumbsup:

    Désolé de ne pas avoir mis mes tests ici (peut pas les mettre partout :blush: ). On a été plusieurs à faire des tests ... et pour une fois dans le référencement les partager et même les suivre chacun de notre coté. En plus, ceux qui ont participé sont des gros comme des plus petits (on va dire 10.000 VU/jours quand même)

    Sur tous les tests et suivis depuis presque un an, les sanctions infligés aux sites sont:

    1. Duplicate, le plus important mais pas le plus ancien

    2. liens: je sais les ventes mais c'est pas le plus important - généralement pas de perte de visiteurs - mais siurtout trop de liens sur la page (voire également le point 3).

    3. faible contenu. GG découpe les pages entre navigation et contenu. En cas de trop faible contenu, la partie navigation généralement constituée de liens passe en premier et duplicate pour toutes les petites pages à faible contenu

    4. liens copain. Un petit texte sur une page PR4 avec un lien dans la partie contenu (acheter ou non) et la page est déclassée. Le lien, en follow ou non change rien (avis aux spécialistes du no-follow). GG ne suit pas les liens en no-follow au niveau PR et textes du lien (le robot oui), il ne l'intègre juste pas dans son calcul pour la pertinence de la page. Par contre trop de lien (avec souvent un faible contenu en plus), GG n'intègre pas les follow or not (et oui). J'en ai un vers ce site qui est passé de PR4 à grisé ... depuis presque un an.

    5. fautes d'orthographe SEO (je sais on a tous essayé :P tant que ca répportait aussi des visiteurs) + Fautes sommaires de conjugaison réopétitives. Là GG lache du lests depuis presque deux mois, mais la technique est plus difficile. Là c'est plutôt contre les trucs automatiques (lisez black)

    J'aurais du mal de refaire un article complet ici sur les pages grisées mais ce sont une large partie des sanctions infligées aux sites. En plus des pages en duplicate gardent un PR si elles recoivent des liens externes ne VENANT pas du même webmaster ou même groupes de Webmasters - on a tous quelques copains pour faire un petit lien interne vers une page interne en plein texte :wub: (on a aussi testé) . Par contre, pas corrigée la page reste dans les bas fonds.

    C'est une ligne générale. Un pourcent assez élevé qui répondent à un de ces critère n'est pas pénalisé. Pas le prendre comme un dogme mais comme une base de travail. On peut faire un paquet de tests mais jamais, on ne connettra réellement l'algorythme de GG

  15. J'ai fait un gros travail sur les pénalités de Google sur les pages depuis environ 10 mois

    -http://www.ybet.be/news-fiche.php?numero=5

    Parmi ceux ci, il y a le duplicate content. Certains pouraient croire que c'est un gros paquet de phrases, mais non

    http://www.google.be/search?hl=fr&rlz=...art=20&sa=N

    Pages grisées sur les pages internes de ton site, donc plus prises en compte avec des pages ignorées

    C'est toi qui est en train de couler ton propre site. Regarde ces deux pages (j'en ai trouvé d'autres)

    http://www.peluchdreams.com/peluche-vache-...clover-30cm.htm ta page et

    http://cgi.ebay.fr/Peluche-petropolis-vach...L080717131a8583

    Complètement duplicate.

    Google prend le site le plus pertinent (parfois celle qu'il détecte en premier, mais dans ton cas, ta page est déjà en duplicate pour la partie au-dessus même si c'est une petite phrase donc oublie souvent de passer sur la page ....

    Te conseille de changer tes articles sur e-bay et sur les autres sites de vente en ligne, notamment Amazon, pricemister, toutypasse.com, leguide.net, vivastreet, webmarchand, mascoo.com, blogdimension, toutypasse, remy-semidei, corsilove.com, afr.lwstore.biz, .... + toutes les autres pages que Google a mis en ignorer .... et probablement un paquet des tiennes.

    PS: me suis fait déclasser des pages pour simplement des morceaux de phrases comme "et surtout moins gourmands". Ca te donne déjà une idée lorsque tu remet la même phrase sur chacune de tes pages internes + sur un paquet de sites nettement plus gros.

  16. Bonsoir tout le monde.

    Je me pose une petite question concernant le référencement organique sur google.Pour monter dans le classement google, faut-il attendre la prochaine Google Dance ou alors est-ce qu'on monte dans le classement au fur et à mesure des backlinks et optimisations du site?

    Le positionnemet varie tous les jours, au gré des passages des robots.

    ... y cpompis les montées dans les résultats et .. les descendes en fonction des modifications des pages.

  17. Mais qu'en est-il du suivi de ces agences de ref. Comme je le disais, j'attends avec bcp d'impatience de voir la façon dont mon client va être gérer par l'agence de com-marketing-ref car je vois mal comment ils vont pouvoir calculer leur ROI !

    C'est un site qui ne vend rien via son site et je serai étonné qu'ils comparent le CA en éliminant tous les autres facteurs.

    Ca ne me gêne pas du tout que certains se gavent, mais qd j'entends un client venir pleurer parce qu'il est très déçu d'un annuaire qui lui a demandé 1500 euros/an pour l'inscription, ça m'énerve !

    Honnêtement, quand un client téléphone à un magasin et lui dit "je vous ais trouvé sur Internet", sois certain que le possesseur du site est déjà content.

    Dans la publicité, il y a deux types, celles de ventes et celles de notoriété (même si la deuxième est difficile à analyser en termes de retombées effectives). Prend coca cola, ... toutes les grosses pubs farfelues à la TV, sponsoring de grosses manifestations, .. ne fait probablement pas exploser le chiffre d'affaire à chaque fois. Pourtant, trouve toi dans une petites buvette locale, par habitude sans doute, le client demande 2 X plus de coca que de limonades. C'est ca le but des pubs de notoriétés comme le positionnement de sites ... qui vendent rien (ou du moins pas directement via le site).

    un annuaire à 1500 /an, en belgique ca s'appelle les pages jaunes ... Et c'est souvent une obligation nécessaire.

  18. ... Ces recommandations, quand elles sont suivies apportent un surcroît de visibilité, qui est fonction... de quantité de facteurs.

    Concernant les "success stories", une chose à savoir est que le référenceur n'est pas magicien. Ses recommandations visent à faire s'exprimer tout le potentiel de référencement d'un site, et à augmenter ce potentiel s'il en a la possibilité. Mais les résultats sont fortements dépendants des matériaux de base, et de la mise en oeuvre effective des recommandations (les anglais ont une formule plus courte pour dire ça : "garbage in, garbage out" ;) ).

    Ca me semble évidant, le travail d'un référenceur N'EST PAS de placer premier un site sur tel ou tel mot clé mais bien d'augmenter le nombre de visiteurs avec .. des visiteurs cohérants (ce qui finalement rend rentable le site). Garantir la première position (pour du bon) est quasiment impossible sur des mots plus ou moins standards. Me rappelle d'un client qui voulait absolument gîte + village .... jamais essayé de faire passer la requête, l'ai juste positionner sur gite + villes et régions au tour. Finalemet le gîte est quasiment loué toutes les semaines ... Le client n'a pas sa requête mais est content. Pour un autre, lui avait promis le nom du village par bravade, ca semblait pas très difficile mais il m'a fallu ... deux ans pour y arriver avec un intérêt au niveau retombées commerciales tout à fait nulle.

  19. <title>Dépannage informatique à domicile | réparation - maintenance - assistance informatique | Grenoble - Grésivaudan - Chambéry - Isère </title>

    <meta name="keywords" content="dépannage, informatique, dépannage informatique Grenoble, dépannage informatique isère, réparation ordinateur grenoble, réparation ordinateur Isère, installation ordinateur grenoble, réparateur informatique Grenoble, ordinateur, panne, windows, xp, vista, processeur, bug, formation, grenoble, grésivaudan, isère, alpes, prix, réparation rapide ,domicile, devis, conseil, carte mère, ram, formatage, installation"/>

    <meta name="description" content="Dépannage informatique sur Grenoble.Réparation ordinateur sur grenoble et en Isère. Tout le matériel informatique à petits prix. Dépannage, assistance, réparation et maintenance informatique en Grésivaudan. Intervention sous 24h, déplacements gratuits et assistance de qualité au 06.17.61.44.49. réparation - maintenance - assistance informatique"/>

    Le titre de ta page d'entrée est déjà fort long, essaye déjà Dépannage informatique à domicile ...

    Ta description aussi ... essaye d'être plus direct, c'est pas une liste de ce que tu fais, c'est ce qui est affiché dans les recherches (GG n' l'utilise de toute façon plus depuis des mois)

    keyword est inutile.

    Pour tes pages internes, les titres doivent commencer par le principal, pas par exemple sur la page de promotion par .... Dépannage informatique à domicile

  20. Mêmes constatations mais avec des nuances ... Je vérifie souvent des requêtes locales, genre gîte + ville. Depuis quelques mois, GG positionne 1 ou 2 annuaires locaux devant les sites de gîte de la ville, une manière peut-être de se défranchir de la liste qu'il met en-dessous reprenant uniquement ceux qu'il connait (entreprise) et pas les sites peut-être.

×
×
  • Créer...