Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Attention, la solution préconisée habituellement (ajouter un disallow dans robots.txt) ne marche pas totalement. Il faut aussi ajouter une instruction x-robots-tag=noindex dans le header http renvoyé par l'image. Donc la solution propre c'est : - disallow /pathmenantàlimage Disallow: /images/chiens.jpg - x-robots-tag: noindex dans l'entête http C'est ce qui s'appelle mettre à la fois des bretelles et une ceinture. Si tu ne veux pas attendre la désindexation naturelle de ces images, tu peux essayer ensuite la procédure de désindexation manuelle des urls via GWT. Si le robots.txt est en place, la desindexation sera absolue et rapide.
  2. P... 8 ans Wow Le temps passe vite, cela me semble hier... Bon anniversaire au Hub, et un grand merci à toute l'équipe des fondateurs et aux équipes actuelles pour avoir lancé et fait vivre jusqu'ici mon forum préféré
  3. 6 à 9% des requêtes, c'est moins qu'aux USA, mais ça fait quand même un sacré paquet de requêtes. On peut s'attendre à un impact sérieux.
  4. Oui, il suffit de tomber sur un habitué de firebug, et il peut effectivement changer le prix avant de valider l'achat par un bouton Paypal par exemple. Il y'a vraiment plus sécurisé comme solution.
  5. Ca dépend ce que tu entends par là. J'ai été jeter un oeil sur le site, et il y'a bien un fichier de langues qui te permet de traduire tous les messages en français. Maintenant, est-ce que tu peux traduire tout l'admin aussi je n'en sais rien. Est-ce que tout est dans le fichier de langues ? Pas sûr, je me méfie toujours de ça. Donc si tu ne connais pas l'anglais et que tu ne sais pas coder en php, la "localisation" de ce script pour tes besoins peut s'avérer hasardeuse. Mais si tu codes et que tu te débrouilles en anglais, ça semble ok, moyennant un peu d'huile de coude.
  6. Quelques précisions à propos du Trustrank pour éviter de jeter le trouble chez les lecteurs de ce sujet. "Trustrank" désigne chez Yahoo! un algorithme qui permet de créer une note de confiance, utilisable pour classer les pages de résultats : plus une page reçoit des liens provenant de sites classés comme "de confiance", plus la page est considérée comme "trustworthy". Chez Google, cela désigne officiellement autre chose (c'est mentionné dans un brevet concernant Google News). Cela ne veut pas dire que le principe de l'algorithme inventé par Yahoo! n'est pas utilisé chez Google. En fait, l'idée d'utiliser ce genre de signaux est très ancienne (on peut même remonter à Hilltop), et il est probable que Google essaie de mesurer l'autorité des sites et le niveau de confiance que l'on peut avoir en eux en utilisant l'information contenue dans le graphe des liens.
  7. Oui c'est moi l'auteur donc si je peux aider c'est avec plaisir :-) Je conseille d'installer sh404SEF, comme te l'as dit Alphadesign. C'est payant mais pas très cher et ça aide vraiment. Le gain en souplesse est fantastique.
  8. Oui mais je suis de l'avis de Campagne, l'ancienne présentation était plus claire. Grrrr
  9. Google continue de crawler ces pages, et si l'attribut "noindex" disparait, il considérera qu'il peut réinclure la page dans l'index. Attention au nofollow dans ce type de pages : es tu sûr que tu ne veux pas que les liens figurant sur cette page soient découverts ? J'en parle parce que c'est une erreur fréquente de supprimer des liens internes juste parce qu'on ne veut pas que des pages soient indexées. Aujourd'hui, il vaut mieux laisser Googlebot faire son job tranquillement, cela garantit de meilleurs résultats, sauf exception.
  10. Euh... Je vais rajouter à la confusion je crois. Je gère à l'heure actuelle un groupe de sites présents dans 32 pays et six langues, et un autre présent dans 19 pays et 5 langues. Donc j'en ai vu des vertes et des pas mûres en matière de gestion des langues et de la géolocalisation. Si tu as un seul site, tu ne pourras le géolocaliser correctement que dans un seul pays. Si tu veux être bien référencé au brésil ET au Portugal, il faut soit : - prendre deux domaines différents - créer deux sous domaines différents - créer deux sous répertoires différents (oui on peut géolocaliser des sous répertoires différents, merci Google Webmaster Tools) Si les deux sites, ou les deux parties de sites, sont bien géolocalisées dans deux endroits différents, cela t'évite les problèmes de "duplicate content". Il y'aura un peu de "cannibalisation" entre les pages sur l'index "mondial", mais comme ce sont les mêmes pages, tu t'en fiches. Par contre, si tu veux vendre des choses à des Brésiliens, ou même de la pub, et développer ton site au Brésil, je te conseille vivement de choisir un domaine différent, et de "localiser" ton contenu à fond. Oui, ils parlent tous Portugais, mais je t'assure qu'un Brésilien va vite reconnaître si un site est fait par des Brésiliens ou des Portugais. Ca me rappelle ce site canadien "de proximité" qui me proposait d'entrer mon "branchement" (en fait mon login)... Faire faire un site pour des français par des canadiens (anglophones en plus là, les canadiens disent identifiant), voila ce que cela donne.
  11. Cariboo

    SOAP en PHP5 chez OVH

    Tiens cela m'intéresse beaucoup car je vais avoir exactement le même besoin dès la semaine prochaine... SOAPI c'est pas plutôt l'API SOAP fournie par OVH pour gérer ses services à distance ? Je ne suis pas sûr que cela résout le problème de doudy. Si j'ai bien compris, c'est son propre serveur SOAP qu'il veut utiliser.
  12. Tf*Idf Euh, sûr... mais à implémenter c'est pas vraiment "straightforward" comme on dit dans mon bureau. Si tu veux un truc vraiment sophistiqué, vraiment malin, et pas trop compliqué à implémenter, je te conseille d'essayer Open Calais. Tu passes le contenu à Open Calais, il te répond en te donnant la liste des trucs qu'il a reconnu dans le contenu (marques, noms de personnes...) et même quelques infos sur le sujet. C'est assez génial pour tagger automatiquement ton contenu. Après tu peux proposer les autres posts/threads associés au même "tags". />http://www.opencalais.com/ Ca marche d'autant mieux que tu as un forum pas trop généraliste, et que tu peux te limiter soit à des marques, des noms de personnes, des lieux... Sinon tu vas avoir du bruit essentiellement.
  13. Ernestine>Je suis parfaitement d'accord avec toi sur le diagnostic (oui, cela pose problème) et je confirme ton intuition (oui il y'a des solutions). La solution consistant à faire des liens vers des sujets similaires peut être efficace, mais ça dépend beaucoup de la solution utilisée pour déterminer ces liens similaires. J'ai eu l'occasion d'expérimenter deux stratégies : 1. Repérer les sujets qui ont généré un fort trafic seo (en utilisant les logs, en utilisant les stats du forum, ou web analytics). Créer des pages présentant des liens vers les threads les plus populaires, liées depuis la home si possible.... 2. Créer un système de "tags" permettant de catégoriser les sujets intéressants. On peut créer des pages ensuite présentant les sujets par thème et sous thèmes. Après avoir créé suffisamment de tags, on peut pointer vers des milliers de sujets qui se retrouvent à 3/4 clics de la home (au lieu de 10 avec la pagination). Les tags permettent de créer un maillage intelligent. Franchement, ça marche impec. Le choix entre 1°) et 2°) ou d'une combinaison des deux dépend de la taille du contenu du forum et de la qualité des posts.
  14. Ce qui est clair, c'est que le problème est passé en quelques semaines de l'impossibilité technique (on pouvait demander à Google de "bloquer" une marque pour qu'elle ne puisse pas être achetée par un tiers non autorisé par le titulaire de la marque) au problème purement juridique (puisque que Google accepte l'achat des mots clés correspondant à des marques un peu partout maintenant). Donc dorénavant, les cas de parasitisme ou de contrefaçon doivent se régler devant les tribunaux, et il vaut mieux avoir de bons avocats parce que c'est "tricky" comme on dit ici, on ne gagne pas à tous les coups. Cet excellent article permettra déjà de savoir si on peut avoir quelques chances de gagner, et surtout, de savoir comment "qualifier" le problème.
  15. On peut "pinger" Google ou Yahoo quand on vient de mettre à jour son sitemap http://www.google.com/webmasters/sitemaps/ping?sitemap= et ça marche plutôt bien (en tout cas ça aide quand on a des sitemaps statiques)
  16. Euh... franchement Laurent je n'ai pas compris à quoi tu faisais allusion, si tu pouvais préciser ? (je suis frustré là, ça à l'air intéressant ta trouvaille)
  17. Franchement, je pense que ce changement (très visible) change moins de choses que Mayday ou Caffeine (que pas grand monde avait remarqué, surtout en France). Bon, on risque de voir un peu plus de gens s'arrêter à des requêtes courtes dans un premier temps. Quand ils auront compris que ça renvoie des résultats pourris, ils recommenceront à taper des requêtes longues, et peut-être même plus longues qu'avant. Vous comprendrez que je ne suis pas d'accord avec les Cassandre qui prédisent la fin du référencement ou des stratégies basées sur la longue traine. Au contraire, à chaque fois que Google invente un truc qui remet en cause les méthodes existantes, je jubile : ça rend le recours aux experts indispensable, et en plus aux experts qui sont capables d'imaginer les requêtes du futur. Et même quand Google rend les choses plus difficiles aux référenceurs : je jubile aussi, parce que cela signifie que le niveau d'expertise exigé augmente avec la complexité du problème. Après je comprend que les référenceurs du dimanche décident de jeter l'éponge et d'acheter des adwords, mais ce n'est surtout pas la mort des pros du SEO. Au contraire.
  18. C'est "live" partout maintenant, à condition d'être connecté. Cette nouvelle fonctionnalité s'appelle "Google instant", et a été annoncé en grande pompes par Google au MOMA de San Francisco (à 18h30 heure française, c'est tout frais).
  19. Non tu n'es pas le seul. Google teste la bascule sur des résultats en "tout ajax" et cela rend la récupération des referrers problématiques. Ils avaient fait un test il y'a quelques mois, et ce problème les avait arrêté net ! J'ai vu un "burst" de referrers Google le 31 août également suite à un test de ce genre. C'est un effet de bord des changements majeurs que Google va annoncer tout à l'heure à sa conférence au MOMA.
  20. Bah oui cela m'intéresserait de savoir pourquoi tu ne conseilles plus OpenX. Quand à DFP (je suppose que tu parles de la solution small business et pas la Premium), j'avoue que moi aussi je cherche à avoir un feedback. J'ai testé l'outil, il me plait bien, notamment la possibilité de déboguer page par page pourquoi un annonceur ne voit pas sa pub. Maintenant, est-ce que sur un gros site ça tient la route ? Ce qui est clair c'est que tu est limité à 90 millions d'impressions, donc c'est pas assez pour mon site par exemple. Après 90 millions c'est beaucoup plus que ce que la plupart des gens auront à gérer. En tout cas question fonctionnalités, pour moi c'est top et facile à implémenter et utiliser. DFP Premium offre toutes les fonctionnalités les plus tordues que peut réclamer un annonceur ou un éditeurs, mais le résultat c'est que l'interface fait plus tableau de bord de Boeing, et sans formation ouïe.
  21. Euh, faites attention à ne pas confondre site multilingue et site multiregional. Un nom de domaine par pays oui. Un nom de domaine par langue, ça dépend. C'est souvent une mauvaise idée quand il faut gérer le canada, la suisse, ou la belgique par exemple !! L'extension pays peut être rattachée à une géolocalisation précise... Mais je peux avoir une version en français sur domaine.fr, une version en français (mais différente) en domaine.be, et une version en flamand sur le même domaine.be En fait les précos de Google dans le cas de sites multilingues se trouvent ici : />http://googlewebmastercentral.blogspot.com/2010/03/working-with-multilingual-websites.html et les urls préconisées sont de ce type : />http://example.ca/fr/mountain-bikes.html />http://fr.example.ca/mountain-bikes.html Il n'y est pas fait allusion aux ccTLD du tout, ils le conseillent pour les sites "multirégionaux", pour gérer correctement la géolocalisation, mais pas les langues.
  22. 7 ans déjà ? Ouah... le temps passe trop vite en votre compagnie ! Longue vie au Hub, et merci encore à Dan et à l'équipe des débuts d'avoir su lancer cette communauté qui m'est si chère.
  23. Bon, le non évènement du jour : Google a mis à jour les PR de la Toolbar. La dernière mise à jour datait de Pâques... Ceux que les mouvements de la petite barre verte divertissent peuvent aller voir si les valeurs des PR pour leur site ont bougé.
  24. Funny Rel='follow' dans un lien a le même effet que rel='nimportekoi'. Même chose pour rel='no follow' qui n'est pas rare dans le code. Donc non, ça ne marche pas. En tout cas, jamais vu une confirmation officielle de ce fonctionnement. Ou même une démonstration probante. Certains pensent que comme la syntaxe existe pour la balise meta, elle est valide pour l'attribut dans un lien. Bah non ... ;-)
  25. Merci Cela fait toujours plaisir de voir que son travail est apprécié. Mais j'ai toujours aimé partager mes passions, et je trouve très enrichissant de diffuser le savoir et de former des gens. D'ailleurs, comme tout ce que j'ai écrit n'est pas diffusé librement sur le web (loin de là), j'ai décidé de créer un site sur le référencement (pas un blog : écrire des billets à la première personne, c'est pas mon truc. En plus je compte bien faire participer d'autres personnes au projet). Ce site sera ouvert en juillet, et son contenu sera bilingue. Par ailleurs j'ai un autre projet collaboratif sur le SEO mais chut... on en reparlera en septembre.
×
×
  • Créer...