Aller au contenu

Matt Cutts à propos de Big daddy


Jan

Sujets conseillés

Matt Cutts nous gratifie d'un billet sur son blog dans lequel il répond à beaucoup de questions relatives à ce qui se passe sur Google depuis quelques semaines: Big daddy, Mozilla Googlebot, pages complémentaires, etc...

http://www.mattcutts.com/blog/q-a-thread-march-27-2006/

Lien vers le commentaire
Partager sur d’autres sites

Au final pas beaucoup d'info utile, comme d'hab'...

J'adore son dernier billet :

This tip is simple: dont bury words in an image, especially if those words dont appear in normal, index-able text.

C'est ce que les méchants SEO et les évangélistes de l'accessibilité s'evertuent à dire depuis des années, mais là c'est monsieur Cutts qui le dit alors forcément ça prend une toute autre dimension :rolleyes:

Lien vers le commentaire
Partager sur d’autres sites

Une chose est certaine, le tag RK n'a jamais été le "futur PR"... on le savait déjà, mais il est bon de le lire de la plume de Matts :!:

Il ne risque pas, selon Matts, de prendre dans le futur proche une valeur différente de 0 ... certains sites vont avoir du mal :)

Lien vers le commentaire
Partager sur d’autres sites

Il y a quand même des choses interessantes :

C'est la première fois que je lis une position "officielle" de Google sur les sites avec un NDD par langue,

et aussi :

que le RK va être à zéro,

que ne pas mettre 'nofollow' sur des liens affiliés ou publicitaires peut "ternir la réputation du site auprès de Google".

Lien vers le commentaire
Partager sur d’autres sites

Et dans sa réponse sur les sites multilangues, il y a un truc surprenant :

Il dit :

Dans le cas d'un site de quelques pages, je ferais un sous-domaine. Dès qu'il y a un plus grand nombre de pages, cela paraît intéressant d'avoir des noms de domaine différents.

Bon, on peut se dire qu'il balance des généralités et qu'il se place sur le plan mémorisation des noms de domaine par les visiteurs... mais est-ce que cela ne voudrait pas dire que Google fait une différence entre sous-domaines et noms de domaine différents ? :huh:

Modifié par Remi
Lien vers le commentaire
Partager sur d’autres sites

Pour les sites multi-langue, ça fait des années que je passe pour un c... auprès de certains en hurlant ( souvent dans le désert ) : :gueule:

- Une langue un nom de domaine ( ou un sous-domaine )

../..

- Une langue un nom de domaine ( ou un sous-domaine )

Merci M. Matt Cutts d'énoncer des banalités qui grâce à vous vont enfin pouvoir être promu au rang divin de : vérité absolu :lol:

Lien vers le commentaire
Partager sur d’autres sites

D'un autre côté, 2 noms de domaine = 2 campagnes de référencement ;).

Tout dépend de ce que l'on cherche à faire. Si mon but est avant tout de bien me positionner sur les moteurs francophones, c'est dommage de perdre le bénéfice de liens ne pointant pas vers mon domaine principal mais vers un sous-domaine.

Modifié par dièse
Lien vers le commentaire
Partager sur d’autres sites

D'un autre côté, 2 noms de domaine = 2 campagnes de référencement ;).

<{POST_SNAPBACK}>

Tout à fait.

Je trouve que les bénéfices à long terme méritent cet effort supplémentaire.

Je parle bien d'un site qui a une vrai stratégie internationale.

Lien vers le commentaire
Partager sur d’autres sites

Pour les sites multi-langue, ça fait des années que je passe pour un c... auprès de certains en hurlant

Tu n'es pas seul ... je suis avec toi! :gueule:

Lien vers le commentaire
Partager sur d’autres sites

Bon on dérive un peu du sujet initial, là... il serait intéressant de lancer un thread séparé sur le sujet (eh oui encore un...) :P

J'aimerais bien avoir des certitudes sur le sujet comme vous semblez avoir... ^_^

Moi, je reste assez mitigé.

Il faudrait des exemples... (et des exemples sur des sites ordinaires). Mes expériences personnelles ne sont pas franchement concluantes.

Lien vers le commentaire
Partager sur d’autres sites

Je note aussi :

My sitemap has about 1350 urls in it. . . . . its been around for 2+ years, but I cannot seem to get all the pages indexed. Am I missing something here?

A: One of the classic crawling strategies that Google has used is the amount of PageRank on your pages. So just because your site has been around for a couple years (or that you submit a sitemap), that doesnt mean that well automatically crawl every page on your site. In general, getting good quality links would probably help us know to crawl your site more deeply.

Le gars demande pourquoi son sitemap qui a 2 ans n'a pas permis l'indexation de toutes ses pages (1350). Matt Cutts ramène ça à un problème de PageRank.

Il confirme donc que le PR permet un crawl plus profond et détermine (au moins en partie) le nombre de pages indexées.

Lien vers le commentaire
Partager sur d’autres sites

Matt Cutts nous gratifie d'un billet sur son blog dans lequel il répond à beaucoup de questions relatives à ce qui se passe sur Google depuis quelques semaines: Big daddy, Mozilla Googlebot, pages complémentaires, etc...

Bonjour,

Pour ceux qui ont quelques difficultés avec l'anglais, une traduction est proposé à cette adresse

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...