![](https://www.webmaster-hub.com/uploads/set_resources_7/84c1e40ea0e759e3f1505eb1788ddf3c_pattern.png)
Urban
-
Compteur de contenus
217 -
Inscrit(e) le
-
Dernière visite
Messages postés par Urban
-
-
Il y a forcement un parser même minimaliste pour suivre les liens, les frame, les iframe, calculer le pagerank, ... Il faut également pouvoir tester si un mot clef est en title, en h1/h2/..., dans un lien, en alt dans une balise img, ... On ne peut pas savoir jusqu'ou va le parser google. Ce qui est sur, c'est que vu les paramètres utilisés, il existe.
-
Crois tu qu'un Bot aussi perfectionné soit-il, prend du temps à analyser le code source ?
<{POST_SNAPBACK}>
Le crawler en lui même, peut être pas, mais les pages qu'il rapatrie elles sont bien parsée à un moment ou à un autre, sinon comment google mesurerait-il la pertinence des pages ?
-
Moi il me classe plutot plus mal, mais ce n'est pas une surprise vu qu'ils ont fait le ménage dans le cache, et qu'ils ont viré les pages bien indexé pour raison de duplicate et qu'ils ont gardé les anciennes pages
-
Et puis faut arreter avec l'optilisation à tout va, si on doit se preoccuper aussi du data center jagger3 et changer l'organisation des liens, c'est plus possible ...
Je rappelle quand meme qu'un site web est destiné à un public et non à un moteur, se soucier de l'ergonomie, des attentes de tes membres, c'est quand même un peu plus noble que de se soucier du data center Jagger3
<{POST_SNAPBACK}>
Un datacenter Jagger 3 c'est juste un indicateur pratique qui permet pour la commande site: de trier tes pages par importance pour google. Il faut savoir que la commande site: trie également les pages par ordre d'importance depuis déjà un certain temps sur yahoo et msn. Si j'ai pris l'exemple d'un datacenter J3, c'est parce que tu parlais google.
Ensuite entre optimiser à tout va, et rendre ta homepage un peu plus populaire que tes autres pages, je crois qu'il y a un monde
-
Il y a aussi un problème au niveau de l'organisation de tes liens internes, quand on utilise la commande "site:" sur un data center jagger 3, ce n'est pas ta homepage qui arrive en premier.
-
Je ne suis pas un grand windozien, mais il me semble que comme sous unix, un système équivalent à cron existe en standard sur xp.
-
PHP, linux et chmod
dans PHP
Oups, j'avais vu "linux" mais pas "php"
En php, voici l'info : http://fr.php.net/manual/fr/function.fileperms.php
-
Dans mon cas, Googlebot prend toujours la homepage une à deux fois pas jour. Par contre avant j'avais un gros crawl d'environ 100 pages tous les 12 jours environ. Et depuis 1 mois et demi, il prend 10/15 pages. La dernière fois il y a deux jours, il n'en a pris que 3...
-
Dans mon cas, depuis le début du mois :
MSIE 86%
Firefox 12%
Safari 2%
C'est pas si glorieux ;-)
-
PHP, linux et chmod
dans PHP
Oui il faut faire
ls -l
-
Ca depend de tes besoins. Si tu dois faire des requetes en fonction du mois par exemple, c'est bien de l'avoir dans la table directement lisible. A part ça le timestamp permet de tout faire.
-
Dans le sujet linké par Régis, Dan donne a peu pret le même conseil sauf que la redirection est faite par htaccess et non php. La soluce htaccess doit être un poil plus performante. J'ai fait ce genre de redirections, mais je n'en ai pas encore vu les fruits vu que googlebot crawl surtout les gros sites depuis 1 mois et demi. Mais comme on retrouve ce conseil partout... Même si tu es pénalisé le temps que le cache google soit à nouveau propre, autant qu'il le soit un jour.
-
En début de page, il faut que tu test par quelque nom de host la page a été appelée, et si c'est pas le host principal, tu renvoi un 301
Quelque chose du genre devrait marcher :
if($_SERVER['HTTP_HOST'] != 'www.auto-selection.com') {
header("HTTP/1.0 301 Moved Permanently");
header("Location: http://www.auto-selection.com/" . $_SERVER['REQUEST_URI']);
} -
Pour les mot clef dans le nom de domaine, c'est un peu vrai sur msn (encore que il y a des contres exemples de sites bien classé sans ça) mais sur yahoo, je n'ai jamais eu cette impression.
-
Dans le même genre, il y a des DC sur lesquels la page en cache n'est pas disponible, et d'autres (par exemple http://66.102.9.104/ qui montre jagger3) où la date de fraicheur annoncée à côté des résultats ne correspond pas à la date de la page en cache.
<{POST_SNAPBACK}>
En fait ce que j'ai constaté par hasard, c'est qu'il y a plusieurs bases dans google. Lors d'un upgrade apache chez mon herbergeur, il ne considerait plus index.htm comme une page index, et google à indexé ma homepage à ce moment la avec le listing du contenu du repertoire. Pour une requete concurentielle, je tombais sur "index of" avec une date de la veille, pour une requete non concurentielle, je tombais sur une page plus vieille et donc correcte.
Selon mon interprétation il y a une base pour les réquêtes concurentielles (surement basé sur le nombre de requêtes par jour), et une autre pour les autres requêtes. La base pour les résultats des requetes concurentielles est mise plus souvant à jour.
Par contre je ne me rappelle plus trop mais il me semble qu'il n'y avait qu'une seule page en cache, si c'était le cas, selon les requêtes, la date concordait ou non.
-
J'avais déjà constaté ça. Lors du dernier update, j'avais perdu plus de la moitié de mes backlinks (et pourtant gagné quelques places pour une requete) et ils sont revenus au fil des jours. La j'ai 200-300 backlinks de moins que d'habitude.
-
Ca doit surement changer en fonction de l'age et le nb de pages/nb de backlinks du site.
-
gros probleme phpbb
dans PHP
Ce que je me dis depuis le début de ce topic, tu es sur que ta base n'est pas vérolée ?
Parce que déjà ne pas pouvoir te connecter à l'admin c'est bizarre.
-
C'est assez mystérieux je doit dire ce qu'il se passe. Sur 66.102.7.104, qui normalement ne devrait plus trop bougger, ça donne régulièrement des résultats non jagger 3, et quand ça donne du jagger 3, ça change un peu tout les jours. Aujourd'hui mon site est a nouveau en 3eme page et avec l'ancienne adresse du site en 2eme
-
Tu a peut être fait trop d'optimisation et ton site a été déclassé.
-
Il s'agit d'un port scan effectué par nmap. Tu devrais vérifier ton serveur avec un detecteur de rootkit.
-
Pourquoi tu ne fais pas :
"brrr " . date("d/m/Y") . " il fait froid non"
???
-
dll a echoué
dans Windows, IIS
S'il fonctionne ce n'est pas grave. Ca doit être une install bancale. Mais SOFTMO~1 c'est le nom court pour soft modem.
-
Personne ne sais, mais à mon avis pas avant 2-3 mois.
Jagger 3 : Résultats différents entre DC
dans Techniques de Référencement
Posté
C'est assez étrange, on dirait que google.fr repond avec un algo jagger3 de façon stable depuis aujourd'hui, avec des données en cache qui sont différentes du datacenter jagger3 de départ.