Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. Les robots voient la même chose qu'un navigateur ordinaire. Ils prennent donc en compte les balises META telles qu'elles apparaissent dans le code source du navigateur. Jean-Luc
  2. Il est toujours possible de modifier les DNS. Ne pas oublier que l'effet d'un changement n'est pas instantané: dans le pire des cas, il faut patienter quelques jours avant que le changement soit propagé partout sur le web. http://www.swissidea.com/ n'est pas accessible pour moi pour l'instant. Pas très rassurant... Jean-Luc
  3. Bonjour et bienvenue sur le hub, En théorie, c'est très simple: il suffit d'indiquer à OVH que les serveurs DNS sont aux adresses ns1.swissidea.com et ns2.swissidea.com. Voir Votre nom de domaine est enregistré chez OVH, mais aucun hébergement n'y est rattaché. Jean-Luc
  4. Merci pour ta réponse, mais je ne comprends pas pourquoi & n'est pas correct pour séparer des variables dans la query string. Je pensais que & était un caractère spécial réservé pour cet usage et que & devait être utilisé dans d'autres cas, par exemple à l'intérieur d'une variable: <a href="http://www.example.com/index.php?alpha=you&me&beta=1234">blabla</a> Ici j'utilise & pour séparer les variable alpha et beta et j'utilise & dans la valeur you&me de la variable alpha. Pas correct ? Jean-Luc
  5. Jeanluc

    emploi de &

    Sur le blog de Matt Cutt, je vois, dans le code source, des liens sous la forme suivante: <a href="http://www.example.com/index.php?alpha=sud&#038;beta=nord">lien</a> Cet utilisation de &#038; au lieu de & est-elle correcte ? Jean-Luc
  6. Sur une recherche "pages from the UK" ou "pages from Australia", normalement on ne devrait avoir que des pages du pays en question. Sur des recherches "Web", Google UK favorise les sites anglais, Google Australie favorise les sites australiens, etc. Il est difficile de mesurer à quel point un site local est favorisé. Le positionnement dépendra de la concurrence sur les mots clés visés. Si la concurrence est faible, on se positionnera très bien avec un site international. Si la concurrence est forte, des sites locaux seront utiles, mais ils doivent être suffisamment différents l'un de l'autre pour que Google n'y voit pas de duplicate content. Jean-Luc
  7. Je confirme que c'est atrocement lent. Il faut regarder du côté du CMS. Le problème est certainement à ce niveau. Joomla peut être très lourd et il ne me semble pas très utile dans ton cas. Pour moi, il faut soit alléger ton Joomla, soit passer à un CMS plus léger, soit sauvegarder momentanément chaque page et faire un site statique (ce n'est pas chic, mais c'est facile et ça sera infiniment plus rapide). Jean-Luc
  8. Je pense que c'est ok pour les /, mais ce serait plutôt: RewriteRule ^page/([^_/]*)_([^_/]*)/$ /page.php?g=$1&s=$2 Si on laisse le [i]http://..., cela provoquera une redirection. Jean-Luc
  9. Si le _ n'est pas présent à l'intérieur des variables, je ferais ceci: RewriteRule ^page/([^_]*)_([^_]*)/$ http://www.domain.com/page.php?g=$1&s=$2 Jean-Luc
  10. Regarde s'il existe une section spécialement consacrée aux robots des moteurs. Si oui, ils ne sont pas inclus aux autres visiteurs. Sinon (probablement le cas de ton Webalizer), alors c'est sûr qu'ils sont inclus dans les visiteurs, et donc dans "US Commercial". Tu les retrouveras probablement en cliquant sur "Agents", puis sur "View All User Agents": tu trouveras Googlebot, Slurp et les autres dans la liste avec un pourcentage de trafic. Peut-être que ces pourcentages t'aideront à clarifier les choses. Jean-Luc
  11. Merci pour l'article. Ne serait-ce pas plutôt de l'abus de droit ? Je doute qu'écrire cela dans des conditions générales d'utilisation ait une quelconque valeur devant un tribunal. C'est un peu comme si un écrivain ou un journaliste essayait d'interdire le droit de citation. Par ailleurs, les remarques concernant l'exploitation des bases de données par des tiers pourraient mettre à mal le fonctionnement des moteurs de recherche dont le métier est l'extraction de données des sites des autres. Jean-Luc
  12. Comme analyseur de log, il vaudrait mieux utiliser AWStats qui est beaucoup mieux tenu à jour que Webalizer. La page de démo du site Webalizer date de mai 1999. Le problème que tu évoques provient de la méthode utilisée par Webalizer pour géolocaliser. Webalizer se base sur des requêtes DNS et il suppose que toute adresse .fr vient de France, tout .be vient de Belgique, etc. C'est assez correct, sauf pour les .com, .net, .org qu'il considère tous comme américains alors qu'on en trouve partout. Comme les .com peuvent représenter une part non négligeable de tes visiteurs, cela fausse tout. Avec AWStats, il y a d'excellents plugins gratuits de géolocalisation (database d'adresses IP avec leur localisation). Je suppose que la géolocalisation de GA fonctionne selon le même principe que AWStats. Dans ce cas-ci, Google Analytics est donc plus correct que Webalizer. Jean-Luc
  13. Jeanluc

    Erreur de calcul PHP

    Oui et non. De nombreux nombres décimaux ne sont pas représentés exactement par PHP. C'est évident pour 0,333333333...333... (= 1/3), mais c'est aussi le cas de nombres qui paraissent faciles à représenter en binaire. A partir du moment où le calcul n'est pas fait exclusivement avec des entiers, on ne devrait plus tester qu'on a une égalité, mais seulement que la différence est négligeable pour l'application: $variable1 - $variable2 < $EPSILON où $EPSILON est égal à 0.0000001 (par exemple). Jean-Luc
  14. Bonjour et bienvenue sur le Hub, Ton hébergement doit accepter plusieurs domaines. Si ce n'est pas le cas actuellement, va sur la page d'accueil de Sivit. Tu y trouveras ceci: Comme son nom l'indique, cette option permet d'avoir plusieurs domaines sur un seul hébergement. Jean-Luc
  15. Bonjour et bienvenue sur le Hub, Ce que tu recherches ressemble furieusement à un script de blog, comme WordPress, DotClear,... Il peuvent être téléchargés et utilisés gratuitement et tu trouveras différents avis critiques à ce sujet dans d'autres pages de ce forum. Il existe aussi des hébergeurs chez qui le blog est préinstallé. Jean-Luc
  16. Essaie $_SERVER['REQUEST_URI'] comme indiqué dans la page dont je t'ai donné le lien. C'est correct. Quel sens donnes-tu à [^.?] ? Jean-Luc
  17. Voici le .htaccess créé par WordPress quand on choisit de "belles" URL: # BEGIN WordPress <IfModule mod_rewrite.c> RewriteEngine On RewriteBase / RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L] </IfModule> A l'intérieur du script PHP, les infos utiles se trouvent dans $_SERVER. Jean-Luc
  18. Si tu regardes le .htaccess, tu verras que pour toute URL qui ne correspond pas à un fichier existant, il renvoie à /index.php. Et c'est le /index.php qui va reprendre le contenu de l'URL qui l'appelle et le rechercher dans sa base - exactement comme tu l'as écrit. Si l'URL n'est pas retrouvée dans la base, un code 404 sera renvoyé. Leonick 1000 messages: Hub, hub, hourra ! Jean-Luc
  19. HostGator sont des pros. Ce sont des gens qui communiquent quand il y a un problème. J'en ai fait l'expérience au début de ce mois. Un robot fou (localisé en Chine) m'envoyait des tonnes de hits à la minute. Ils ont bloqué le site web, m'ont contacté par mail et 4 heures plus tard tout était à nouveau en fonctionnement et sous contrôle. Je pense que tu peux y aller avec les redirections. Tu peux peut-être optimiser les choses en utilisant plusieurs fichiers .htaccess (si toutes les anciennes URL ne sont pas dans le répertoire principal). Une autre solution est de gérer toi-même les URL non existantes dans un 404.php qui renverra un code 301 quand il détecte une ancienne adresse. Suis-je clair ? Jean-Luc
  20. Elles semblent résolvables pour l'outil que j'ai indiqué: ça donne 87.118.90.76, 87.118.126.128, ... Jean-Luc
  21. Tu peux bloquer une plage d'adresses, mais, de cette manière, tu vas bloquer tous les autres internautes qui passent par ces adresses. Ce n'est pas une très bonne solution. C'est peut-être acceptable s'il suffit de faire le blocage quelques jours pour décourager le visiteur non désiré. Sinon il faudra chercher une autree méthode pour l'exclure. Jean-Luc
  22. Pour retrouver l'adresse IP à partir des noms d'hôte (domaine), tu peux utiliser ce convertisseur. Puis tu mets ces adresses dans ton "deny". Jean-Luc
  23. Chez moi, sur l'OVH mutualisé, le nombre de hits de Googlebot est en train de remonter depuis une semaine, mais il n'est pas encore revenu à la normale. Même diagnostic pour Feedfetcher d'ailleurs. Le nombre de visiteurs envoyés par Google ne semble pas impacté, mais je reste attentif: souvent, avec Google, il y a un décalage entre des changements sur le site et leurs conséquences dans les SERP. Ce qui m'agace le plus dans cette histoire, c'est l'incapacité tant d'OVH que de Google à communiquer sérieusement sur un problème comme celui-là. Jean-Luc
  24. Est-ce qu'une une redirection 301 dans un .htaccess te conviendrait ? Jean-Luc
  25. De quels caractères peut être composé ton xxx ? [a-z]+ veut dire n'importe quelle minuscule, mais aucun autre caractère. Jean-Luc
×
×
  • Créer...