Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Faut pas que tu te sentes seul, j'ai le même problème... J'ai fait deux tentatives et plouf ! La procédure se bloque à 100%, et derrière, impossible de se connecter. J'ai essayé avec le Nic Handle et une adresse "neuve" que ne connait pas OVH. Bug, ou saturation ? On ne tardera pas à le savoir.
  2. Tu peux partir de ce code php par exemple : />http://www.tigir.com/scripts/pagerank.php La toolbar communique avec les serveurs de Google en communiquant un checksum pour l'url. Ce script le calcule. Reste à récupérer les adresses à jour des serveurs alimentant la toolbar, mais elles trainent sur le net dans pas mal d'endroits. Une partie du code est peut-être obsolète, je n'ai pas essayé ça depuis deux ans au moins (je ne suis pas réellement obsédé par la barre verte) mais c'est un bon départ.
  3. Simple, efficace... Hop, déjà adopté !! En plus, Hubic, avec un nom pareil, on dirait une application conçue pour le Hub :-)
  4. Oui effectivement, ce n'est pas toujours une bonne idée de "faire disparaître" du contenu encore référencé et qui peut rapporter du trafic SEO, parce que des gens cherchent encore les informations contenues dans ces pages. Le mieux c'est de : - classer tout ce contenu aussi bien que possible, soit en le catégorisant, soit en l'étiquetant (dans le premier cas, chaque contenu n'appartient qu'à une catégorie possible, dans le deuxième cas, chaque contenu peut être relié à plusieurs "étiquettes" ou "tags"). - créer des pages qui listent les contenus à archiver par catégories, ou par tags/étiquettes - ajouter une mention bien visible sur les contenus archivés en indiquant que ce sont des contenus anciens et éventuellement obsolètes. - remplacer les liens vers ton contenu obsolète et ancien par des liens vers tes catégories archivées Après, si tu as déjà une catégorisation de ton contenu déjà en place, l'idéal c'est de créer une catégorie "archives" soeur pour chaque catégorie déjà existante (même chose pour les tags) et de proposer un lien vers les archives de la catégorie dans les pages de la catégorie.
  5. Oui exactement, Même sur le module de recherche, tu pourrais avoir un cache dynamique pour les pages les plus demandées. Après la difficulté technique, c'est de rediriger tes utilisateurs US sur le reverse proxy, et les autres sur ton serveur en Europe. Après si tu envoies tout le monde sur le proxy, c'est plus simple...
  6. Anthony t'a tout expliqué pour "géolocaliser" correctement ton serveur aux US. Concernant les inconvénients : le temps de réponse pour tes utilisateurs américains va augmenter de 200 à 300 ms en moyenne(parfois plus, ça dépend de l'hébergeur et du FAI de tes utilisateurs). Mais ce délai supplémentaire ne suffit pas à décourager un utilisateur, les rendering times pouvant eux monter à plusieurs secondes. Bref une page qui se génère et se charge rapidement dans un browser restera suffisamment rapide pour les utilisateurs US pour que tout se passe bien. Ensuite pour Google, pas de problème, tant que le temps de génération de la page + le temps de réponse du serveur + le temps d'acheminement des paquets = le temps de téléchargement vu par google, n'atteint pas des niveaux élevés. Rajouter des centaines de ms est embêtant, mais pas pour un petit site (quelques milliers de pages) et pas si tes perfs moyennes actuelles sont bien inférieures à la sec (genre 400/500 ms). Après si ça coince, un simple reverse proxy aux US résoudra le problème, si ton site est suffisamment "statique".
  7. Disons que ce qui fait l'essentiel de ton référencement, si c'est réellement ultraconcurrentiel, ce sont tes backlinks et ton contenu. La mise en forme joue, mais sans doute de manière plus marginale. Mais 2000 visiteurs jours avec un bon référencement, ce n'est pas exactement ce que j'appelle des mots clés ultra concurrentiels entre nous. Avec 6 pages, tu dois avoir une navigation simplissime, donc la modification des templates signifie essentiellement de supprimer des liens, ce qui est toujours plus simple que d'en ajouter, et de changer un peu le HTML. Vu le contexte, la migration me semble viable.
  8. Non, pas dans ce cas précis ! Si tu ne risques pas de perdre tes backlinks, tu fais des redirections vers les urls wordpress et hop! Le tour est joué. Changer les templates pour coller à la structure de ces 6 pages ne doit pas être irréalisable. L'enjeu en plus ici est faible parce ta navigation entre tes 6 pages doit être simplissime. Si tu galères trop à changer les templates, ta solution est viable temporairement. Soyons clair : pour 6 pages sans backlinks spécifique, tu peux perdre un peu de référencement au début, mais rien qui ne soit pas récupérable par la suite en optimisant wordpress.
  9. Hmm... Cela va demander pas mal d'huile de coude, et quelques connaissances en php. Tout d'abord, il faut que tu conserves les mêmes urls. Pour chaque url, il faudra que tu ais l'équivalent de la page (avec le même contenu qu'aujourd'hui) dans wordpress. Comme il n'est pas facile d'avoir strictement les mêmes syntaxes d'urls avec Wordpress, il faudra soit fonctionner avec des alias d'urls, soit rediriger les anciennes urls vers la version produite par wordpress. Ensuite, il y'a le problème du code HTML des pages. Si tu utilises des templates non modifiés, ton code va être différent, ce qui peut améliorer ton référencement, ou le mettre à bas. La solution consiste donc à modifier les templates, afin de coller à l'ancien code HTML (autant que faire se peut). Il faut penser à préserver le même maillage interne aussi : c'est à dire la même liste de liens sur chaque page. Ce qui est loin d'être évident, car un CMS va reproduire des blocs de navigation sur X pages, alors qu'il est facile d'avoir des liens différents d'une page à l'autre dans un site statique. Mais avec du boulot, on y arrive. Pour la suite, il faut optimiser le CMS pour le SEO, sinon, les pages créées avec le CMS ne seront pas aussi optimisées que ton ancien site. Après, tous ces efforts peuvent s'avérer inutile dans le cas ou ton bon référencement ne vient pas de la qualité de ton code ou de ton maillage, mais de ton contenu et de tes backlinks (ce qui est souvent le cas). Dans ce cas, tu peux juste optimiser ton wordpress pour le SEO, copier ton contenu, rediriger les anciennes urls vers les nouvelles et basta ! Ce genre de changements produit toujours des effets de bord, mais ils peuvent être positifs ou négatifs...
  10. J'ai regardé les critères de Packt pour les 3 prix. Mais je suis un peu surpris des résultats. Que Drupal! ait été élu 1er pour sa communauté : la communauté de Drupal est importante, dynamique, mais est-elle efficace ? On attend toujours des mises à jour de plugins clés pour Drupal 7, des mois après sa sortie. C'est agaçant... Drupal élu 1er pour sa facilité d'utilisation : je rêve la ! Quand je compara Joomla! et Drupal, je n'arrive pas à comprendre comment on peut penser que Drupal est plus simple à l'utilisation que Joomla! Mais bon... Drupal, 1er pour la performance, méfiance quand même. C'est vrai que Drupal est plus performant que les autres quand on sait choisir les plugins, la méthode de développement et paramétrer Drupal correctement, or il faut l'avouer : ce n'est pas simple. Dans la plupart des cas, sans paramétrage aux petits oignons, Plone fera beaucoup mieux que Drupal. Bizarre ce classement. C'est plus une opération publicitaire qu'un truc sérieux, je pense. En tout cas, je trouve cela mérité pour Joomla!. Les évolutions vont dans la bonne direction, ce qui n'est pas le cas de Drupal selon moi.
  11. Oui cela fait quelques semaines qu'ils font ça chez Google. C'est presque systématique pour mon site. Cela date du 26 août dernier pour être exact />http://insidesearch.blogspot.com/2011/08/new-snippets-for-list-pages.html
  12. Je confirme : Google verra la même chose dans les deux cas, et les deux solutions sont parfaitement valides. Si tu as plein de cas particulier à gérer : la solution php sera plus intéressante que le htaccess.
  13. Hmmm... ta page a un comportement bizarre, et fait planter l'outil de démonstration adsense ! Effectivement, cela ne ressemble pas un réel bannissement. Crée une page de test, et désactive tes scripts javascript les uns après les autres pour voir ce qui peut bloquer l'affichage des adsenses, et qui, par ailleurs fait "laguer" le chargement de ta page (l'affichage se bloque pendant plusieurs secondes).
  14. Bienvenue sur le Hub Camélia ! Les membres qui viennent ici pour obtenir des conseils mais aussi en donner sont toujours les bienvenus ici ! C'est l'esprit du Hub : tour à tout Me Yoda et Padawan
  15. Euh... qu'est-ce que tu utilises pour gérer le multilinguisme ? i18n, ou tu te débrouilles avec les champs et les vues de Drupal 7 ? Sinon, si tu as le plugin pathauto, tu dois pouvoir utiliser le token [node:language] dans tes schémas d'urls. Cela ne marche que si la langue est déclarée systématiquement. Et tu peux donc créer un schéma d'url du type [node:language]/[node:title] ce qui a l'air de correspondre à ce que tu cherches à faire. Les "tokens" sont dans le core de Drupal maintenant. Si tu veux avoir la liste des syntaxes de token utilisable, le meilleur moyen est d'installer le plugin "tokens" qui te donnera la liste des chaines token réutilisables dans tous les modules compatibles. Sinon tu as cette liste, mais qui n'est pas complète : />http://drupal.org/node/390482#drupal7tokenslist
  16. Ce qui est clair, c'est qu'il ne faut pas créer de sitemap avec des erreurs (c'est vraiment une très très mauvaise idée) et pas de sitemaps avec des urls en duplicate dedans. Par exemple, cette url : -http://www.monsite.com/forum/ucp.php?mode=delete_cookies&sid=9e09cdb53d295420d140a3f970ef65a2 n'a rien à faire dans un sitemap. Sinon, pour un petit site (moins de 50 000 urls) et un pagerank faible ou moyen (jusqu'à quatre ?) cela peut aider à faire découvrir de nouvelles urls plus vite, ou à faire recrawler des urls plus souvent. Mais pour cela, il faut que la génération du sitemap soit dynamique, et il faut penser à pinger les moteurs pour les informer de la mise à jour du sitemap.xml Est-ce que l'on peut s'en passer ? En général oui. Les moteurs se débrouillent assez bien tout seuls Mais il y'a des cas où c'est utile : - au lancement d'un site, d'une rubrique, lors de la création d'un grand nombre de pages => peut accélérer le crawl et l'indexation - pour indiquer la bonne version de l'url à conserver dans l'index (en cas de duplicates, Google indexe plus volontiers l'url du sitemap) - quand Google ne crawle et n'indexe pas certaines urls => cela peut, sous certaines conditions, régler le problème Sur les gros sites, la gestion des sitemaps devient délicate et peut devenir antiproductive...
  17. Ah la détection de l'encodage. Bon déjà oublie la fonction mb_detect_encoding() parce qu'elle se plante une fois sur deux. La fonction Unix (que tu peux appeler depuis php) file -i /path/file est un peu plus fiable. Mais elle peut se planter aussi. Tu peux chercher les codes BOM en début de fichier pour éliminer certains encodages. Ensuite, en général, on cherche surtout à savoir si c'est de l'UTF-8 ou de l'ISO. Dans ce cas, il suffit de tester la présence des codes Unicode pour quelques caractères spéciaux : - si on ne les trouve pas : c'est probablement de l'iso (note le "probablement") - si on les trouve : c'est probablement de l'UTF-8 Mais si le mail est en anglais : tu es carotte ! (peu de caractères spéciaux dans le fichier). En plus, pour compliquer le tout, il faudrait détecter le bon encodage, mais aussi la bonne table de caractères (ce n'est pas exactement la même chose). Et là, savoir si on travaille en iso-8859-15 ou iso-8859-1, on peut oublier.
  18. De toute façon, tu as tout à fait intérêt à apprendre la programmation objet ! C'est indispensable. Les arguments de ton chef de projet demeurent néanmoins assez curieux. D'autant plus que (horreur pour les puristes ! ), en PHP, tu peux faire les deux en même temps : utiliser la POO dans certaines parties, et le procédural ailleurs ! L'un des problèmes que l'on a avec la POO, c'est que cela crée des couches abstraites qui masquent parfois le fonctionnement du programme. Bref, cela peut créer un phénomène de "boîtes noires" empilées difficile à déboguer et à comprendre. La POO simplifie les choses pour des tâches complexes, mais parfois cela les embrouille et les alourdit pour des choses simples (comme générer un bout de HTML). Donc, on peut faire le choix d'utiliser le procédural pour des choses simples, comme le code d'un template de page, et utiliser une classe en objet pour gérer un formulaire ou une couche d'abstraction de base de données. Bon évidemment, ce n'est pas comme ça que l'on crée un site en MVC pur et élégant... Mais ça fait sérieusement gagner du temps en mode "quick and dirty".
  19. Oui, ça c'est normal : le robots.txt interdit le crawl, pas l'indexation. Donc si Google connait l'url, il indexera l'url (mais sans title, sans description puisqu'il ne sait pas quoi mettre puisqu'il n'a pas crawlé la page). Pour interdire l'indexation, il faut : - soit ajouter une balise meta robots avec "noindex" dans le html - ou une directive x-robots-tag:noindex dans le header http:
  20. La plupart des hébergeurs disposent d'une adresse mail "abuse" qui sert pour ce type de requêtes. Tu peux donc envoyer un mail circonstancié à abuse@viannatec.ocm
  21. Certaines ont été constituées par des agences, mais je doute qu'elles les revendront (j'en suis sûr en fait) : regarde du côté de Digitas, Performics, Aposition, Nextidea. Il en existe forcément chez des éditeurs de site, mais je doute aussi qu'ils revendent des bases stratégiques pour eux.
  22. Ah, la suppression des sitemaps !! On peut supprimer la déclaration dans le compte GWT, mais cela n'empêche pas Google de revenir consulter stupidement le fichier quand même ! Il semble qu'on n'a pas appris Googlebot à oublier les adresses de sitemaps... Tiens nous au courant.
  23. Il ne faut pas avoir peur du duplicate entre index de différents pays. Sur un plan marketing, l'idéal est de créer des pages dédiées aux différents marchés (tant pis si elles se ressemblent beaucoup), les répartir dans des sous domaines pays (voire même des répertoires pays : on peut localiser des sous répertoires dans GWT, pas uniquement des sous domaines ce n'est pas très connu), utiliser le code ISO du pays comme nom et le tour est joué. Les pages australiennes auront plus de chances de se positionner en australie, les pages canadiennes au canada etc... Les sites "américains" ont de plus en plus de mal pour apparaître au UK (je vis à Londres, je le vois tous les jours). Si tu ne "localises" pas tes contenus, il y'a des chances qu'ils ne performent nulle part (le marché US étant ultra concurrentiel). Et au fait oui, tu peux géolocaliser le même site dans différents endroits, à condition de le découper en sous domaines ou sous répertoires. Tu crée un compte GWT pour chaque sous domaine ou sous répertoire, tu géolocalises chaque compte différemment, et le tour est joué.
  24. Ce qui est intéressant dans ton exemple, c'est que ça marche tout seul... Plus l'image est en haute def, plus elle a des chances d'être bien référencée dans Google Images : Google essaie de présenter des images de taille moyenne ou grande parmi les résultats jugés pertinents (c'est un critère secondaire). Donc en général, on affiche un thumbnail sur la page et on se débrouille pour qu'il existe un lien vers la version haute def de l'image et ça suffit en général. Là, il semble que Google se serve tout seul et aille chercher la version haute def lui même sur Picasa.Voilà qui peut s'avérer pratique.
  25. Si j'ai bien compris, tu cherches une base de mots clés qualifiée avec le nombre de recherches par mois sur cette expression clé c'est ça ? Il n'y a pas l'équivalent franco-français, en tout cas pas de la taille que tu demandes. J'en connais quelques unes, mais qui ne sont pas commercialisées. Mais 10 millions de mots clés, c'est un chiffre énorme. Tu es au delà de la limite qui se trouve aux alentours de 3 à 4 millions de mots clés, au delà de laquelle tu ne trouves plus d'estimation de trafic fiable... Si tu veux trouver plus d'expressions avec un potentiel de trafic sérieux, il faut développer un algorithme pour extrapoler les données d'autres expressions. Et déjà, trouver les expressions candidates à qualifier et évaluer demande un savoir faire certain.
×
×
  • Créer...