Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Cette technique est à réserver à un seul cas : le cas où la technologie utilisée pour les pages "normales" interdit un référencement correct (par exemple un site en flash). Dans ce cas on peut créer des pages html et une arborescence parallèle. Cette pratique ne pose aucun problème aux moteurs. Dans tous les autres cas, il faut optimiser les pages d'origine. Par ailleurs, le fait de ne mettre que du texte et des liens n'est ni nécessaire, ni suffisant pour améliorer un référencement. Et sauf à interdire la navigation aux moteurs sur la partie normale du site, c'est quand même une jolie méthode pour créer un contenu "dupliqué". Bref, si ton "référenceur" ne fait que ça, tu risques de n'avoir rien résolu, et de t'être créé de nouveaux problèmes
  2. Intéressant : ce serait donc un bug du système "universal search".
  3. C'est clairement un bug. Un moteur qui affiche deux fois la même page à deux positions différentes, c'est forcément un dysfonctionnement : si c'est voulu, il faudra que l'on m'explique à quoi ça sert Mais je retiens l'explication de jan comme possible : une fois j'ai l'index 1, sur la page d'après j'ai l'index 2. Sauf que si c'est ça, une logique de cache doit intervenir, car j'ai toujours la même page 1, et toujours la même page 2 depuis que j'ai entamé mes tests. Curieux
  4. Le rôle des différents datacenters est devenu pratiquement inconnu depuis la mise en place de la nouvelle architecture de Google début 2006. Déjà, ce que l'on voit derrière chaque IP correspond-il vraiment à un datacenter ? C'était le cas par le passé, sauf exception, aujourd'hui, certains comportements révèlent que certaines IP peuvent "switcher" en un instant d'un index à un autre ! Les changements peuvent apparaître sur n'importe quelle ip, ne se propagent pas toujours. Le rôle d'index de référence attribué à Bigdaddy provient de la bascule sur l'architecture TeraGoogle qui est intervenue en janvier 2006. A ce moment là, l'index "BigDaddy" correspondait aux résultats donné par l'index Teragoogle, forcément assez différents. Depuis (il leur a fallu des mois de travail) l'architecture TeraGoogle a été déployée sur tous les datacenters, et on ne voit plus les IP Bigdaddy mener clairement la danse.
  5. Intéressant ! J'avais déjà entendu parler de cas comme ça. Cela mérite quelques recherches pour savoir pourquoi, au détour on risque d'en apprendre un peu sur l'infrastructure cachée derrière les webmaster tools...
  6. je confirme ce que dit ALeX!S Il suffit d'indiquer .domaine.com dans l'attribut "domain" et la portée du cookie est étendue au domaine et à tous les sous-domaines. Ne pas oublier le "." devant le domaine.
  7. Tu écris "Mes nouveaux billets sont bien référencés" Est-ce que cela signifie que, contrairement à ce que disent les webmaster tools, tes pages continuent d'être indexées normalement, y compris depuis juillet ?
  8. J'ai un jugement très sévère sur les estimations de trafic données par ces outils. S'il s'agit d'avoir des suggestions de mots clés, il y'a des outils corrects, c'est sûr.
  9. J'ai cherché, et je n'ai pas trouvé d'outils remplaçant complètement celui d'overture. En tout cas pour les estimations de trafic. Il est possible d'en remonter un mais dans tous les cas de figure, la source des estimations de trafic risque d'être moins fiable (en sachant que déjà prédire le trafic sur Google avec l'outil d'Overture conduisait à se planter dans un nombre de cas intolérable).
  10. J'ai été jeter un oeil sur les montages et les modèles économiques de ces sites... Et ma conclusion serait de dire : no way, en dehors d'une entreprise de type banque ou assurance, personne ne pourra reproduire ce système à l'identique. Quels sont les problèmes ? Tout d'abord un particulier peut prêter de l'argent, mais pas à titre habituel. Les "prêteurs" sont donc réduits à un one-shot. Dès que cela devient habituel, il y'a un monopole des établissements de crédit à respecter. Les établissements de crédit doivent être agréés par leur autorité de tutelle, selon une procédure et des critères... finalement assez flous lorsque l'on rentre pour la première fois dans ce cercle fermé. Après il y'a des ratios à respecter. Ensuite il y'a un certain nombre de pratiques de ces sites qui sont interdites en france, comme l'utilisation de bases de scoring des emprunteurs, ou la "fusion" des comptes sequestres des prêteurs, la mutualisation du risque (monopole des sociétés d'assurance) etc... Par ailleurs, un système de mise en relation purement "de particulier à particulier" serait sans doute possible juridiquement, mais le modèle économique serait dans ce cas... beaucoup moins intéressant, voire carrément plus viable du tout.
  11. As tu des exemples précis en tête que tu souhaites voir analyser ? Effectivement, les prêts entre particuliers sont bien sûr légaux. Par contre la législation est assez touffue dans le domaine du crédit et des prêts, et il est parfois difficile de réaliser des montages originaux sans s'attirer les foudres des autorités financières, ou d'enfreindre des lois sur la protection des particuliers sur les offres de prêt.
  12. En clair, contrairement à il y'a quelques années, il ne sert à rien d'attendre les googledance. La seule chose qui change, ce sont les données contenues dans la base qui alimente les réponses de la toolbar. Le reste se passe en temps quasi réel : des mises à jour partielles ont lieu en permanence.
  13. Qu'un site qui a moins de trois mois ne soit pas bien référencé, voire pas référencé du tout, n'a rien de paranormal Si tu veux un avis, explique a minima ce que tu as fait pour qu'il soit indexé, et donne nous au moins l'url que l'on puisse jeter un oeil sur ce cas.
  14. En fait on peut mettre du code php dans les squelettes SPIP depuis la première version, car les squelettes spip se codent en php, même si pour des raisons étranges les premiers développeurs ont affublé les squelettes de l'extension .html ! Donc cela marche dans la version 1.9, mais aussi en 1.8, en 1.7, en 1.6 etc...
  15. Il faut quand même préciser à ce stade, pour tempérer quelques enthousiasmes des aficionados de Google, que la nouveauté c'est l'affichage du délai écoulé depuis l'indexation de la page en minutes, point barre. Vous êtes vous demandé depuis combien de temps cette soi disant indexation temps réel fonctionne ? En tout cas chapeau, très joli coup marketing de Google, qui a compris que révéler ce mode de fonctionnement pas si nouveau que ça en affichant un délai en heures ou en minutes avait un intérêt en matière de communication
  16. Quatre ans ! Déjà ... J'y crois pas, j'ai l'impression qu'on a commencé hier
  17. Dans la plupart des cas en effet, un mail envoyé à Google se solde par une réponse automatique, ou au mieux "préformattée". Ce n'est souvent qu'au deuxième mail, et même parfois au troisième, que l'on commence à recevoir des mails plus personnalisés. Il ne faut pas se laisser décourager par ce système, qui sert à éliminer les sollicitations inutiles, et à accélérer les temps de réponse. Il ne faut pas hésiter à réitérer sa demande.
  18. Aucun robot ? Non. Googlebot parvient à suivre certains liens en javascript... Mais Googlebot n'a qu'une compréhension très partielle du javascript, donc il faut absolument éviter de lui compliquer la tâche en lui cachant involontairement du contenu en ne le rendant accessible qu'avec des fonctions javascript compliquées ou des librairies ajax.
  19. Il me semble que non, et qu'il faut faire une nouvelle traduction pour disposer des droits. Mais je vais vérifier. Ce genre d'accord tacite de l'auteur sous réserve du respect de certaines conditions permet de présumer qu'en respectant ces principes on ne sera pas poursuivi par l'auteur. Mais la loi française est terrible, et l'auteur a le droit de changer d'avis, notamment en ce qui concerne ses droits patrimoniaux. Par ailleurs, le fait d'exploiter à votre tour le travail de l'auteur vous expose à des poursuites de celui-ci qui est en droit de vous réclamer une partie des droits d'auteur perçus grâce à son travail.
  20. Il y'a eu pas mal d'articles scientifiques il y'a 18 mois sur la prise en compte de la "dimension temps" dans les algorithmes des moteurs de recherche, l'objectif étant soit de pénaliser des sites dont l'évolution dans le temps est "hors normes" (ce qui donne les résultats connus sous le nom de sandbox chez Google), soit de favoriser les pages "fraîches" parce que parlant de l'actualité, et comment combiner les deux logiques (une page ancienne avec un fort pagerank et un fort trustrank est sans doute "fiable", mais une page nouvelle qui n'a pas encore de liens entrants doit pouvoir sortir en tête des résultats si elle est pertinente sur une requête liées à l'actualité, elle doit donc être "boostée" artificiellement, et temporairement). Il y'a pas mal d'indices qui démontrent que Google combine une série de règles en cascade pour booster et/ou pénaliser les pages récentes, des règles qui ressemblent à ce qui est décrit dans ces articles. La "prime de fraicheur" telle que je la décrivais est devenue beaucoup plus sophistiquée.
  21. Heureusement, la DGCCRF et la CNIL savent (en général) faire preuve de discernement. J'ai appris par contre à toujours réagir de la même façon face à ce genre de plainte : 1. Toujours répondre vite à ce genre de mail de protestation, avec un mail bref mais surtout non rédigé en style "administratif" ou "circulaire", bref un mail personnalisé et compréhensif 2. Ne pas laisser de "subalternes" répondre. Faire envoyer la réponse par un responsable 3. Réagir en affirmant que la société est soucieuse des problèmes évoqués, et que : - c'est probablement une erreur qui a échappé à notre vigilance - que dans tous les cas, tout sera fait pour qu'il ne soit plus importuné - si besoin est, indiquer dans quelles circonstances son email a été collectée, et pourquoi il reçoit ce mail (notamment le fait que la case opt'in a été cochée d'après nos bases) 4. Suivre l'évolution des choses, l'avertir quand son adresse a été supprimée, et lui donner des coordonnées pour appeler si jamais il recevait malgré tout un mail Toute attitude non coopérative avec un mauvais coucheur aboutit toujours à une perte de temps considérable. La meilleure façon d'aplanir les choses est souvent en plus d'appeler le plaignant par téléphone. Ceci dit, je pense que moi non plus je n'aurais pas révélé le nom du fournisseur par écrit. Mais j'aurais sans doute joué la transparence totale par téléphone.
  22. Webdev et windev sont devenus au fil du temps de très bons outils pour créer des applications de type extranet. Pour faire un site web classique, c'est moins adapté. Franchement, cela vaut le détour, pour créer des applications complexes le gain de productivité par rapport à des applis faites avec les outils de RAD de Microsoft est assez impressionnant. La prise en main est de plus en plus facile : jadis il fallait coder en langage propriétaire, maintenant dans la plupart des cas tout se fait sans écrire une ligne de code. Maintenant, c'est facile d'accès pour quelqu'un qui a déjà un bon niveau en programmation. Les débutants peuvent s'y essayer, mais ils n'utiliseront qu'une faible partie des possibilités de l'outil.
  23. Bonjour, Je cherche à rentrer en contact avec une personne qui a implémenté sur son site la solution de liens sponsorisés TKN (the keyword network) distribuée par Himedia et sa filiale ComClick. Les infos que je cherche sont d'ordre technique (je n'ai pas besoin de savoir les tarifs ou les CPC ) Vous pouvez faire part de vos expériences ici ou me contacter par MP.
  24. Le fichier de vérification sert à vérifier que tu es bien le propriétaire du site, en tout cas, que tu as des droits suffisants sur ce site pour te permettre d'accéder à certaines données confidentielles. La contrepartie de la "simplicité" de cette vérification, c'est que Google revérifie régulièrement que les personnes qui ont implanté ces fichiers ont toujours les mêmes droits. Donc les fichiers finissent par ne plus être considérés comme valides. Soit tu es le seul à accéder aux webmaster tools, dans ce cas tu peux supprimer les autres fichiers sans pitié : ils ne servent plus à rien. Soit tu n'es pas le seul, ou tu n'as pas été le seul, dans ce cas, soit tu enlèves les autres fichiers (à charge pour les autres de les recréer), soit tu identifies les autres utilisateurs de webmaster tools (c'est toujours intéressant à savoir), et tu les préviens.
  25. Par ailleurs il y'a bien un gros changement d'algorithme en cours...
×
×
  • Créer...