Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Messages postés par Cariboo

  1. C'est clairement un bug.

    Un moteur qui affiche deux fois la même page à deux positions différentes, c'est forcément un dysfonctionnement : si c'est voulu, il faudra que l'on m'explique à quoi ça sert :smartass:

    Mais je retiens l'explication de jan comme possible : une fois j'ai l'index 1, sur la page d'après j'ai l'index 2. Sauf que si c'est ça, une logique de cache doit intervenir, car j'ai toujours la même page 1, et toujours la même page 2 depuis que j'ai entamé mes tests. Curieux

  2. Le rôle des différents datacenters est devenu pratiquement inconnu depuis la mise en place de la nouvelle architecture de Google début 2006.

    Déjà, ce que l'on voit derrière chaque IP correspond-il vraiment à un datacenter ? C'était le cas par le passé, sauf exception, aujourd'hui, certains comportements révèlent que certaines IP peuvent "switcher" en un instant d'un index à un autre !

    Les changements peuvent apparaître sur n'importe quelle ip, ne se propagent pas toujours.

    Le rôle d'index de référence attribué à Bigdaddy provient de la bascule sur l'architecture TeraGoogle qui est intervenue en janvier 2006. A ce moment là, l'index "BigDaddy" correspondait aux résultats donné par l'index Teragoogle, forcément assez différents. Depuis (il leur a fallu des mois de travail) l'architecture TeraGoogle a été déployée sur tous les datacenters, et on ne voit plus les IP Bigdaddy mener clairement la danse.

  3. J'ai cherché, et je n'ai pas trouvé d'outils remplaçant complètement celui d'overture. En tout cas pour les estimations de trafic.

    Il est possible d'en remonter un mais dans tous les cas de figure, la source des estimations de trafic risque d'être moins fiable (en sachant que déjà prédire le trafic sur Google avec l'outil d'Overture conduisait à se planter dans un nombre de cas intolérable).

  4. J'ai été jeter un oeil sur les montages et les modèles économiques de ces sites... Et ma conclusion serait de dire : no way, en dehors d'une entreprise de type banque ou assurance, personne ne pourra reproduire ce système à l'identique.

    Quels sont les problèmes ?

    Tout d'abord un particulier peut prêter de l'argent, mais pas à titre habituel. Les "prêteurs" sont donc réduits à un one-shot. Dès que cela devient habituel, il y'a un monopole des établissements de crédit à respecter. Les établissements de crédit doivent être agréés par leur autorité de tutelle, selon une procédure et des critères... finalement assez flous lorsque l'on rentre pour la première fois dans ce cercle fermé. Après il y'a des ratios à respecter.

    Ensuite il y'a un certain nombre de pratiques de ces sites qui sont interdites en france, comme l'utilisation de bases de scoring des emprunteurs, ou la "fusion" des comptes sequestres des prêteurs, la mutualisation du risque (monopole des sociétés d'assurance) etc...

    Par ailleurs, un système de mise en relation purement "de particulier à particulier" serait sans doute possible juridiquement, mais le modèle économique serait dans ce cas... beaucoup moins intéressant, voire carrément plus viable du tout.

  5. As tu des exemples précis en tête que tu souhaites voir analyser ?

    Effectivement, les prêts entre particuliers sont bien sûr légaux. Par contre la législation est assez touffue dans le domaine du crédit et des prêts, et il est parfois difficile de réaliser des montages originaux sans s'attirer les foudres des autorités financières, ou d'enfreindre des lois sur la protection des particuliers sur les offres de prêt.

  6. En clair, contrairement à il y'a quelques années, il ne sert à rien d'attendre les googledance. La seule chose qui change, ce sont les données contenues dans la base qui alimente les réponses de la toolbar.

    Le reste se passe en temps quasi réel : des mises à jour partielles ont lieu en permanence.

  7. En fait on peut mettre du code php dans les squelettes SPIP depuis la première version, car les squelettes spip se codent en php, même si pour des raisons étranges les premiers développeurs ont affublé les squelettes de l'extension .html !

    Donc cela marche dans la version 1.9, mais aussi en 1.8, en 1.7, en 1.6 etc...

  8. Il faut quand même préciser à ce stade, pour tempérer quelques enthousiasmes des aficionados de Google, que la nouveauté c'est l'affichage du délai écoulé depuis l'indexation de la page en minutes, point barre.

    Vous êtes vous demandé depuis combien de temps cette soi disant indexation temps réel fonctionne ?

    En tout cas chapeau, très joli coup marketing de Google, qui a compris que révéler ce mode de fonctionnement pas si nouveau que ça en affichant un délai en heures ou en minutes avait un intérêt en matière de communication ;)

  9. Dans la plupart des cas en effet, un mail envoyé à Google se solde par une réponse automatique, ou au mieux "préformattée".

    Ce n'est souvent qu'au deuxième mail, et même parfois au troisième, que l'on commence à recevoir des mails plus personnalisés. Il ne faut pas se laisser décourager par ce système, qui sert à éliminer les sollicitations inutiles, et à accélérer les temps de réponse.

    Il ne faut pas hésiter à réitérer sa demande.

  10. Aucun robot ? Non. Googlebot parvient à suivre certains liens en javascript...

    Mais Googlebot n'a qu'une compréhension très partielle du javascript, donc il faut absolument éviter de lui compliquer la tâche en lui cachant involontairement du contenu en ne le rendant accessible qu'avec des fonctions javascript compliquées ou des librairies ajax.

  11. L'un a été écrit en 1930 et ne supporte plus de copyright. Seulement une traduction de ce document a déja éte faite. En droit Americain, la traduction d'un document sans copyright ne peut pas porter de copyright. Est ce applicable en droit francais aussi? Puis je distribuer la traduction sans licence? Suis je obligé de faire une traduction différente pour la distribuer?

    Il me semble que non, et qu'il faut faire une nouvelle traduction pour disposer des droits.

    Mais je vais vérifier.

    Un autre document est en utilisation libre sous condition de faire apparaitre une page renseignement sur l'auteur. Je peux donc effectuer et utliser la traduction sans accord avec l'auteur. Est ce que je béneficie automatiquement d'une protection copyright sur mon travail? ou me faut-il une licence avec l'auteur?

    Ce genre d'accord tacite de l'auteur sous réserve du respect de certaines conditions permet de présumer qu'en respectant ces principes on ne sera pas poursuivi par l'auteur. Mais la loi française est terrible, et l'auteur a le droit de changer d'avis, notamment en ce qui concerne ses droits patrimoniaux. Par ailleurs, le fait d'exploiter à votre tour le travail de l'auteur vous expose à des poursuites de celui-ci qui est en droit de vous réclamer une partie des droits d'auteur perçus grâce à son travail.

  12. Il y'a eu pas mal d'articles scientifiques il y'a 18 mois sur la prise en compte de la "dimension temps" dans les algorithmes des moteurs de recherche, l'objectif étant soit de pénaliser des sites dont l'évolution dans le temps est "hors normes" (ce qui donne les résultats connus sous le nom de sandbox chez Google), soit de favoriser les pages "fraîches" parce que parlant de l'actualité, et comment combiner les deux logiques (une page ancienne avec un fort pagerank et un fort trustrank est sans doute "fiable", mais une page nouvelle qui n'a pas encore de liens entrants doit pouvoir sortir en tête des résultats si elle est pertinente sur une requête liées à l'actualité, elle doit donc être "boostée" artificiellement, et temporairement).

    Il y'a pas mal d'indices qui démontrent que Google combine une série de règles en cascade pour booster et/ou pénaliser les pages récentes, des règles qui ressemblent à ce qui est décrit dans ces articles.

    La "prime de fraicheur" telle que je la décrivais est devenue beaucoup plus sophistiquée.

  13. Heureusement, la DGCCRF et la CNIL savent (en général) faire preuve de discernement.

    J'ai appris par contre à toujours réagir de la même façon face à ce genre de plainte :

    1. Toujours répondre vite à ce genre de mail de protestation, avec un mail bref mais surtout non rédigé en style "administratif" ou "circulaire", bref un mail personnalisé et compréhensif

    2. Ne pas laisser de "subalternes" répondre. Faire envoyer la réponse par un responsable

    3. Réagir en affirmant que la société est soucieuse des problèmes évoqués, et que :

    - c'est probablement une erreur qui a échappé à notre vigilance

    - que dans tous les cas, tout sera fait pour qu'il ne soit plus importuné

    - si besoin est, indiquer dans quelles circonstances son email a été collectée, et pourquoi il reçoit ce mail (notamment le fait que la case opt'in a été cochée d'après nos bases)

    4. Suivre l'évolution des choses, l'avertir quand son adresse a été supprimée, et lui donner des coordonnées pour appeler si jamais il recevait malgré tout un mail

    Toute attitude non coopérative avec un mauvais coucheur aboutit toujours à une perte de temps considérable. La meilleure façon d'aplanir les choses est souvent en plus d'appeler le plaignant par téléphone.

    Ceci dit, je pense que moi non plus je n'aurais pas révélé le nom du fournisseur par écrit. Mais j'aurais sans doute joué la transparence totale par téléphone.

  14. Webdev et windev sont devenus au fil du temps de très bons outils pour créer des applications de type extranet. Pour faire un site web classique, c'est moins adapté.

    Franchement, cela vaut le détour, pour créer des applications complexes le gain de productivité par rapport à des applis faites avec les outils de RAD de Microsoft est assez impressionnant.

    La prise en main est de plus en plus facile : jadis il fallait coder en langage propriétaire, maintenant dans la plupart des cas tout se fait sans écrire une ligne de code.

    Maintenant, c'est facile d'accès pour quelqu'un qui a déjà un bon niveau en programmation. Les débutants peuvent s'y essayer, mais ils n'utiliseront qu'une faible partie des possibilités de l'outil.

  15. Bonjour,

    Je cherche à rentrer en contact avec une personne qui a implémenté sur son site la solution de liens sponsorisés TKN (the keyword network) distribuée par Himedia et sa filiale ComClick.

    Les infos que je cherche sont d'ordre technique (je n'ai pas besoin de savoir les tarifs ou les CPC ;) )

    Vous pouvez faire part de vos expériences ici ou me contacter par MP.

  16. Le fichier de vérification sert à vérifier que tu es bien le propriétaire du site, en tout cas, que tu as des droits suffisants sur ce site pour te permettre d'accéder à certaines données confidentielles.

    La contrepartie de la "simplicité" de cette vérification, c'est que Google revérifie régulièrement que les personnes qui ont implanté ces fichiers ont toujours les mêmes droits.

    Donc les fichiers finissent par ne plus être considérés comme valides.

    Soit tu es le seul à accéder aux webmaster tools, dans ce cas tu peux supprimer les autres fichiers sans pitié : ils ne servent plus à rien.

    Soit tu n'es pas le seul, ou tu n'as pas été le seul, dans ce cas, soit tu enlèves les autres fichiers (à charge pour les autres de les recréer), soit tu identifies les autres utilisateurs de webmaster tools (c'est toujours intéressant à savoir), et tu les préviens.

  17. Dans l'algorithme du Pagerank, il n'y a pas de différence (enfin presque) entre les backlinks provenant d'autres sites et ceux provenant des pages du même site.

    Il y'a donc bien une relation entre PR et nombre de pages d'un site. Les "gros" sites partent avec un avantage sur les "petits" sites dans la course au PR.

    Maintenant la taille du site ne fait pas tout.

    Et je rappelle au passage que le PR non plus ne fait pas tout dans le référencement, et qu'il ne faut jamais parler du PR d'un site, cela n'a pas de sens.

  18. On s'attendait à ce que Microsoft se porte acquéreur de 24/7 Real Media. On avait même parlé d'une offre de 1 milliard de dollars...

    Mais c'est finalement le groupe britannique WPP qui va racheter 24/7 Realmedia pour 649 millions de dollars net de cash. (donc moins que l'offre de Microsoft). Il semble que 24/7 Realmedia ait préféré une logique "industrielle" en restant dans un groupe de publicité (avec des chances de continuer à exister à moyen terme) que d'intégrer le géant Microsoft et de se retrouver "fusionné" dans une grande entité de marketing et de publicité online.

    Mais Microsoft n'a pas perdu sa bataillle avec Google : ils viennent d'annoncer quasi simultanément le rachat d'un plus gros morceau que 24/7 Realmedia, méconnu chez nous : la société aQuantative, pour 6 milliards de dollars.

    C'est la plus grosse acquisition jamais réalisée par Microsoft !

    Les grandes manoeuvres et la concentration se poursuivent. Dans les groupes de publicité et de marketing spécialisés sur le online qui comptent, ils ne reste plus qu'un seul indépendant : ValueClick (pour combien de temps).

    J'y vois un symbole : la fin de la coupure entre économie traditionnelle et "netéconomie", c'est à dire l'arrivée à maturité des modèles économiques liés au net. Les pure-players disparaissent, il deviennet des "players" tout court, directement impliqué dans l'économie traditionnelle, ou s'intègrent comme filiales spécialisés de groupes industriels.

×
×
  • Créer...