Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Dans l'algorithme du Pagerank, il n'y a pas de différence (enfin presque) entre les backlinks provenant d'autres sites et ceux provenant des pages du même site. Il y'a donc bien une relation entre PR et nombre de pages d'un site. Les "gros" sites partent avec un avantage sur les "petits" sites dans la course au PR. Maintenant la taille du site ne fait pas tout. Et je rappelle au passage que le PR non plus ne fait pas tout dans le référencement, et qu'il ne faut jamais parler du PR d'un site, cela n'a pas de sens.
  2. On s'attendait à ce que Microsoft se porte acquéreur de 24/7 Real Media. On avait même parlé d'une offre de 1 milliard de dollars... Mais c'est finalement le groupe britannique WPP qui va racheter 24/7 Realmedia pour 649 millions de dollars net de cash. (donc moins que l'offre de Microsoft). Il semble que 24/7 Realmedia ait préféré une logique "industrielle" en restant dans un groupe de publicité (avec des chances de continuer à exister à moyen terme) que d'intégrer le géant Microsoft et de se retrouver "fusionné" dans une grande entité de marketing et de publicité online. Mais Microsoft n'a pas perdu sa bataillle avec Google : ils viennent d'annoncer quasi simultanément le rachat d'un plus gros morceau que 24/7 Realmedia, méconnu chez nous : la société aQuantative, pour 6 milliards de dollars. C'est la plus grosse acquisition jamais réalisée par Microsoft ! Les grandes manoeuvres et la concentration se poursuivent. Dans les groupes de publicité et de marketing spécialisés sur le online qui comptent, ils ne reste plus qu'un seul indépendant : ValueClick (pour combien de temps). J'y vois un symbole : la fin de la coupure entre économie traditionnelle et "netéconomie", c'est à dire l'arrivée à maturité des modèles économiques liés au net. Les pure-players disparaissent, il deviennet des "players" tout court, directement impliqué dans l'économie traditionnelle, ou s'intègrent comme filiales spécialisés de groupes industriels.
  3. Et avant qu'on ne pose aussi cette question, MFA signifie "Made For Adsense" : cela désigne des sites conçus tout spécialement pour générer le maximum de revenus adsense.
  4. Merci Régis. Cette info du blog officiel de Google pour les webmasters donne la liste "officielle" des outils verticaux réellement intégrés (pour le moment) dans les résultats. J'ai joué un peu avec Google US (à l'aide d'un proxy), et j'ai pu me rendre compte que cela ne change pas toutes les requêtes (sur certaines il n'y a ni images, ni maps, ni video, ni news... : les 10 premiers résultats sont inchangés). Et sur la plupart des pages de résultats, seule une position est "squattée" par l'un de ces outils. Donc malheur à ceux qui sont en position 10 à l'heure actuelle, ils vont passer en page deux, et être encore moins visibles que maintenant (j'estime qu'en raison de son ergonomie spéciale, la première page devient plus stratégique encore qu'avant). Il y'a bel et bien un algorithme qui fixe l'emplacement de la position squattée par l'outil vertical : une requête sur Bill Clinton fait apparaître des news en position 4, une sur Nicolas Sarkozy en 1 ! A première vue, j'estime que ceux qui apparaissent en tête de Google News vont avoir un bonus supplémentaire. Pour les autres outils verticaux, la visibilité gagnée est plus anecdotique.
  5. Dans le même ordre d'idée, dans les choses annoncées "off", il y'a la possibilité de voir apparaître des "publicités rich media" dans les pages de résultat... Info à prendre avec des pincettes, mais cela signifierait la fin du dogme qui empêchait certaines formes de publicité d'être présente sur ce moteur de recherche. Cette info a été lâchée par Marissa Meyer herself ! Voilà les paroles telles que rapportées par Danny Sullivan : Hé hé ! Ca c'est sûr... disons qu'il y'aura bientôt de multiples façons d'être présent dans l'index de Google, et cela risque de changer la donne pour beaucoup. Quand à acheter des mots clés : en fait il y'aura des manières moins coûteuses d'obtenir les mêmes résultats. Certains vont adorer, d'autres vont en manger leur chapeau. Ce dont tu parles semble avoir été "survolé" au cours de la réunion, mais c'est précisé dans le communiqué de presse http://www.google.com/intl/en/press/pressr...h_20070516.html Il faut bien comprendre ce dont ils parlent : 1°) Le passage à la "recherche universelle" nécessite de revoir toute l'infrastructure technique : Google adore créer des petites applications autonomes, et jamais de grandes usines à gaz. Sauf que cette fois-ci, il faut bien passer à l'usine à gaz et ce n'était pas prévu lorsqu'ils ont créé "maps" "base" "books", donc il leur faut revoir le fonctionnement de tous les datacenters et c'est un boulot difficile. 2°) Ils annoncent l'implémentation d'un nouvel algorithme de classement qui compare automatiquement et "objectivement" différents types d'information... Pas facile à interpréter cette annonce. Il s'agit probablement d'un algorithme lié à la recherche universelle qui permet de savoir quel type d'information est le plus pertinent par rapport à une requête donnée : un livre, une vidéo, un résultat de google map, une définition ?? Dans le nouveau système, les réponses provenant de n'importe quel système de recherche verticale de Google apparaissent non pas à une position fixe, mais au coeur des résultats, à une position déterminée par des critères de pertinence.
  6. Non pour le corps de la page et les colonnes d'après ce que j'ai vu (cela reste expérimental), par contre le menu en haut de page correspond à ce changement d'interface...
  7. Le 16 mai (hier) se tenait chez Google la "journée de recherchologie" (searchology day). Cet évènement était organisé pour communiquer à la presse la vision de Google sur le passé, le présent et l'avenir des moteurs de recherche. Les privilégiés présents n'ont pas été déçus... Cette journée a été l'occasion d'un grand nombre d'annonces, parfois d'importance majeure, parfois plus anecdotiques, mais toutes intéressantes. Il me faudrait un post de trois pages pour tout commenter, donc je vais commencer par les lister, ensuite on pourra éventuellement discuter annonce par annonce de ces nouveautés : La révolution : The Universal Search Tout d'abord, Google confirme une nouvelle connue jusqu'ici de quelques initiés : la mise en place de ce qu'ils appellent eux-mêmes la "recherche universelle". Par une seule requête effectuée sur la page d'accueil, l'internaute se verra présenter des résultats issus de tous les outils verticaux de Google : images, books, maps, videos, base etc... Enfin : "Meaning search" la recherche sémantique Google a enfin décidé de compléter ses fonctions ultrabasiques de stemming par une expansion de requête sur des critères sémantiques. Je n'ai pas beaucoup d'informations là dessus, sachez simplement que ce n'est pas révolutionnaire en soi, beaucoup de moteurs avant eux ayant développé ce genre d'outils. Mais cela permettra de comprendre qu'une requête sur "cheval vapeur" ne doit pas renvoyer des pages sur "le cheval" et la "vapeur", mais plutôt et aussi des pages sur "puissance fiscale" ou "kwh" (mon exemple est pourri je ferais mieux la prochaine fois) des changements d'interface à venir La barre de liens vers les fonctionnalités se sophistique et de déplace en haut et à gauche des pages de google. Des barres de liens contextuelles font leur apparition. Cette nouvelle interface fera son apparition dans les jours qui viennent Google experimental Création d'un espace opt'in pour essayer les interfaces experimentales de Google : Google experimental Parmi les interfaces expérimentales : Une interface dotée de raccourcis claviers avec un menu à gauche pour affiner les résultats Avec un menu contextuel à droite Google CLIR Google prépare une fonctionnalité multilingue permettant de chercher (par exemple) à l'aide de requêtes écrites en français dans des pages écrites en arabe : les résultats seront également traduits en français. Une idée extraordinaire qui va nous ouvrir par exemple l'accès au web chinois, japonais, indien, tagolog, en volapük. Pour le patois berrichon, c'est pour plus tard je pense. Google Views Google Views est une fonctionnalité expérimentale (un peu gadget) qui permet de savoir comment sont regroupées dans le temps ou l'espace les pages retournées par google sur une requête donnée. C'est une application spectaculaire de ce que l'on appelle dans le jargon de la recherche d'information "la reconnaissance des entités nommées". En fait l'outil repère les dates (pour la fonction timeline) ou les adresses et les lieux (pour la fonction maps), et les regroupe sous une forme visuelle. Pour comprendre le mieux est d'essayer les deux requêtes suivantes Napoléon (timeline) Napoleon map
  8. Comme l'échelle du pagerank est logarithmique, deux sites ayant apparemment le même pagerank peuvent être en réalité séparés par plusieurs ordres de grandeur de pagerank (en clair, il manque tous les chiffres après la virgule qui font toute la différence). Par ailleurs, le pagerank indiqué par Google est celui présent dans une base de données qui est mise à jour de temps en temps, le pagerank réellement utilisé a peut-être bougé depuis la dernière mise à jour, et tu ne le verras qu'à la prochaine mise à jour. Il faudrait en savoir beaucoup plus sur ton site et son évolution pour te répondre, mais je te donne les pistes habituelles : - un changement subtil de l'algo (google nous gratifie régulièrement de ce genre de choses) - un changement sur ton site - une perte de backlinks (ou la non prise en compte de certains backlinks) De toute façon, un référencement obtenu sur un mot clef précis n'a pas vocation à durer éternellement : les concurrents travaillent aussi le référencement, le web change, et les algos des moteurs aussi...
  9. Non, à ma connaissance la vente de livres d'occasion échappe à la législation sur la vente de produits culturels, donc pas de problèmes selon moi. Mais les problèmes habituels se posent : si la vente occasionnelle par un particulier du fond de sa bibliothèque ne pose pas de problèmes, les revenus tirés de cette activité, surtout si elle devient régulière et habituelle, doit être déclarée aux impôts et cette activité commerciale doit s'exercer dans le cadre légal, ce qui peut par exemple conduire à s'inscrire au RCS et payer des cotisations sociales.
  10. Lorsque l'on écrit un programme de type "crawler", l'économie de bande passante est une préoccupation de tous les instants. Pratiquement tous les "bots" ont un comportement qui passe par la consultation du header pour consulter notamment le champ "if modified since" pour savoir si la page a changé depuis leur dernier passage. Si oui, ils aspirent la page, sinon, ils décident de revenir plus tard.
  11. Pour ce type de problèmes, le seul moyen de contact proposé par Google est le mail. Tu es confronté comme beaucoup de webmasters aux problèmes suivants : 1°) La définition d'un "clic incorrect" existe bien dans les TOS, mais les implications précises techniques n'ont jamais été communiquée par Google. La définition qu'ils donnent est large, et beaucoup de webmasters en relisant les TOS se disent : "je n'ai pas de clics incorrects", mais à tort le plus souvent. Ils ne communiquent pas non plus les stats qui incriminent les comptes concernés. Pourquoi ? Selon Google, parce que la lutte contre la fraude leur interdit de communiquer sur les moyens de détection de ces fraudes, qui pourraient être contournés si les fraudeurs les connaissaient mieux. Le constat objectif que l'on peut faire, c'est que cette manière de faire rend les webmasters qui ne comprennent pas ce qui leur arrive fous de rage. 2°) Je dois rappeler que bénéficier d'un compte adsense n'est pas un droit. En acceptant les conditions générales, on "signe" un contrat dans lequel on s'engage à ce que le compte fonctionne d'une certaine façon. Dès que le fonctionnement du compte n'est plus contractuel, le contrat prévoit la possibilité pour Google de résilier le compte, définitivement. Bien sûr, le "monopole" de Google sur les programmes de liens sponsorisés pour les petits sites devrait leur conférer une certaine responsabilité morale. Mais c'est une entreprise commerciale, pas un service public... Bien sûr, le rapport de forces entre un webmaster et Google est pour le moins inégal. Les clauses des TOS sont de facto imposées par Google, et non librement acceptées et négociées par les webmasters. Voila encore une situation qui contient les germes de conflits en cas de problèmes. 3°) Une fois exclu du programme adsense, recréer un compte s'avère assez difficile... Lorsque les petits malins réussissent à recréer un compte depuis une nouvelle machine, une nouvelle adresse mail, et les coordonnées de leur petite amie, le "périmètre" de présence des adsense sur un site précédemment couvert par un compte supprimé les trahit. La solution la plus sûre est donc en général de négocier la réouverture du compte avec Google.
  12. Bonjour jin, j'ai vérifié les deux ou trois choses qui pouvaient gêner ton référencement dans les pages france, et je n'ai rien trouvé d'alarmant. L'adresse IP de ton serveur est sur une plage attribuée aux IP françaises par le RIPE, et j'ai interrogé les deux principales de géolocalisation, et ta machine est censée être à Roubaix (France), ce qui est logique puisque ton hébergeur est en principe... OVH. Le code de tes pages indique qu'elles sont rédigées en français etc... etc... Ce que tu constates est juste, probablement, une différence provisoire entre les différents index de google. Les choses devraient se stabiliser avec le temps. Euh là j'ai pas bien compris ce que tu voulais dire.
  13. En plus il n'y a pas que les liens pour obtenir un bon référencement... L'optimisation du code et du contenu de la page est primordiale. Quand on y parvient, et surtout quand les concurrents se débrouillent mal, un fort PR est inutile pour arriver en première position. Je connais des tas d'exemples de pages à PR3 ou 4 qui arrivent premières devant des pages à PR 7 sur des requêtes. Arriver en première page sur une requête ciblée est assez facile avec un peu de temps et de travail. A condition de bien suivre les conseils prodigués régulièrement ici.
  14. J'ai lu l'article d'Olivier Andrieu sur son blog et si je suis d'accord avec lui sur pas mal de choses j'en tire des conclusions pratiques différentes. En gros je suis plus circonspect. Qu'un outil de recherche soit en mesure de déduire de la structure d'une page (ou même de plusieurs pages d'un même site, cela peut aider), c'est à peu près sûr. Des chercheurs de Microsoft ont décrit ce type de techniques il y'a des mois. J'avais même écrit un article sur le sujet : http://www.webmaster-hub.com/publication/M...-l-analyse.html Leur propos était bien celui défendu par Olivier : en repérant l'emplacement des liens, on pouvait éliminer les "biais" fondamentaux des algorithmes de popularité par les liens. Ces biais proviennent de la non prise en compte de nombreux liens "automatiques", des liens publicitaires etc... Tous les liens ne représentent pas des "votes" de webmaster, la plupart des liens ne sont pas créés par des humains, mais par des programmes. La différenciation entre les zones de la page à partir du code html est aussi employée pour affiner le fonctionnement des adsense, j'avais fait quelques expériences sur les pages qui m'avaient convaincu de cela. Maintenant, il ne faut pas perdre de vue que les critères de classement dans un moteur de recherche doivent améliorer la pertinence des réponses, et les liens interviennent à deux niveaux : - par les anchor text : le poids des termes dans les anchor text influe directement sur le classement des résultats - par le calcul du pagerank qui détermine l'importance de la page. Classiquement on accorde un poids un peu plus important que la normale à des termes figurant dans des anchor text. Le fait de surpondérer les anchor text de liens présents dans le texte d'un article plutôt que dans un bloc de navigation semble être une bonne idée pour améliorer la pertinence, car ces liens sont moins susceptibles d'être "manipulés" par des stratégies de spam. Sauf que cette surpondération doit être légère, car sinon on obtient l'inverse du but recherché. Par contre on ne risque rien à sous-pondérer les autres types de liens : c'est sans doute la solution choisie (mais ce n'est qu'une intuition). Maintenant, sans ce plus, je ne suis pas sûr que l'on obtienne un classement si différent que cela. Pour le calcul de l'importance d'une page : surpondérer les liens éditoriaux (je n'aime pas le terme contextuel) ou sous pondérer les autres peut sembler aussi être une bonne idée si on pense à la justification initiale du principe pagerank (une mesure du "vote" des webmasters par les liens faits vers la page). Mais on sait que cette interprétation du pagerank a de grosses faiblesses (l'analogie avec les cocitations en bibliométrie est loin d'être parfaite). Cela n'empêche pas d'utiliser le pagerank comme un bon outil d'estimation de l'importance d'une page, cette importance étant simplement représentative d'autres critères qu'une sorte de vote "démocratique" des webmasters. Bref je ne pense pas qu'il soit utile de trop jouer avec ce genre de critères : les liens entrant provenant des blocs de navigation sont aussi intéressants que les autres à prendre en compte pour essayer de mesurer si une page est importante ou pas. Si on va jusqu'à identifier d'autres types de liens (comme des liens commerciaux) évidemment, là on peut ne pas en tenir compte. Maintenant, cela fait deux ans que je me pose aussi des questions sur les conséquences à tirer de l'existence dans l'algorithme de google des pagerank thématiques (qui doivent inciter à faire des liens sortants vers des sites de la même thématique...) et depuis peu de l'apparition très possible d'outils de type pagerank calculés à l'envers (principe du trustrank) pour lutter contre le spam et mesurer le "sérieux" d'une page. Les effets de ces critères ajoutés dans le système serait les mêmes sur nos spéculations précédentes : attention à la qualité des liens sortants.
  15. Les menaces des concurrents de Google de faire jouer la loi antitrust sur ce dossier sont des postures de communication ou des rodomontades sans fondement. Google contrôle à présent une part très significative de l'économie de la publicité en ligne, mais sans que cette position dominante soit telle qu'elle puisse faire plus que faire hausser les sourcils d'un juge fédéral. Ce que l'on pressentait depuis déjà un certain temps est en train de se confirmer : la nétéconomie dépend de plus en plus de Google. Google contrôle ou influence de plus en plus de choses sur le net, mais une question se pose avec de plus en plus d'acuité avec le temps : qui contrôle Google ?
  16. Ton problème est bien celui que Dan a relevé. Les tables de caractères pour les "collations" n'existaient pas dans les versions 3.x ... D'où cette erreur. L'export en version 3.x devrait résoudre ton problème.
  17. Les cours d'un professeur sont soumis au droit d'auteur. Publier un cours sans l'autorisation de son auteur (le professeur) est illégal. Clairement. Le fait qu'il s'agisse de cours correspondant au programme de l'éducation nationale n'y change rien. Le fait de modifier légèrement le contenu des cours non plus.
  18. Comme je l'ai déjà précisé plusieurs fois, les sitelinks n'ont rien à voir avec le trustrank. Il s'agit de l'application d'une technique connue en matière de systèmes de recherche d'information, appelée "reconnaissance des entités nommées". Google avait d'ailleurs annoncé avoir mis au point une technique de leur cru qu'ils ont baptisé "reconnaissance des entitées nommées par abstraction", et que les premières applications allaient apparaître quelques mois plus tard. Et quelques mois plus tard sont apparus les... sitelinks. Les entités nommées reconnues ici sont des marques, des raisons sociales, des enseignes, des "noms de site" etc... La liste des liens communiquées avec les sitelinks est ensuite créée par des techniques classiques de clustering.
  19. La question est intéressante, car elle pose d'une manière générale le statut des propriétaires de sites qui hébergent des programmes rémunérés "à la performance" (en fait par des commissions sur les ventes). La plupart des webmasters ne se posent pas la question, mais effectivement dans de nombreux cas, si cela ne se passait pas sur le net ils seraient considérés comme "intermédiaire" ce qui suppose effectivement un contrat rédigé selon des règles précises, et un statut particulier. Or, le fait que cela se passe sur le net ne change rien à la donne, si ce n'est le fait que les caisses et organismes impactés n'ont pas encore "levé le lièvre". Si le site support est celui d'une société commerciale, un contrat d'apport d'affaires ou de licence de diffusion résout élégamment le problème. Mais s'agissant d'un particulier, la question se pose avec acuité. Cumstorm : si tu fais uniquement de la publicité, tu n'as certes plus besoin du statut de commerçant ou d'intermédiaire, mais tu vends des prestations de services, ce qui suppose quand même une inscription, paiement de charges sociales, et choix d'un statut. Nicobillou>Je précise que le fisc n'aime pas les gens stupides, ni les gens généreux, qui sous couvert de faire gratuitement des prestations de services, le privent de recettes (IS ou TVA). Certains redressés l'ont appris cruellement à leur dépens. Par ailleurs, je rappelle que certaines formes de publicité "gratuites" tombent sous le coup de la loi Sapin.
  20. Lol. Cette discussion est en plein dans la thématique de la conf d'ouverture de W3 Campus 2007 En fait ce n'est pas toujours facile de rentabiliser la diffusion en Open Source. Je connais des exemples réussis, mais en général il s'agit de boîtes établies qui lâchent une de leur appli en open source. Comme ils ont d'autres sources de revenus, ils peuvent sans grand risque financier se servir de l'open source comme moyen de faire connaître leur techno ou leur entreprise, et sont structurés pour vendre des prestations : support, installation, customisation, formation, ou même version "premium". Lorsque l'on commence par l'open source... c'est beaucoup plus dur de faire des sous.
  21. Cet article est une tentative besogneuse de défense et d'illustration de l'intérêt du web sémantique. Sauf que l'argument peut totalement être retourné : comment obtenir que les acteurs d'un web dont la complexité augmente avec le temps se convertissent au web sémantique alors que le gain pour eux n'est pas évident ? En fait on enfonce les portes ouvertes : cela fait longtemps (plusieurs années) que les moteurs actuels peinent à renvoyer des résultats pertinents si on tape un seul mot clé. Les internautes ont donc appris à taper plusieurs mots clés. La longueur des expressions recherchées ne cesse d'augmenter. En fait cette évolution du comportement des internautes crée un cercle vertueux. Avec une requête composée d'un seul mot clé, impossible de déterminer le "sens" de la recherche. Avec plusieurs mots clés, cela devient en partie possible, les résultats obtenus sont bien meilleurs. L'idéal serait une phrase bien formée en langage naturel, mais on y viendra probablement assez vite (grace notamment à de nouvelles interfaces homme machine, Vista permet déjà de parler à son moteur de recherche). Donc je suis optimiste, les moteurs ne vont pas régresser, mais progresser.
  22. Le CPM que tu peux demander dépend totalement de ton visitorat. Et tu auras un mal fou à vendre avant d'avoir des statistiques donnant une idée du visitorat que tu auras vraiment. Ensuite cela dépend totalement de ton mode de commercialisation : veux tu vendre en direct ? Ou passer par une régie ? Dans ce dernier cas, c'est la régie qui fixera les prix en réalité. Par ailleurs, mon expérience, c'est que l'on ne concurrence pas sérieusement des sites de cet acabit en quelques jours, voire quelques mois. J'espère que tu as un business plan solide, une équipe, des moyens et une stratégie.
  23. CPM signifie coût pour mille, un affichage au CPM signifie que l'on achète des affichages d'annonces, et non des clics, et ou des leads. Cela ne présage pas de la manière dont ces affichages sont délivrés. Le fait de tenir compte des cookies ou des ip s'appelle un "capping". On peut acheter du CPM avec ou sans capping.
  24. Tiens un superbe troll Je trouve que Karnabal a bien résumé la situation, et mon point de vue est strictement identique. Discuter de la possibilité de critiquer ou non google sur ce forum n'a pas de sens, cela arrive régulièrement, et je n'ai pas souvenir qu'il se soit passé quelque chose de notable derrière .
  25. Je ne vais pas laisser le doute te tarauder plus longtemps. Tant que tu ne mets pas d'adsense sur ta partie sexy, tout va bien... provisoirement. Si tu fais le moindre test, ce contenu sera probablement détecté et allumera une lumière rouge chez Google. Tu risques la fermeture de ton compte adsense, et ton bannissement définitif du programme. En l'état actuel, tu fonctionnes donc sur le principe du "pas vu pas pris". Mais ton site ne remplit plus les conditions pour être admis au programme Adsense, et tu violes les TOS. Bref tu as un choix à faire ...
×
×
  • Créer...