Aller au contenu

Blogs

 

Robots Nocontent, Yahoo

Yahoo, class="robots-nocontent" Mai 2007, Yahoo annonce que ses robots vont interpréter une directive, class = "robots-nocontent", à insérer dans le code source des pages. L'objectif de "Robots Nocontent" Cette "class CSS" a pour finalité d'indiquer, aux robots de Yahoo, des zones robots-nocontent à ne pas utiliser pour la recherche et dans le descriptif (snippet) du résultat de la requête. Pour Yahoo, le but est de permettre une meilleure mise en valeur du contenu de la page en retranchant les blocs, "Robots Nocontent", inutiles à la compréhension du contenu tels que les publicités, pied de page, etc... NB : les liens inclus dans les zones "robots-nocontent" sont suivis par les robots de Yahoo. Utilisation de class "Robots Nocontent" Elle s'utilise, p.e, avec les balises "div", "p" ou "span"... Exemple : La < span class="robots-nocontent" >classe< / span >class="robots-nocontent" de Yahoo < span class="robots-nocontent" >permet de ne pas utiliser certaines zones.< / span > Slurp (robot de Yahoo) indexe : "La classe class="robots-nocontent" de Yahoo permet de ne pas utiliser certaines zones."
Sur la page, l'internaute lit : "La classe class="robots-nocontent" de Yahoo permet de ne pas utiliser certaines zones."
Mais Yahoo ne fait sa recherche que sur : "La class="robots-nocontent" de Yahoo" et n'affichera que cela dans le descriptif...
Quelques réactions à l'annonce Yahoo, Robots Nocontent Certains pensent que ce "robots-nocontent" est une future source de spam indexing car il s'agit de cacher du texte. Récemment, Google incitait dans sa lutte contre les textes et liens cachés au Spam Report...
D'autres estiment que ce n'est pas aux webmasters, mais aux moteurs de recherche de déterminer précisément quel est le contenu de la page.
Liens On en discute sur le forum Webmaster Hub sur le "Tag robots-nocontent"
[Yahoo] [class] [robots] [nocontent] Par Régis - blog Webmaster Toulouse

Régis

Régis

 

Vendre des produits onéreux en ligne

Depuis les années 2000, les français ont un véritable engouement pour le bricolage. Le marché de l'aménagement intérieur (ex : cuisines et salles-de-bains) et extérieur ne cesse de croître a tel point que l'on ouvre de nos jours des centres commerciaux dédiés uniquement à la maison (DOMUS à Rosny-sous-bois)... Alors pourquoi pas des piscines en kit. Je suis sûr que l'internaute obtiens plus d'informations par les sites dédiés à la piscine et autres forums dédiés à l'aménagement des maisons que par le vendeur lambda de franchise connues. Par ailleurs, construire sa piscine, c'est principalement un problème de terrassement et de maçonnerie, ensuite l'assemblage hydraulique d'une filtration est du domaine de la plomberie traditionnelle. Ces opérations sont accessibles à un bon bricoleur. Le seul point délicat reste les raccordements électriques, car les problèmes de sécurité sont à prendre très au sérieux, mais les équipes Lagon sont disponible pour accompagner tous les projets notamment par le biais d'une assistance téléphonique gratuite.

lafleur

lafleur

 

PageRank

Le Google PageRank Une mise à jour du PageRank apparent, le PR de Google, a été faite fin avril 2007. PageRank ? Le PageRank, PR, est l'indice de popularité d'une page Web utilisé par Google pour le classement de ses résultats de recherche. Selon Google Le PageRank est une "fonctionnalité (...) qui permet de déterminer le classement d'un site dans (les) résultats de recherche. Google combine le (...) PageRank et des techniques (...) de mise en correspondance du texte pour afficher des pages (...) en rapport avec les termes recherchés." Comment connaître son PageRank ? soit, p.e, en testant sur un vingtaine de DataCenters avec PageRank sur Google.
soit grâce à la Google Toolbar.
Comprendre le PageRank De nombreux articles ont été écris sur le PageRank. Quelques références : Lalgorithme du PageRank expliqué
Lalgorithme du PageRank expliqué, partie 2
PageRank explained correctly with examples : The Google Pagerank Algorithm and How It Works
Avantages et limites du PageRank
Pistes pour calculer un PageRank personnalisé
Le PageRank a été à l'origine formulé par S.Brin et L.Page (Google) dans leur publication "The Anatomy of a Large-Scale Hypertextual Web Search Engine". Mise au point sur le PageRank Le PageRank n'est qu'un des critères utilisés par Google pour juger la pertinence d'une page et, est moins influent qu'il y a quelques années.
Google calcule en permanence le PageRank, mais actualise, parfois, pour les internautes, l'affichage du PageRank. L'actualisation du PageRank est, donc, sans conséquence sur le positionnement. Déjà en octobre 2005, M.Cutts (Google, More weather reporting) écrivait : "Encore une fois, les PageRank et backlinks ont déjà été incorporés dans le scoring depuis longtemps (Google met à jour le PR en continue et continuellement), mais certaines personnes adorent regarder le PR.".
Le PageRank est une mesure de limportance dune page, et non dun site entier. Dire qu'un site a un PageRank de XX est, donc, un abus de langage : il s'agit, en fait, du PageRank de la page daccueil du site.
Un PageRank élevé ne garanti pas un bon positionnement. Mais pour 2 pages à "importances égales", celle avec le PageRank le plus élévé aura un meilleur positionnement.
Le PageRank apparent, lors d'une mise à jour, peut varier lors de la synchronisation des DataCenters.
Le PageRank affiché (nombre entier entre 0 et 10) n'est qu'une approximation du PageRank réel qui est, probablement, une valeur logarithmique comprise entre 0 et 1 avec de nombreuses décimales.
Quelle est, alors, l'utilité du PageRank ? A défaut d'être la clé du positionnement, le PageRank favorise l'indexation régulière des pages. Certains considèrent qu'à partir de PR 6, les visites du robot sont quotidiennes.
Un PageRank élevé facilite les échanges de liens.
Certains anuaires, tel que "Les pages Hub", classent les sites par PageRank.
Certains annonceurs accordent plus d'importance aux sites ayant un PageRank elevé.
Quelques webmasters pratiquent l'achat de liens dont le prix est fonction du PageRank. Mais rappelons que Google déconseille lachat de liens. Préférez travailler votre contenu pour obtenir des liens naturels tel que le préconise Google "Building link-based popularity".
Certains webmasters en sont arrivés à ignorer le PageRank. Et en avril 2002, Google s'amusait du PageRank dans un article : le "PigeonRank"... Liens Discussion de la mise à jour du PageRank du 28/04/2007 sur le forum Webmaster Hub
[PageRank] [Google] Par Régis - blog Webmaster Toulouse

Régis

Régis

 

Blog Avril 2007

Les billets d'Avril 2007 sur le blog Webmaster Toulouse Lien caché
Une mise au point de M.Cutts (Google) sur les techniques de lien caché...

Extension Firefox GoogleTagCloudMaker
L'extension Firefox GoogleTagCloudMaker affiche à côté de vos résultats Google le "Tag cloud" de la page.

Achat de liens
M.Cutts (Google) explique comment signaler lachat de liens à Google.

Extension Firefox KGen
L'extension Firefox KGen permet l'analyse d'une page d'un site pour en extraire les mots-clés principaux.

Sitemap pour robots.txt
Comment déclarer lemplacement du Sitemap dans le robots.txt.

Social bookmarking
Introduit par des sites tel que "del.icio.us", le Social bookmarking permet à un internaute de sauvegarder ses bookmarks (favoris, signets) directement sur les serveurs d'un site de social bookmarking.

Interview Vente Discount
Webmaster Hub a publié une interview de P.Petrowski du site d'achat en ligne "Vente Discount".

Eye-tracking
Une étude de Microsoft sur lEye-tracking "An eye-tracking study of information usage in Web search : Variations in target position and contextual snippet length.
Liens Toutes les archives du blog Webmaster Toulouse
Les archives du blog, Mars 2007
Par Régis - blog Webmaster Toulouse

Régis

Régis

 

Lien caché

Lien caché Selon Matt Cutts de Google (14/04/07, "Hidden links", "lien caché"), plusieurs techniques peuvent être utilisées pour créer un lien caché : Une des techniques pour un lien caché est décrire le texte dancre du lien de la même couleur que le fond de page
Un autre moyen est dutiliser le CSS de telle sorte à réduire le lien caché à 1 pixel.
Enfin, le lien caché peut être sous forme dun point dans un paragraphe.
Toutefois, changer laspect dun lien nest pas préjudiciable, selon Google, à condition de ne pas outrepasser les directives de Google. Exemple de code d'un lien caché P.e, le code suivant de lien caché ne respecte pas les directives Google. <a href="http://www.lien caché.com " onMouseOver="window.status' ';return true; " style="cursor:text;color:black; text-decoration:none"> lien caché </a> Au passage de la souris sur le lien, le lien est caché dans la barre de statut grâce à la fonction onMouseOver
Au passage la souris sur le lien, le curseur ne change pas.
Le lien de la couleur du texte nest pas souligné
Comment définir un lien caché ? Un lien caché est, donc, un lien invisible ou inaccessible aux internautes sans accéder au code source de la page mais accessible aux spiders. Que retenir du billet "lien caché" de M.Cutts ? En résumé : que tout abus caractérisé peut être sanctionné par Google. Liens En savoir plus... Lien caché et Google
Source M.Cutts : "Hidden links" (lien caché)
[lien caché] [Google] Par Régis - blog Webmaster Toulouse

Régis

Régis

 

Extension Firefox GoogleTagCloudMaker

Extension Firefox GoogleTagCloudMaker Cette extension Firefox affiche à côté de vos résultats Google le "Tag cloud" de la page. Tag cloud ? Un nuage de mots-clés (en anglais : tag cloud) est une représentation visuelle des mots-clés les plus utilisés sur un site web. Habituellement, dans un "Tag cloud", les mots-clés les plus utilisés s'affichent dans des polices plus grandes comme le fait l'extension Firefox GoogleTagCloudMaker. Exemple de "Tag cloud" avec GoogleTagCloudMaker Comment installer GoogleTagCloudMaker ? L'installation de GoogleTagCloudMaker est identique à celle de GWT External Links. Installer lextension Firefox Greasemonkey
Puis le script "GoogleTagCloudMaker"
Utilisation Lancer Greasemonkey
Faire une requête dans Google
Vous obtenez le "Tag cloud"
Vous pouvez affiner votre recherche en cliquant sur un des mots-clés
Un seul regret avec cette extension Firefox que j'ai, immédiatement, adopté : GoogleTagCloudMaker ne gère pas correctement les caractères accentués. Liens "GoogleTagCloudMaker"
Lextension Firefox Greasemonkey
Wikipedia (vF) : "Nuage de mots-clés"
Wikipedia (vEN) : "Tag cloud"
[GoogleTagCloudMaker] [Google] [Tag cloud] Par Régis - blog Webmaster Toulouse - GoogleTagCloudMaker

Régis

Régis

 

Achat de liens

Comment signaler lachat de liens à Google ? Les liens entrants dun site sont un des critères de référencement. Aussi, lachat de liens sest développé : le prix du lien étant proportionnel au PageRank de la page qui le contient. Matt Cutts de Google a expliqué (14/04/07) comment signaler lachat de liens à Google : How to report paid links. Pourquoi signaler lachat de liens à Google ? Matt Cutts souhaite que des cas dachat de liens lui soient signalés afin de tester quelques idées pour améliorer lalgorithme de Google. Comment signaler lachat de liens à Google ? Actuellement, il y a 2 possibilités pour signaler lachat de liens via les outils de "spam report" de Google (cf. le billet "Google Spam Report"). Le "Spam Report" anonyme via ce formulaire de Google.
Le "Spam Report" authentifié via webmaster tools. Chaque "Spam Report" authentifié est étudié.
Dans les 2 cas, indiquer paidlink dans le formulaire. Comment signaler lachat de liens aux moteurs de recherche ? Pour Google, lachat de liens doit être fait de telle sorte quil ne soit pas transmis de "poids" à la page de destination. Dans un billet précédent (Hidden links), M.Cutts préconise dindiquer aux robots sil sagit dun lien acheté, en utilisant une de ces méthodes : créer un lien JavaScript,
rediriger via une page interdite aux robots par le fichier robots.txt,
utiliser lattribut rel="nofollow".
Quelques réactions au billet de M. Cutts "Comment signaler lachat de liens" - Quelques-uns considèrent que l'achat de liens est dorénavant vu comme du spam. Google espèrerait qu'une partie des budgets consacrés à l'achat de liens se reportent sur les AdWords. - Certains estiment que le principal générateur de "liens spams" est Google, lui-même, avec AdSense. - De plus, comment discerner un achat de liens dun simple échange de liens entre sites (accord entre les 2 sites) ? Et que penser des liens sur les grands annuaires, comme celui de Yahoo, où les liens sont payants. - Pour dautres l'achat de liens peut être considéré (en fonction du contexte) comme du spam et donc, la suggestion de M. Cutts paraît légitime. Léquation "achat de liens" = spam ne devant pas être systématique. Liens Matt Cutts : "How to report paid links"
Matt Cutts : "Hidden links"
[achat de liens] [Google ] Par Régis - blog Webmaster Toulouse - Achat de liens

Régis

Régis

 

Extension Firefox KGen

Extension Firefox KGen L'extension Firefox KGen permet l'analyse d'une page d'un site pour en extraire les mots-clés principaux. L'extension Firefox KGen : avantages 1. Les mots-clés sont triés contextuellement. Le tri de la liste des mots-clés est contextuel. Ainsi, même si un mot-clé ne se répète pas autant de fois quun autre, il peut se retrouver en 1ère position des mots-clés. L'extension KGen attribue un poids à un mot selon quil se trouve dans un titre ou encore dans une balise strong... Ainsi, même si un mot-clé ne se répète pas autant de fois quun autre, il peut se retrouver en 1ère position des mots-clés. 2. L'extension KGen analyse le contenu d'une page online mais aussi off-line. Utilisation de l'extension Firefox KGen Installer l'extension KGen
Pour utiliser KGen, ouvrir la barre latérale de Firefox : Affichage > Barre latérale > KGen pour faire apparaître l'extension.
Pour analyser le contenu d'une page, cliquer sur "Scanner ce document".
La liste des mots-clés selon KGen s'affiche : nom, répétition, poids.
Un bouton permet de sélectionner des mots-clés et de les mettre dans le presse-papier.
KGen vous est utile pour optimiser votre référencement et pour analyser les mots-clés des concurrents... Liens Source ElitWork : "extension Firefox KGen"
Liste d'extensions Firefox
[mots-clés] [KGen] [extension Firefox] Par Régis - blog Webmaster Toulouse - Extension Firefox KGen

Régis

Régis

 

Sitemap pour robots.txt

Une directive Sitemap pour robots.txt Fin 2006, les principaux moteurs de recherche avaient décidé dun format "sitemap" commun. Le "sitemap" devait être, ensuite, soumis aux différents moteurs pour que celui-ci soit pris en compte. Maintenant, il suffit de déclarer lemplacement du Sitemap dans le robots.txt afin de le faire connaître aux robots des moteurs. Pour cela, insérer cette ligne dans votre robots.txt : Sitemap: http://www.votre-site.com/sitemap.xml Liens Source Official Google Webmaster Central Blog (11/04/07): "What's new with Sitemaps.org?"
Source Sitemaps.org : "Specifying the Sitemap location in your robots.txt file"
On en discute sur le forum Webmaster Hub - Une directive Sitemap pour robots.txt
[sitemap] [robots.txt] Par Régis - blog Webmaster Toulouse - Une commande Sitemap pour robots.txt

Régis

Régis

 

Comment se faire connaitre ?

Le plus dur sur Internet, ce ne sont pas les webmasters qui me contrediront, est d'arriver à ce que les internautes viennent vous voir. Bien entendu, il y a diverses méthodes, mais je resterai aujourd'hui sur la manière d'obtenir des backlinks utiles En faisant l'analogie avec la réalité, c'est quoi un site ? Quel que soit son thème, cela revient un à emplacement et vous espérez en retour avoir de la visite. Donc imaginons que vous avez décidé d'exposer vos toiles pour faire partager votre art, et discuter de vive-voix avec les passants. Vous choisissez un lieu, vous agencez un petit kiosque, vous faites installer une ligne téléphonique avec inscription dans les pages blanches, et vous attendez les visiteurs. Mais comme vous êtes impatient, vous allez mettre des affiches sur le chemin qui mène à votre kiosque. Mais au bout de quelques jours vous serez perdu dans une forêt de panneaux indiquant aussi d'autres kiosques. Vous allez compter sur le bouche-à-oreilles, mais au final ce n'est pas suffisant. Donc vous décidez d'aller démarcher les autres boutiques leur demandant de laisser votre flyer sur leur comptoir en retour de quoi vous déposerez les leurs sur le vôtre. Cela commence à porter ses fruits, de 10 visiteurs vous êtes à 20. Mais ce n'est toujours pas suffisant donc finalement vous allez vous tourner vers les pages jaunes. Deux possibilités s'offrent à vous : Soit vous êtes simplement répertorié dans la catégorie de votre choix parmi des dizaines d'artistes, soit vous allez louer un encart publicitaire. La progression se fait donc sentir mais vous n'êtes toujours pas satisfait. Vous allez donc employer les grands moyens et faire appel à un publicitaire, dont le métier est de mettre en avant votre échoppe et donc vous amener des visiteurs. Tout cela pour vous dire que sur Internet c'est le même phénomène qui se passe. Le lieu : C'est la toile Votre kiosque : C'est votre site Les pages blanches : C'e sont les moteurs de recherche Les affiches sur le chemin : C'est la pub que vous allez tenter de faire sur certains sites Le bouche-à-oreilles : Ce sont vos amis qui vont parler de votre site Les flyers : Ce sont les liens réciproques Les pages jaunes : Ce sont les annuaires de qualité dans lesquels vous allez soumettre votre site. Soit vous acceptez du gratuit, et vous êtes dans la masse parmi d'autres, soit vous accepter de payer et vous serez plus visible que vos concurrents Le publicitaire : C'est un référenceur qui va vous proposer éventuellement des adwords, ou un travail qui fera que l'adresse de votre échoppe sera mise en avant, fléchera le parcours en fonction du public que vous souhaitez atteindre. Bien évidement si vous êtes un tant soit peu doué, et surtout patient, vous pouvez combiner toutes les solutions, et vous passer d'un référenceur

Arlette

Arlette

 

Blog Mars 2007

Les billets de Mars 2007 sur le blog Webmaster Toulouse Google Spam Report
Une mise au point de l'Official Google Webmaster Central Blog

Additious, promouvoir ou bookmarker une URL
Service francophone permettant de ne pas multiplier les liens de soumissions vers des sites de bookmarking ou des digg-like.

Cartographie du Web malveillant
Une étude de McAfee sur les noms de domaine nationaux et génériques qui sont analysés et classés en fonction de leurs dangers potentiels.

Statistiques Firefox Mars 2007
Le taux dutilisation de Firefox selon le baromètre Xiti Monitor.

Référencement et arnaques
Selon un article du JDN.

L'année Internet 2006
Une étude de Médiamétrie sur "L'Année Internet 2006".

Extension FireFox : Google Webmaster Tools External links ++
Qualifier les liens de "Webmaster tools".

Eye-tracking et recherche Web : acheteurs et chercheurs d'info lisent différemment
Une étude sur la lisibilité optimale d'une lecture d'un résultat de recherche.

Les cybermarchés plus cher que les grandes surfaces
Selon une étude, les cybermarchés seraient 13.4 % plus chers en moyenne que les GMS.

La limite des mots-clefs et le web sémantique
Au fur et à mesure que le web va devenir plus important et plus complexe, la productivité de la recherche par mots-clefs va rapidement décroître...

User-agent cloaking et IP cloaking (Détecter le cloaking)
Quelques astuces...

Extension FireFox : User Agent Switcher
Une extension qui permet de modifier la chaîne d'identification User Agent de Firefox .

Les couleurs Web 2.0
Exemples de palettes de couleurs dites du Web 2.0.
Liens Les archives du blog Webmaster Toulouse
Par Régis - blog Webmaster Toulouse [11/04/2007]

Régis

Régis

 

Boutique piscine : Batipole se lance !

Un catalogue de vente dans Batipôle, c'est une première, pourquoi avoir choisit le domaine de la piscine ? Les internautes sont friands d'informations fiables et vérifiées. Ils accordent leur confiance à ceux qui peuvent les renseigner et leur proposer un contenu qui répond à leurs questions, surtout dans un domaine aussi technique que les piscines, qui est devenu un facteur de succès incontournable pour un portail en ligne. En effet le portail de Batipôle.com combine le catalogue piscine et les conseils de vrais professionnels au sein de notre équipe. Outre le fait de proposer des produits pour l'entretien courant des bassins ou pour le confort de l'utilisateur, l'internaute va aussi trouver des conseils pertinents sur l'utilisation des produits et des équipements pour la piscine. Un fort accent est mis sur la sécurité et les couvertures qui permettent une protection maximale du bassin. Et enfin un large choix de spas de très bonne qualité avec une gamme de prix étendue, ainsi que toute une gamme d'accessoires ludique pour la piscine. Qu'est ce que Batipôle ? Batipôle.com cest tout d'abord une marque de la société Agoranet.fr, agence conseil en communication interactive. Une partie de notre équipe est composée de personnes issues de la communication spécialisée pour le BTP et qui par passion ont eu l'idée de départ de créer un moteur de recherche et un annuaire sur Internet, efficace, pratique, et innovant, permettant de se renseigner sur l'ensemble des références ayant un lien avec le Bâtiment et la Construction. Aujourd'hui Batipôle.com c'est : Un Moteur de Recherche Thématique dédié aux métiers du Bâtiment et de la Construction qui permet à lutilisateur de trouver un produit, une entreprise, ou un contact à la fois au travers dune actualité et/ou dans lannuaire. Les recherches peuvent s'effectuer soit directement sur le moteur de recherche, soit par thèmes, Un Forum, qui permet aux professionnels et au grand public déchanger leurs connaissances et de se renseigner sur les thèmes de la Construction et du Bâtiment, Des Actualités, qui permettent de suivre les dernières informations des métiers du Bâtiment et de la Construction, de découvrir un nouveau produit ou le dossier thématique, Un Agenda pour être au courant des prochains événements de la profession, Une Newsletter diffusée à 8 000 exemplaires, Une rubrique Formation et Emploi, qui dune part donne toute linformation utile lorsque lon est en recherche dune formation, et qui dautre part vous met en relation avec les dernières offres demploi du marché, en partenariat avec keljob.com, Une rubrique Appels d'offres en partenariat avec e-marchespublics.com, qui permet de consulter les appels doffres diffusés par les collectivités locales. Des Liens Utiles et Pratiques vers des organismes détat vous donnant accès aux réglementations, normes. Le club des pros vous permet de communiquer sur vos produits et d'informer sur les événements qui concernent votre activité ou votre actualité.

lafleur

lafleur

 

Social bookmarking

Introduit par des sites tel que "del.icio.us", les bookmarks sociaux permettent à un internaute de sauvegarder ses favoris (signets) directement sur les serveurs d'un site de bookmarking. L'internaute classe ses bookmarks grâce à des tags (ou mots-clés, libellés) et peut les rendre visibles aux autres utilisateurs. Les internautes peuvent effectuer des recherches sur les tags afin de découvrir de nouvelles informations, de nouveaux sites les plus populaires. Le plus souvent, un nuage de tags (tags cloud) aide à la recherche. Folksonomie On parle parfois, aussi, de folksonomie. Il s'agit de la contraction des mots "folk" (gens) et "taxonomies" (système hiérarchisé). Autrement dit, la folksonomie fait référence à une liste de mots-clés collectifs. Intérêt Le bookmarking vous permet, donc, d'externaliser vos signets.
Vous pouvez travailler vos tags et "anchor text"...
Vous faites connaître vos liens...
Sites français Bookmarks
Mister Wong
Blinklist vF et Blinklist vO
Blogmarks
Mikiwi
Coomcoom
Sezame
Bookeet
et d'autres , encore : Plpage, MesFavoris, Kopikol, ...
Ask vF propose, aussi, de partager vos bookmarks : Ask
Sites anglophones Delicious
Magnolia
Reddit
et autres...
Yahoo propose, aussi, de partager vos bookmarks : Yahoo
Liens Wikipedia (fr) : "Bookmark"
Wikipedia (fr) : "Folksonomie"
Par Régis - blog Webmaster Toulouse [09/04/2007]

Régis

Régis

 

Interview Vente Discount

Interview du site d'achat en ligne "Vente Discount" Webmaster Hub a publié une interview de P.Petrowski du site d'achat en ligne "Vente Discount" intitulé l'Achat en ligne - Comment faire le bon choix ? Vente Discount est un site comparateur de prix réalisé par la Société Oxelia. De lélectroménager, à lhabillement, en passant par la Hifi, linformatique, les loisirs, le mobilier, loutillage, la téléphonie : une grande sélection de produits au meilleur prix... Une nouvelle fois, Webmaster Hub nous gratifie d'une interview sans langue de bois, avec des chiffres et de vraies infos. Vente Discount, partenaire de W3 Campus Le site d'achat en ligne Vente Discount a été un des partenaires de W3 Campus 2007 (séminaire e-commerce, marketing, référencement, webmaster) Liens Interview de Webmaster Hub (05/04/07) : "achat en ligne "Vente Discount""
Le site d'achat en ligne "Vente Discount"
Les réactions à l'interview du site d'achat en ligne "Vente Discount" sur le forum Webmaster Hub
[achat en ligne] [interview] [Vente Discount] Par Régis - blog Webmaster Toulouse - Interview Vente Discount

Régis

Régis

 

Eye-tracking

Eye-tracking En Janvier 2007, Microsoft a publié une étude sur leye-tracking "An eye-tracking study of information usage in Web search : Variations in target position and contextual snippet length. Le JDN (29/03/07) a repris cette étude et a réalisé un dossier "Comment les internautes lisent les résultats de recherche". Lecture linéaire Les internautes lisent linéairement les résultats dun moteur de recherche. En moyenne, ils lisent le premier résultat durant 2,2 secondes contre 0,2 seconde à 0,3 seconde pour le dernier. Le taux de clics est de 84 % sur les positions 1 et 2 pour être de 11% pour la 8ème position. La majorité des internautes visualisent 3 à 4 résultats et sils ne sont pas satisfait passe à la page suivante sans même cliquer sur un résultat.. La position influence surtout les recherches d'information Lorsque linternaute recherche une page précise, le taux de clic est de 78% sur la 1ére position alors quil est de 89% pour une recherche dinformation. Mais il est de 83% pour la 2nde position contre seulement 33% lors dune recherche dinformation pour atteindre 6% à la 6ème position. Cela pourrait sexpliquer par la confiance que les internautes ont dans la pertinence du classement effectué par les moteurs de recherche dans le cas de la recherche dinformation. De plus, un résultat non vu car situé trop bas dans la page va inciter les internautes à cliquer sur le premier, y compris si celui-ci n'est pas le bon. La taille du résumé Outre la position du résultat dans la page, la taille du résumé joue également un rôle important dans la visibilité des résultats ainsi que sur le taux de clics. Selon létude, sil s'agit de mettre en avant un site sur les moteurs de recherche, mieux vaut compter sur un résumé court. Alors que lorsque l'on veut mettre en avant une information, il est plus judicieux d'essayer d'obtenir sur les moteurs un résumé long. Liens Source Microsoft (01/2007) : "An eye-tracking study of information usage in Web search : Variations in target position and contextual snippet length"
L'étude( format .pdf ) : "An eye-tracking study of information usage in Web search"
Le JournalDuNet (29/03/07) : " Comment les internautes lisent les résultats de recherche"
Définition Wikipedia ( En ) : "Eye-tracking"
Définition Wikipedia ( Fr ) : "Oculométrie, eye-tracking"
On en discute sur le forum Webmaster Hub - Nouvelle étude Eye-tracking
Voir, aussi, cette autre étude sur le blog Webmaster Toulouse "Eye-tracking et recherche Web"
[eye-tracking] [internautes] [moteur de recherche] Par Régis - blog Webmaster Toulouse

Régis

Régis

 

Spam Report Google

Google Spam Report L'Official Google Webmaster Central Blog a fait une mise au point sur le Spam Report, ce 28/03/07. Google y explique comment les "Spam Report" sont exploités. 2 types de "Spam Report" Le Spam Report anonyme via ce formulaire
Le Spam Report authentifié grâce aux Outils Google pour Webmasters
Chacun des "Spam Report" authentifiés sont étudiés. La majorité des "Spam Report" non authentifiés sont étudiés et évalués en termes d'impact. 3 questions fréquentes sur le "Spam Report" (NB : traduction partielle et arrangée via le traducteur de Google) ** Que fait Google lors dun "Spam Report" authentifié ? Un "Spam Report" authentifié est analysé puis utilisé pour évaluer les nouveaux algorithmes de détection de spam et pour identifier des tendances du spam sur le Web. Le but étant de détecter automatiquement tous les sites effectuant ces tentatives de manipulation et s'assurer que les algorithmes classent ces sites de manière appropriée. ** Pourquoi n'y a-t-il, parfois, aucune conséquence immédiatement visible à la suite d'un "Spam Report" ? Google cherche toujours à améliorer ses algorithmes pour parer le webspam, mais nous agissons également sur différents rapports de Spam. Parfois l'action ne sera pas immédiatement évidente à un utilisateur extérieur, mais il est inutile de soumettre plusieurs fois un "Spam Report" afin que Google évalue l'URL. Il y a de différentes raisons qui pourrait expliquer une impression fausse d'userŽs qu'un rapport particulier de Spam est passé inaperçu. Voici quelques unes de ces raisons : - Google gére, déjà, la situation. Par exemple, si un site faisant dexcessif échanges de liens, fait l'objet d'un "Spam Report", il est possible que Google atténue déjà le poids de ces backlinks immérités mais que le site en question soit bien positionné pour dautres raisons et une modification dans la manière dont Google prends en compte ces backlinks nest pas immédiatement évidente aux utilisateurs. Ou bien, encore, il se peut que Google gère des pratiques comme le "keywords stuffing" correctement dans la façon de positionner les sites, et donc ne se sente pas particulièrement concerné. - Une exclusion complète des résultats de recherche de Google est, seulement, une des conséquences possibles d'un "Spam Report". Google peut donner, aussi, un carton jaune afin que le site ne puisse être trouvé dans lindex pour une courte période. Si le webmaster ignore cet avertissement, alors un carton rouge peut être donné, avec des effets plus durables. Ainsi, il est possible que Google soit déjà au courant au sujet du problème mais que Google communique avec le webmaster concerné ou que Google ai agi dune autre façon quune simple désindexation. - Parfois, la patience est la réponse, car cela prends du temps pour que les changements dans les algorithmes soient minutieusement testés ou que le PageRank soit mis à jour. - Ce peut être, également, le cas lorsque Google travaille à résoudre un problème de manière plus générale, et que Google ne soit pas disposé à agir sur une situation individuelle. - Un "Spam Report" a pu juste avoir été considéré comme injustifié. Par exemple, lorsque la motivation du "Spam Report" semble être de nuire à un concurrent direct. ** Y a-t-il un retour suite à un "Spam Report" ? Google préfére utiliser son temps à étudier les "Spam Report" et à améliorer les algorithmes mais est ouvert pour éventuellement améliorer la communication avec les utilisateurs. Liens Source Official Google Webmaster Central Blog (28/03/07) : "An update on spam reporting"
[spam report] [Google] Par Régis - blog Webmaster Toulouse - Spam Report Google

Régis

Régis

 

Abri de piscine : comment choisir

L'abri de piscine est solution pour sécuriser et profiter plus longtemps de son bassin. Les parois vitrées de l'abri créent un effet de serre, ayant pour action d'augmenter la température de l'eau. La structure d'un abri est généralement construite en aluminium. Ce matériau permet de réaliser des formes en voûte ou des formes angulaires. La plupart des matériaux utilisés sont traités anti-UV pour mettre les baigneurs à l'abri des coups de soleil. Par ailleurs, une piscine équipée d'un abri ne nécessite généralement pas d'hivernage. La norme NF P 90-309 concernant les abris définit principalement que : - l'abri doit rendre le bassin inaccessible aux enfants de moins de 5 ans quand il est entièrement fermé. - il doit disposer d'un système d'ouverture demandant deux actions consécutives ou simultanées pour le déverrouillage (ou un seul si la serrure est située à plus de 1,6m du sol). L'abri haut fixe Cet d'abri permet de bénéficier de la piscine pendant une majeure partie de l'année. L'effet de serre conserve l'eau à une bonne température très longtemps. L'abri haut doit cadrer parfaitement avec l'esthétique de la piscine et de la propriété. Il est conseillé de prévoir en complément de cet abri une couverture qui limitera l'évaporation. L'abri haut télescopique Cet abri peut se replier suivant plusieurs degrés d'ouverture, à moduler selon les besoins des baigneurs et la saison. Certains abris télescopiques disposent de rails au sol, tandis que d'autres utilisent de simples roulettes. Pratiques, la plupart de ces abris sont disponibles en version motorisée. Certains abris télescopiques sont aussi appelés "abris relevables". Ce sont ceux dont une partie peut être relevée grâce au moyen de jambes télescopiques ou à vérins. L'abri bas télescopique Comme pour l'abri haut, il peut se replier pour permettre une baignade à ciel ouvert, mais sa hauteur ne dépasse pas un mètre. L'abri bas amovible Cet abri peut être retiré entièrement chaque fois que c'est nécessaire. A la fois léger et maniable, les panneaux se rangent facilement. L'abri bas amovible s'harmonise généralement bien avec l'environnement de la piscine. L'abri gonflable La technique pour ce type d'abri est la suivante : une toile transparente en PVC, remplie d'air, forme une bulle protectrice au-dessus de la piscine. L'appareil est maintenu au sol par des câbles ou des boudins lestés, tandis qu'un sas est prévu pour accéder à la piscine. Le rangement est facile pour ce type d'abri.

lafleur

lafleur

 

AdSense pour les Recherches

Nouveau programme "AdSense pour les Recherches" Webmaster Hub a été sélectionné par Google pour participer à un nouveau programme "AdSense pour les Recherches". Ce nouveau programme permet dafficher des annonces AdSense pour des Recherches sur des pages de résultats issues de recherches indépendantes de Google. Les annonces ciblées sont affichées par rapport aux mots-clés recherché via le formulaire du site. Ce programme permet une meilleure pertinence des annonces AdSense affichées. Selon Webmaster Hub, le CTR (Click Through Rate) devrait sen trouver amélioré. Liens Annonce du "Nouveau programme Adsense en test" par Webmaster Hub
Tester ce nouveau programme de recherches AdSense sur Webmaster Hub
[programme ] [AdSense ] [recherches] [annonces] Par Régis - blog Webmaster Toulouse [28/03/2007]

Régis

Régis

 

Avec Additious, diffusez le web

Additious, promouvoir ou bookmarker une URL Additious est un service francophone (cocorico !) permettant de ne pas multiplier les liens de soumissions vers des sites de bookmarking ou des digg-like. Les adeptes des blogs connaissent ces petites icônes qui fleurissent pour recommander ou partager un billet sur un portail collaboratif d'informations (social bookmarking) : Digg-likes et autres Fuzz-likes, Del.ico.us et autres Blogmarks... Avec Additious, c'est simple : il n'y a qu'un seul bouton et Additious fait le reste. Lorsqu'un internaute clique sur le bouton, il est dirigé sur une page de soumissions pour partager le billet soit sur un digg-like de son choix, soit sur un site de bookmarking de son choix. Avantage d'Additious Certains vont penser qu'Additious ne fait que déplacer les clics : à défaut de cliquer sur Del.ico.us, vous cliquez sur Additious... Certes! mais Additious : évite de multiplier les boutons envahissant,
permet à l'internaute de promouvoir le billet selon son désir,
et la liste de soumission étant externalisée, elle est toujours valide.
De plus Additious propose plusieurs couleurs de bouton pour une meuilleure intégration. Liens Le site Additious
Les boutons Additious
Le blog Additious
[billet] [bookmarking] [blog] Par Régis - blog Webmaster Toulouse - Additious

Régis

Régis

 

Cartographie du Web malveillant

Cartographie du Web malveillant McAfee vient de publier une étude "Mapping the Mal Web" où 265 grands noms de domaine nationaux (.fr, .de, etc.) et génériques (.com, .net, etc.) sont analysés et classés en fonction de leurs dangers potentiels. Lévaluation du risque de sécurité des sites a été réalisée grâce à la base de données de McAfee SiteAdvisor sur la sécurité du Web qui répertorie 8,1 millions des sites Web les plus visités, soit 95 % du trafic Web. Les tests portent sur une grande variété de comportements indésirables. McAfee SiteAdvisor Site Advisor est une application qui propose des indicateurs de dangerosité des sites Internet : vert pour un site inoffensif, jaune pour des pratiques douteuses, et rouge pour les sites considérés comme dangereux (vecteurs de spam, de logiciels espions, pop up en masse ou affinités avec d'autres sites classés en rouge). Principales conclusions 4,1 % des sites testés par SiteAdvisor sont classés rouges ou jaunes. Cependant, le pourcentage de sites rouges et jaunes varie considérablement entre les domaines de premier niveau, allant de 0,1 % pour la Finlande (.fi) à 10,1 % pour la petite île de Tokelau (.tk). Parmi les grands pays, les plus risqués sont la Roumanie (.ro, avec 5,6 % de sites à risque) et la Russie (.ru, avec 4,5 % de sites à risque). Ces DPN de pays présentent la plus grande probabilité dhébergement de sites dexploitation de vulnérabilités.
Avec 7,5 % de sites à risque, .info est le DPN générique le plus dangereux. Le domaine .com se trouve être le deuxième DPN générique le plus dangereux, avec 5,5 % de sites à risque.
Parmi les cinq DPN de pays les moins risqués se trouvent les pays nordiques : la Finlande (0,10 %), la Norvège (.no, 0,16 %) et la Suède (.se, 0,21 %). L'Islande (.is, 0,19 %) et l'Irlande (.ie, 0,11%) complètent ce top 5 des DPN de pays les moins risqués.
Le seul DPN fréquemment testé par SiteAdvisor et ne présentant aucun site à risque est .gov. Le domaine .gov est accessible uniquement aux agences gouvernementales américaines.
Bien que le DPN .com ne se trouve qu'au 5ème rang des domaines les plus dangereux, son énorme popularité accentue considérablement son impact sur la recherche et la navigation sur le Web. 86,6 % des visites de sites classés rouges ou jaunes concernent des sites en .com.
Bien que les Pays-Bas (.nl), l'Allemagne (.de) et le Royaume-Uni (.uk) soient tous trois relativement sûrs, se plaçant aux 31ème, 33ème et 51ème rangs des domaines les plus risqués, chacun de leur DPN reçoit plus de 2 millions de visites de sites rouges et jaunes par mois. Il en va de même pour le Japon (.jp) classé 57ème et dont les sites classés rouges et jaunes reçoivent environ 1,6 millions de visites chaque mois.
Mais pourquoi certains domaines sont-il plus dangereux que d'autres? Cela peut s'expliquer par la gratuité ou, en tout cas, le faible coût de l'enregistrement des noms de domaines. Nombreux sont aussi les domaines qui ne bénéficient pas d'une surveillance permanente, ou tout du moins régulière. Liens Source SiteAdvisor (12/03/07) : "Mapping the Mal Web"
L'étude en français Cartographie du Web malveillant (format .pdf)
On en discute sur le forum Webmaster HUB - Cartographie du Web malveillant
[McAfee SiteAdvisor] [web] [sites] Par Régis - blog Webmaster Toulouse - Cartographie du Web malveillant

Régis

Régis

 

Stats Firefox Mars 2007

Statistiques Firefox Mars 2007 Selon le baromètre Xiti Monitor, le taux dutilisation de Firefox serait, début mars 2007, de 24,1% en Europe. Il était de 19,4% en avril 2006. En France, Firefox représenterait 22,3% de part de marché pour 20,7% en 2006. Liens Source Xiti Monitor : "Firefox à la frontière des 25% dutilisation en Europe"
[Firefox] [Statistiques] Par Régis - blog Webmaster Toulouse

Régis

Régis

 

Référencement et tricherie

Référencement et arnaques Selon un article du JDN "Le cloaking nest plus qu'un lointain souvenir. (Mais) de nouvelles techniques ont pris le relais : faux contenus, splog, liens massifs". A l'heure du développement durable et de l'environnement, le "référencement propre et durable" aurait pris le pas (?) sur les techniques de cloaking et des pages satellites. Apparemment moins nombreux, les blacks hats du référencement emploieraient de nouvelles techniques en utilisant "à l'excès les critères des moteurs pour arriver à se positionner" grâce, essentiellement, au contenu. Une des illustrations en est l'utilisation massive de mots clés, une autre, le splog (blog satellite) : "les détenteurs d'un site créent un ou plusieurs blogs sur un domaine particulier, ajoutent divers contenus ciblés et créent des liens vers leur propre site." Mais les spécialistes du référencement sont unanimes : les cas de sites professionnels utilisant des techniques spammantes sont désormais rares. Nota : dans un billet récent Matt Cutts (10/03/07) suggère aux webmasters d'empêcher l'indexation (robots.txt : Disallow) des pages de résultats pour réduire l'impact de ces pages dans l'index de Google. Et Kaspar "Official Google Webmaster Central Blog" (16/03/07), fait allusion aux pages créées artificiellement grâce, par exemple, aux sources de Wikipedia ou l'ODP. Liaison ou corrélation ? Nous avons vu, il y a quelques temps, plusieurs billets sur les blogs ou des posts sur les forums, justifier expliquer que le Black Hat SEO était parfois utile voire indispensable. Le plus souvent en raison des techniques, de la construction des sites : mais ne peut-on pas envisager de construire le site autrement ? En tout cas, Google semble décidé, du moins dans les mots, à effectuer un ménage... Par les temps qui courent, les Black Hat réfenceurs auraient-ils intérêt à se montrer plus "white" ? Le noir ne serait pas si noir... bientôt, nous allons sûrement lire que le blanc n'est pas si blanc... : ce sera le ying / yang du référenceur. Syllogisme ? Un c'hat est un c'hat. Donc, un c'hat blanc est un c'hat blanc Et un c'hat noir est un c'hat noir. Liens Source : JournalDuNet (16/03/2007) - "Les nouvelles arnaques au référencement"
Matt Cutts (Google, 10/03/07) - "Search results in search results"
Kaspar (Google, 16/03/07) - "Site content and use of web catalogues"
JournalDuNet (13/03/2007) - "Google contre les pages de résultats dans ses résultats"
Blog - Détecter le cloaking IP
Publication Webmaster Hub - Le référencement une affaire de professionnel ?
Discussion On en discute sur le Forum Webmaster Hub - Référencement et tricherie
[référencement ] [cloaking ] [splog] [blog] [webmaster] Par Régis - blog Webmaster Toulouse

Régis

Régis

 

Année Internet 2006

L'année Internet 2006 Selon létude "L'Année Internet 2006" de Médiamétrie, le nombre de créateurs de blogs a pratiquement doublé en un an, passant à 4 millions de français pour 2006. Un blogueur européen sur trois est français. D'autre part, 31,4% des "internautes assidus" sont créateurs de contenus multimédia (blogs, etc). Une grande majorité d'entre eux (81,1%) participent à la croissance de ces contenus : votes, commentaires, avis, etc. Les 3/4 des blogueurs ont moins de 25 ans, le nombre de retraités à utiliser Internet a augmenté de moitié par rapport à 2005, et d'un tiers pour les 35-49 ans. Les sites communautaires de partage de contenus ont connu un vrai succès : le nombre d'internautes ayant consulté un site de vidéo ou de cinéma a augmenté de 75% entre 2005 et 2006. Lachat en ligne a progressé de 32% par rapport à 2005 et un foyer sur deux dispose d'un ordinateur. Les connections "haut débit" ont augmenté de 27% en 2006. Liens Source Médiametrie (14/03/2007) : "L'Année Internet 2006"
[internet] [internautes] Par Régis - blog Webmaster Toulouse

Régis

Régis

×