Aller au contenu

thick

Membre+
  • Compteur de contenus

    3 093
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

6 Neutre

À propos de thick

  • Rang
    SEO & Blogueur

Pour me contacter

  • Mon Site
    http://www.laurentbourrelly.com/

Information du profil

  • Genre
    Homme
  • Localisation
    Andorre
  1. thick

    Problème avec un SSD

    Je ne sais pas pour PC, mais pour mon Mac Pro, j'ai acheté un adaptateur pour l'installer à la place d'un des drives DVD.
  2. Perso, je pense que ça dépend du site. Pour un forum, blog ou site édito, c'est un énorme confort pour l'utilisateur de disposer d'une version mobile. Pour un site e-commerce, une app dédiée est plus efficace. Je suis revenu des sirènes du responsive web design. C'est un désastre pour la conversion (clic pub ou achat). De l'autre côté, ça me gave les sites édito qui poussent leur app de merde, dès qu'on se connecte via mobile. Bref, je ne crois pas que ça soit la techno qui pose problème, mais ce qu'on en fait. Remarque, ce n'est pas nouveau. En tout cas, c'est un domaine fascinant, qui est encore en friche; il faut explorer.
  3. Majestic SEO c'est le Citation Flow et Trust Flow et non le trustrank. Ce sont des concepts très intéressants. Plus d'infos => http://blog.majesticseo.com/fr/fonctionnalites/interpreter-trust-flow/
  4. thick

    Sitemaps (encore)

    Le sitemap xml n'a absolument aucun impact sur le référencement ou même l'indexation; c'est uniquement un outil de contrôle. Eventuellement, cela permet aux moteurs de découvrir des nouvelles URLs, mais cela ne va pas palier à un déficit d'architecture/maillage interne. Par contre, le sitemap HTML est toujours très utile, pourtant il est trop souvent oublié. Sinon, aucun problème pour les "gros" sites. Par contre, il faut découper le sitemap avec une limite max de 50 000 URLs et 10 Mb. Gaffe aussi à la perf pour que ça charge rapidement.
  5. thick

    Google supprime à nouveau 10 services

    Perso, hormis sortir de la Google dépendance en SEO, je fais un effort pour ne plus utiliser leurs outils. Il me reste encore Feedburner à gicler, mais je n'ai plus un besoin vital de Google pour ma vie numérique. En plus des services et outils cités, je rajoute la régie d'affiliation, Google Checkout (remplacé par Google Wallet) et surtout la fonction de téléchargement dans Google Code (vraiment WTF !!!). Il y a aussi toujours les mauvaises surprises liées à l'utilisation de l'API et l'incompréhension générale par rapport à la fermeture de Google Reader.
  6. thick

    Conseil en soft referencement.

    Je ne vois pas du tout en quoi une action manuelle serait différente d'une automatique. C'est l'empreinte qu'on laisse qui importe, mais pas du tout le moyen utilisé. On peut faire à la main bien plus crade qu'en automatique...
  7. La détection du pays ou du user agent c'est le mal absolu en référencement multilingue. La bonne pratique consiste à déterminer une langue parent, qui sera affichée sur la page d'accueil. Ensuite, des drapeaux ou autres systèmes seront mis à disposition pour que l'utilisateur choisisse une autre langue enfant, s'il le souhaite. Aucune technique ne va diriger automatiquement dans une langue ou une autre. Un très bon Whiteboard Friday de Rand (SEOmoz) sur le sujet http://www.seomoz.org/blog/international-seo-where-to-host-and-how-to-target-whiteboard-friday
  8. thick

    Grosse chute de positionnement

    Ca c'est Penguin et il ne s'est pas manifesté depuis 5 ou 6 mois. Cependant, il y a une infinité de pénalités et surtout causes d'une chute du positionnement. Ces 2 animaux du Google Zoo n'en sont que la trace la plus connue. Les filtres sur des thématiques de "mauvais voisinage", dont le porno fait partie, sont très aiguisés. Le site peut tout à fait être tombé sur un filtre destiné à une thématique plus rock n' roll, que son concept originel. Ensuite, le mal se répand comme la gangrène au sein du site, alors qu'il est entré par une porte en particulier.
  9. thick

    Ajax avec jQuery et JSON

    Merci pour ce tuto simple et efficace comme j'aime. Je suis loin d'être versé dans les choses du JS et pourtant j'ai tout compris
  10. Le seul moyen d'empêcher un moteur de venir fouiner (il ne respecte pas le robots.txt), c'est login+pass (avec .htpasswd par ex). A moins qu'il ne fasse un Brute Force, ça devrait freiner ses ardeurs.
  11. Les avis d'utilisateurs comptent pour beaucoup. Bien sûr, ils ne faut pas qu'ils soient bidons, mais c'est un gros facteur.
  12. thick

    Stratégie Adsense

    D'autres sites de la même thématique ? Sinon, tu peux "interdire" certains annonceurs d'apparaître chez toi. Globalement, il faut que la page traite du sujet en corrélation avec la pub qui va s'afficher. Le système est simple et sophistiqué à la fois, mais rappelle toi que c'est seulement un algorithme qui va jauger de la pertinence, donc il faut lui faciliter le travail.
  13. thick

    Stratégie Adsense

    Je pense que le problème est plus profond. En effet, les pubs affichées ne sont pas en corrélation avec le contenu. Je suppose qu'il n'y a pas assez d'annonceurs sur ta thématique. Même en optimisant le placement, il faut que les annonces soient intéressantes pour le visiteur.
  14. thick

    cms lent

    Je n'ai qu'un mot pour vous révolutionner la perf : https://www.varnish-cache.org/
  15. thick

    Qwant : Parlons-en !

    Arf je perds mes reflèxes de SEO en oubliant de faire le lien :-D Merci Dan. Ce que j'exprimais en privé avec Arlette est que Qwant s'est retrouvé dans une situation délicate. D'un côté, faut lancer le moteur pour engranger de la data, mais de l'autre c'est encore plus qu'imparfait. D'où les critiques de ressemblance flagrante avec les résultats de Bing. Le pire a été le traitement par dessus la jambe des journalistes qui se sont contentés d'annoncer un Google Killer. Puis certains blogueurs se sont empressés de fusiller le bouzin, sans même chercher à comprendre les principes de base de construction d'un moteur ou d'un index. Pourtant, Google fait exactement la même chose. Récemment avec les micro-formats ou pire avec le Knowledge Graph, on voit bien que c'est pourri au départ dans le seul but d'acquérir de la data, qui permettra d'affiner les algos. Peut-être que j'ai donné l'impression d'être "pro-Qwant" dans l'itw, mais ma volonté était surtout de contrer les fausses accusations et mauvaises interprétations. Le sentiment que je voudrais véhiculer est de laisser murir ce projet, qui peut présenter des concepts intéressants. Encore une fois, ne cherchez pas le Google Killer !
×