-
Compteur de contenus
1 511 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Americas
-
En général il y a des règles dans l'affichage au CPM. Afficher 30.000 pages ne neut pas dire que tu auras 30.000 affichages de bannières ou autres formats publicitaires. En général les annonceurs fixent un "capping" à leurs campagnes publicitaires. Si tu es accepté par Adverline ils t'enverront des mails pour te signaler l'affichage de telle ou telle campagne sous tel ou tel format. Ils te préciseront par exemple que l'annonceur "duchmol" diffuse une campagne au CPM avec un capping de 3... cela veut dire qu'un visiteur ne verra s'afficher que 3 fois cette publicité "duchmol" et cela même s'il visite 10 pages de ton site. Le capping peut varier d'un annonceur à un autre. Certains font des capping de 1 par jour... d'autres de 3 par semaine. Tout cela est décidé par l'annonceur.
-
Adverline s'était au départ spécialisée dans le CPM. Ils proposent depuis déjà quelques temps des campagnes au CPC. Si ton site est bien construit et attire un trafic honête... tu peux toujours leur soumettre ta candidature. Les campagnes au CPm tournent en général autour de 0,7 à 1,2 ... parfois plus en fonction de la cible et de la catégorie du site affilié.
-
Indexation d'urls inexistantes
Americas a répondu à Americas - Forum : Fichier .htaccess et réécriture d'URLs
Oups ! J'avais complètement zappé l'astuce de Jeanluc avec son code quand tu as disais que la doc Apache ne le permettait pas. J'ai mal lu la combine... désolé Jeanluc Avec ça : RewriteRule .* page-ki-nexiste-pa.html [QSA,L] ça fonctionne parfaitement et ça me renvoie sur la page d'erreur 404 Bravo -
Indexation d'urls inexistantes
Americas a répondu à Americas - Forum : Fichier .htaccess et réécriture d'URLs
C'est bon maintenant... j'ai la solution en partenariat avec un autre forum Elle est ici : http://forum.taggle.org/viewtopic.php?pid=17094#p17094 En fait... il faut modifier le code de l'index.php du script de l'annuaire. C'est un truc qui peut sûrement intéresser ceux qui utilisent ce script car j'ai fait le test sur de nombreux sites qui l'ont... et toutes les fausses urls sont redirigées vers l'index avec un code 200 et c'est pas très bon pour l'indexation ça. Par contre... si quelqu'un trouve la solution avec le htaccess... je suis preneur -
Indexation d'urls inexistantes
Americas a répondu à Americas - Forum : Fichier .htaccess et réécriture d'URLs
C'est pas vraiment le but recherché si je veux que Google indexe l'annuaire Oui... ça serait la solution la plus simple... renommer le répertoire de l'annuaire pour ne plus ête ennuyé par les anciennes urls indexées par Google. Mais là également, le but était de bénéficier du PR de l'ancien index de ce répertoire afin d'accélerer l'indexation du nouvel annuaire. -
Indexation d'urls inexistantes
Americas a répondu à Americas - Forum : Fichier .htaccess et réécriture d'URLs
ça c'est ce que j'ai dans mon htaccess à la racine du site. Mais cela ne va pas entrer dans les règles de rewriting qui sont dans le htaccess du répertoire de l'annuaire. le problème serait plutôt de lui interdire de rediriger les urls invalides vers l'index en listant les liens réellement valides -
Indexation d'urls inexistantes
Americas a répondu à Americas - Forum : Fichier .htaccess et réécriture d'URLs
Non... si je remplace RewriteRule .* index.php [QSA,L] par RewriteRule .* http://www.americas-fr.com/index.php [R=404,L] cela me donne une erreur 500 -
Indexation d'urls inexistantes
Americas a ajouté un sujet dans Fichier .htaccess et réécriture d'URLs
J'ai un problème avec Google au niveau de l'indexation de mes pages. J'avais un annuaire DMOZ dans la rubrique http://www.americas-fr.com/annuaire/ et j'ai décidé de remplacer ce dernier par un nouvel annuaire que je crée avec PhpLinkDirectory Le problème c'est que Google continue à indexer des pages de l'ancien annuaire qui n'existe plus du tout avec des urls de ce genre : -http://www.americas-fr.com/annuaire/index.php/World/Slovensko/Reference/Izobra%25u017Eevanje/ Cette Url qui vient de l'ancien annuaire Dmoz est dirigée vers la page d'accueil du nouvel annuaire qui se trouve dans le répertoire de l'ancien, sans doute à cause des régles de réécriture donnée dans le htaccess à la racine de cet annuaire : RewriteEngine On RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_FILENAME} !-l RewriteRule .* index.php [QSA,L] Comment faire pour lui renvoyer un code 404 pour les anciennes urls ? -
Oui... c'est bien ce que j'étais en train d'expliquer. Faut lire les messages entièrement... pas en diagonale sinon on zappe l'idée principale
-
Voilà ce que j'ai dit Donc... des mots plus ou moins différents en fonction de chacune des pages. Ils ne faufrait pas que les moteurs changent leur politique et se mette à comparer les mots clés avec le contenu de la page et ensuite la pénaliser s'ils ne rencontrent pas ces mots. Bon... je doute beaucoup qu'ils y viennent... mais sait-on jamais...
-
La question des keywords a été évoquée maintes et maintes fois. Le constat est toujours le même... pour Google... ça ne sert à rien ou presque. Pour les autres moteurs... il semble qu'ils rejoignent la politique de Google. Pour les annuaires qui relèvent automatiquement les meta tags... c'est intéressant car ces mots clés servent au moteur de recherche interne de ces annuaires. Donc la réponse serait... placer quelques mots clés évocateurs du contenu de la page... cela ne prend pas beaucoup de temps... et cela peut servir dans certains cas en excluant un plus pour le référencement... dans l'absolu.
-
C'est là tout le problème. Comment un site récent pourrait-il obtenir des liens naturels venant de sites ayant autorité sur le domaine ? je prend un exemple : on crée un site immobilier, bien fait construit, avec beaucoup d'informations mais orientées vers un but commercial. Les meilleurs links viendraient alors d'autres sites traitant du même thème. Alors crois-tu qu'un site immobilier qui fait autorité va avoir envie de faire un lien spontanément vers un petit nouveau qui pourrait lui faire de l'ombre ? J'en doute... et finalement les liens que recevrait le nouveau site ont peu de chances d'être naturels et proviendraient d'échange faits avec des sites immobiliers recherchant le même but... se positionner un peu mieux. Mais dans ce cas... ce ne sont plus des sites faisant autorité.
-
Une victime d'un référenceur professionnel
Americas a répondu à Cariboo - Forum : Techniques de Référencement
Le problème c'est surtout quand un ou des moteurs décident de changer les règles sans vraiment en avertir les éditeurs. Certains webmasters utilisent des techniques connues depuis la nuit du web et d'un seul coup... sous prétexte de pertinence, on annonce que ces techniques sont prohibées et que les sites les utilisant ne vont pas... mais sont blacklistés. Certes, comme dit Gilbert, le référencement est une jungle... mais il évolue dans une autre jungle qui est le commerce sur le web. Alors que faire pour apporter de la pertinence aux résultats en limitant les pratiques occultes pour tenter de se positionner sur ces résultats ? Construire 2 Web ? Un web consacré à l'information et la détente et un autre web pour le commerce ? Les internautes auraient alors le choix de 2 supports en fonction de ce qu'ils recherchent... jedoute que cela fonctionne et que ce soit dans l'intérêt du web commercial. Google l'a prouvé en premier en utilisant Adsense comme vecteur commercial au sein même des sites d'informations. Il faudrait penser peut être à la place de chacun dans le web. Ceux qui diffusent de l'information, ceux qui vendent quelque chose et ceux qui classifient tout cela... sans qu'aucune des parties ne puissent dicter sa loi aux autres. J'ai entendu dire que certains commenceraient à attaquer Google en justice pour des blacklistages en arguant du fait que cela ne serait pas légal et que cela représentait une discrimination. Je suis aussi de cet avis, même si comme beaucoup d'entre vous je ne supporte pas le spam provenant de certains sites... mais c'est au moteur de s'adapter en modifiant ses filtres mais en aucun cas en s'arrogeant le droit d'éliminer le site en question de son index. -
Google reprend souvent la Meta Description dans ses pages de résultats surtout si elle correspond très bien au contenu de la page ou des pages qui lui sont liées au cas où celle-ci aurait un contenu un peu faible. J'ai même constaté que les mots clés avaient plus de poids quand ils se répétaient dans le tite et la description et que cette description apportait un complément d'informations au titre. Ignorer la Meta Description peut amener Google à considérer la page comme similaire à d'autres pages faibles en contenu et sans meta description elles aussi.
-
Et c'est pas demain qu'il va arriver sur la Canebière si on en juge la localisation géographique de ceux qui ont pu le voir Sébastien, Portekoi sont au Nord, près de Monique en Belgique... les rares qui ont pu observer ce nouveau mystère Roswell.
-
Pas tout à fait d'accord. Un répertoire à l'avantage de s'indexer plus vite qu'un sous-domaine... c'est certain, mais le sous-domaine bénéficie d'un plus que ne possèdera pas un nouveau ndd... tout du moins c'est ce que j'ai constaté chez moi. J'arrive à référencer beaucoup plus rapidement un sous-domaine qu'un nouveau ndd... donc l'influence du domaine principal doit être réel. En ce qui concerne le répertoire, je pense également que cela peut être un bon choix car il ne faut pas négliger les backlinks internes qui apportent beaucoup au positionnement du site.
-
Le principe je l'ai parfaitement compris. D'ailleurs loin de moi l'idée de vouloir intégrer tous les mots d'une page dans la liste des mots clés. Je veux seulement dégagé les principaux... sinon j'aurais repris la bbd de mon moteur pour essayer d'en faire quelque chose. C'est un script en open source dont j'ai besoin pour cela. J'ai vu le comportement d'Alexandria sur la façon de gérer les mots clés... mais le script n'est pas Open Source.
-
C'est bien ce que je dis... Je n'utilise pas de CMS. Mes pages sont pratiquement toutes codées en html. J'utilise des bdd que pour des cas très précis.
-
Non... la plus grande partie de mon contenu ne provient pas d'une base de données comme c'est le cas pour ceux qui utilisent des CMS. C'est assez dingue ça... j'ai cherché pendant des heures... en anglais et en français... et pas moyen de mettre la main sur une explication de la technologie utilisée par ceux qui font de la pub contextuelle.
-
Je cherche depuis pas mal de de temps un script qui génèrerait des liens contextuels automatiquement, un peu dans le style de ClickinText ou IntelliTxt. La démarche est la suivante : J'ai par exemple un site qui parle des poissons d'eau douce. Sur une page, je souhaite que les mots "truite", "saumon", "perche", "carpe", etc... soient liés automatiquement avec mes pages truite.html, saumon.html, perche.html, carpe.html, etc... Je placerais donc un code javascript dans le header des pages où je veux voir apparaître les liens qui proviendraient d'une base de données alimentées par des mots clés avec une url associée à chacun... ou plusieurs urls en rotation. Pour l'utilisateur, même principe que chez Intellitxt, affichage d'une infobulle en survolant le lien aavec la souris et redirection vers la page en cas de clic. Alexandria à un script dans ce style, avec affichage de popup ou infobulle en DHTML. Intéressant pour le référencement donc. Vous avez des idées sur la question ?
-
Et dans le même genre il y a IntelliTxt ... des liens contextuels qui s'affichent en infobulle au survol de la souris. C'est discret mais ça peut être efficace... surtout sur des pages où les visiteurs suivent les liens.
-
Dans tous les cas... une chose est sûre, il vaut mieux comme le souligne Le Juge faire deux parties bien distinctes pour les deux langues, et pour plusieurs raisons : 1. Les visiteurs d'une des deux langues ne seront pas perdus et s'orienteront plus facilement dans l'arborescence de la partie du site qui leur est dédiée. 2. Les pages internes d'une même langue bénéficieront d'un "poids" plus important pour le référencement dans les moteurs car elles seront dans la même sémantique. 3. Si tu places des annonces contextuelles, elles seront plus ciblées dans des pages d'une même langue que sur des pages mixtes.
-
C'est ce qu'aurait parait-il laisser sous-entendre le fameux Matt Cutts... sans la moindre gêne... comme si Google décidait de ce qui est bien ou pas. Non seulement, il impose une certaine organisation des sites pour être bien référencé... mais en plus il voudrait s'octroyer le droit de juger si telle ou telle page commerciale doit être correctement indéxée. On file droit vers l'abus de pouvoir ! Dans peu de temps, seules les pages qui afficheront des Adsense, et uniquement des Adsense auront le "privilège" d'être bien positionnées
-
Google ou la perplexité tous les jours
Americas a répondu à sébastien971 - Forum : Techniques de Référencement
Un petit bug ? ... Un gros bug je pense On a souvent vu des pages remontées ou descendre dans les résultats en fonction de reprise de vieux index, mais là, c'est l'anarchie la plus complète. Je vois des caches vieux de plus de 8 mois sur certaines pages et l'apparition de pages qui n'existe plus depuis belle lurette dans les résultats. On va voir fleurir une floppée de 404 dans les jours à venir. Il est plus étanche Google... ses index semblent se mélanger au lieu de se remplacer -
Tu as fait ce que je t'ai dit Gribouille ? Tu as copié le fichier image sur ton disque ou tu as fait le lien directement vers l'image ? Moi je préfère faire un lien vers l'image. Certains diront que s'ils changent l'emplacement des images faudra refaire tous les liens, mais vu la taille de leur bdd, ils vont pas s'amuser à tout modifier. A droite du lien ils disent : Enregistrez cette image sur votre serveur puis coupez et collez le code HTML dans la zone de texte située en bas à gauche sur votre page Web.