Aller au contenu

Chercher dans la communauté

Affichage du résultat pour les tags 'réécriture'.

  • Rechercher par étiquette

    Saisir les étiquettes en les séparant par une virgule.
  • Recherche par auteur

Type du contenu


Forums

  • Accueil
    • Les nouveaux membres se présentent
    • Revues de presse
    • Le salon de Webmaster Hub
    • La tribune de Webmaster Hub
  • Publications et Redirections
    • Référencement et Publicité
    • Droit, Finances et Administration
    • Les techniques de l'Internet
    • Noms de domaines et hébergement
    • La tribune du Hub
  • Création et exploitation de Sites Internet
    • Les langages du Net
    • Les fondations d'un site
    • Accessibilité et Ergonomie Web
    • E-commerce
    • Administration & Droit
    • Systèmes de publication
  • Promotion de Sites Internet
    • Techniques de Référencement
    • Techniques de Promotion
  • Informatique & Internet
    • PC-Gyver
    • Les Navigateurs
  • Les services de Webmaster Hub
    • Infogérance serveurs dédiés
    • Partenariat et échanges de liens
    • Offres et demandes de prestations de service

Rechercher dans...

Chercher ce qui...


Date de création

  • Début

    End


Dernière mise à jour

  • Début

    End


Filtrer par...

Inscrit

  • Début

    End


Groupe


Mon Site


Skype


Localisation


Société

  1. C'est officiel : Google n'aime pas la réécriture d'urls... J'ai toujours été étonné de voir que pour beaucoup, le SEO consistait principalement à écrire des mots clés dans des urls présentées comme jolies, ou "search engine friendly". Par exemple beaucoup de CMS, qui se vantent d'être optimisés pour le SEO, n'offrent en réalité qu'une solution pour avoir des urls "SEF". Mon discours a souvent détonné, étant par expérience circonspect sur l'intérêt des SEF. J'ai souvent dit par exemple : - que le poids des mots clés dans les urls était faible dans l'algo - que pas d'url rewriting était mieux à coup sûr qu'un mauvais url rewriting - qu'il valait mieux éviter de réécrire les urls si cela engendrait des redirections compliquées ou des urls "hiérarchiques" (genre /rub1/rub2/rub3/ficheproduit.html) J'ai eu l'occasion de rappeler encore ce point de vue "prudent" sur l'intérêt des SEF urls dans la présentation que j'ai faite pour mon agence au salon ecommerce. Mais là c'est Google qui le dit ! http://googlewebmastercentral.blogspot.com/2008/09/dynamic-urls-vs-static-urls.html (les esprits mal placés, après avoir lu l'article, constateront que le blog de google ne suit pas forcément ces recommandations LOL) "Does that mean I should avoid rewriting dynamic URLs at all? That's our recommendation, unless your rewrites are limited to removing unnecessary parameters, or you are very diligent in removing all parameters that could cause problems. If you transform your dynamic URL to make it look static you should be aware that we might not be able to interpret the information correctly in all cases." A la lecture de l'article, on comprend que l'url rewriting gêne surtout Google pour crawler de manière "astucieuse" les sites. Mais est-ce que cela signifie que le "mot clé dans l'url" n'a plus de poids ? Trois hypothèses : 1. Il en a toujours. Mais Google n'en a cure, le problème du crawl est devenu plus important. 2. Il en a moins. Google juge que les mots clés dans l'url ne l'aident pas à déterminer si une page est une réponse pertinente à une requête. Dans ce cas, il peut privilégier le crawl. 3. Il en a toujours, mais Google veut que l'on distingue plus facilement les urls statiques et dynamiques, pour que les mots clés comptent dans les urls statiques et disparaissent des autres. En tout cas, on pourra noter que Google trouve les urls "SEF" plus du tout "friendly". Il va falloir les rebaptiser SEU "search engine unfriendly" lol
  2. Bonjour, Je me permet de rouvrir un autre sujet ma demande ayant bien évoluée depuis: http://www.webmaster-hub.com/index.php?showtopic=43518 J'ai abandonné l'idee de la popup et bien m'en a pris je crois. Je me suis donc tourné vers le .htaccess avec une redirection de page. (merci au hub pour le post sur le .htaccess) Voici donc ce qu'il contient : RedirectPermanent ancien.html http://www.dipbretagne.com/index.htm Donc ok j'ai ma page d'annonce ! Mais je me pose des questions. -Est ce que c'est une bonne utilisation du .htaccess ? -Cela ne va t'il pas pertuber mon referencement ? De plus je comptais indiquer à la page d'annonce un temps de fermeture au bout de 5sec par exemple et d'être redirigé vers la page d'accueil ! Pour cela j'espérais utiliser ce bout de code : <meta http-equiv="Refresh" content="5; URL=http://www.dipbretagne.com"> <meta http-equiv="window-target" content="_top"> Mais comme www.dipbretagne.com est redirigé vers la page d'annonce et bien cela ne fonctionne bien evidemment pas ! (Je tire à vue sur le 1er qui rigole Help !! Rhooo ! J'y suis arrivé ! (Je teste en même temps que je post .) Donc c'etait : <meta http-equiv="refresh" content="5;url=http://www.dipbretagne.com/index.html" /> <meta http-equiv="window-target" content="_top"> Et bien voila ! Qu'en pense les pros du web ? C'est viable ? Est ce que cela ne nuira pas à mon referencement ? (index.htm et index.html) Bien à vous,
  3. Bonjour, Mes URL sont de type page.aspx?ID=xxx (pour info il s'agit d'un framework assez touffu, je ne vais pas le révolutionner ) si le xxx n'est pas dans la base je souhaite renvoyer un 404. J'ai mis dans le web.config une redirection vers un 404.aspx en cas de 404 (jusqu'ici tout va bien) Ensuite j'ai vainement tenté des response.status = "404 not found" response.statuscode = 404; //ainsi que pleins d'autres attributs Sans parvenir à renvoyer directement des 404 au client. Ma solution pour le moment : rediriger vers un page qui n'existe pas, c'est à dire 302 -> 404; j'aiemrai idéalement renvoyer directement des 404. Quelqu'un a déjà été confronté au problème ?
  4. Salut, Je ne vois pas comment gérer mon problème. J'ai un répertoire users qui contient différents autres répertoires portant le nom de chaque utilisateur l'utilisateur accède donc à son dossier via domaine_com/users/sonpseudo/ Et j'aimerais qu'il puisse y accèder directement via son pseudo : mondomaine_com/pseudo Est ce poqqible, si oui comment ? Merci d'avance
  5. salut, je viens de déplacer un site test qui était dans un sous répertoire, vers la racine ou se trouvait l'ancien site en ligne les urls de l'ancien site en ligne se comportent ainsi http://nom.demonsite.fr/articles.php?lng=fr&pg=733 hors, je voudrais dans le htacces mettre un redirectpermanent pour renvoyer toutes ces pages (pg=xxx) vers la racine du site, donc l'accueil du nouveau site, de la forme http://nom.demonsite.fr/ j'ai déjà des règles de rewriting en url explicites pour la visibilités des pages par les moteurs de recherche pour le nouveau site en ligne. j'ai cherché comment rediriger les pages articles.php avec des wild-card ou des expressions régulières, mais je patauge un peu, malgrè mes recherches sur internet donc, quelqu'un aurait il une règle simple à me fournir??? merci d'avance albidochon
  6. Bonjour à tous, j'ai récupéré le référencement d'un site existant avec une nouvelle problématique pour moi. Les pages .php de ce site sont bien indexées par Google et je souhaiterais mettre en place la réécriture d'URL pour que les utilisateurs aient des adresses plus correctes. Pour ne pas perdre le référencement actuels, je souhaiterais mettre en place une redirection permanente (301) des pages .php vers leur équivalent .htm qui elles-mêmes doivent pointer sur les .php correspondant. J'ai peur que mon htaccess ne fasse une boucle. Pourriez-vous m'aider ? Un TRES GRAND MERCI d'avance. Julien
  7. Je dois éffectuer une redirection un peu délicate et là je bloque, mais je vous explique d'abord la raison: j'avais fait une fausse manip de rewriting que je n'ai pas vu tout suite, et les urls étaient insensées car des fois j'obtenais des chose du style: www.ndd.tld/jeux-nouveautAs-s-122.html créée par le titre "jeux nouveautés" J'ai donc corrigé mon rewriting et maintenant les urls générées sont donc: www.ndd.tld/jeux-nouveautes-s-122.html Mais le problème est que les deux sorte d'urls ont eu le temps d'être indexées par les moteurs de recherche et ainsi tout les pages de détails se retrouvent en duplicate dans les moteurs. Lorsque je me suis apercu de l'erreur j'aurais du rediriger en jouant sur la variable "-s-" mais n'y ai absolument pas pensé !! Maintenant j'essaie de redirigé sur une autre lettre justement mais en jouant seulement sur la lettre et l'ID, je m'explique le top serait de détecter -s-ID.html et le rediriger sur -d-ID.html mais le .htaccess demande une urls complète dans la seconde partie du rewrite ce qui ne change rien puisque je redirige nouveautAs-s-122.html sur nouveautAs-d-122.html Assez dur à expliquer alors le bout de code parlera mieux! D'origine: RewriteRule ^(.*)-s-([0-9]*).html$ single.php?id=$2 [L] Ma facon: RewriteRule ^(.*)-s-([0-9]*).html$ http://www.ndd.tld/$1-d-$2.html [L,R=301] RewriteRule ^(.*)-d-([0-9]*).html$ single.php?id=$2 [L] ce que je désire mais qui ne fonctionne pas: RewriteRule ^-s-([0-9]*).html$ -d-$1.html [L,R=301] RewriteRule ^(.*)-d-([0-9]*).html$ single.php?id=$2 [L] En gros je cherche une redirection grace à l'ID pour delete ce fameux dupplicate !!
  8. salut bonjour! alors c'est bien simple, j'ai un domaine (www.durab.fr) pour un client, je fais un site, stocké sur www.durab.fr/site/ ce client achète un nom de domaine (www.site.fr) du coup je configure le domaine www.site.fr pour pointer sur mes DNS, donc quand on va sur www.site.fr, le contenu de www.durab.fr s'affiche. Le but de la manuvre est que, si l'on va sur www.site.fr, c'est le contenu de www.durab.fr/site s'affiche. Pour ce faire, mon hébergeur peut me vendre un "slot", mais ça coûte cher, et apache est puissant, alors je décide d'utiliser les rewriteRules pour palier à ce problème ! RewriteCond %{HTTP_HOST} w?w?w?\.?site.fr RewriteRule [truc pour dire "tout"] \site\%{REQUEST_URI} voilà, le truc, c'est que je sais pas comment dire "tout" en expression régulière, ou en "langage apache" si quelqu'un a une idée, je suis volontiers preneur!! à bientôt!
  9. Bonsoir/Bonjour Pour le site suivant : -http://old.accapel.com j'ai créer des rewrite rules, afin d'avoir des urls plus propres. Jusque la pas de probleme, le souci c'est que le CMS que j'utilise mes créer des doublons de pages, et en fait j'ai entre 2 et 4 urls pour un meme contenu, donc duplicate content Je souhaitais faire des redirections permanentes de ces possibilités d'urls vers l'url réécrite mais ça ne fonctionne pas... Voici mon htaccess : EDIT : Je viens de voir que mes réécritures foutaient le bordel à l'intérieur ... -http://old.accapel.com/fiches-techniques-ptfe.html?20-tuyaux-flexibles-equipes-et-compensateurs par exemple, au lieu de -http://old.accapel.com/?20-tuyaux-flexibles-equipes-et-compensateurs Tout a recommencer je crois... Je précise, je suis (toujours) débutant en rewrite... Le site est en faite statique, enfin, ne changera quasiment pas, c'est pourquoi j'ai pas pousser plus loin la réécriture à la volée comme on peut le voir sur d'autres CMS (puis pour etre honnete, je ne sais pas comment faire) Pourriez vous m'expliquez pourquoi mes 301 ne fonctionne pas svp? Merci d'avance PS: désolé si doublon sur autre forum, d'abord posté ici puis j'ai cherché encore une solution, et suivant ce site http://www.urlrewriting.fr/forums.php j'ai posté sur un autre. Mais habituellement les solutions ne sont pas les memes, donc je verrai en esperant que le souci viennent tout simplement pas de l'hébergeur...
  10. Salut à tous ! pour un projet, je dois récupérer des infos (largeur, hauteur, poids, vignettes ...) sur des images publiées sur différents site Internet. Jusque la c'est pas très compliqué il suffit de faire un bon vieux getimagesize(&quot;http://urldelimage.jpg") La ou cela se complique c'est que certain sites font des redirects vers yahoo.fr, par ex, lorsqu'on accède à l'image en tapant directement sur url ou que l'on y accède via un script PHP ! Pas cool :/ La question est donc y a t'il un moyen de contourner cette redirection pour avoir mes infos et mon thumb (vignette en anglais) ? Par exemple y a t'il moyen de simuler un referer avec un script PHP ? Ou si vous avez la autre moindre idée ca m'intéresse beaucoup !! Merci pour votre aide.
  11. Bonjour, L'un de mes commerçants de clients, dans un éternel souci d'attraction des internautes, souhaite ardemment (me faire) créer une pléiade de sites "parallèles" à son principal. Je lui ai expliqué qu'il n'était pas question de faire des sites satellites avec ndd différents mais contenu identique, sous peine de désindexation punitive, mais que c'était possible si le contenu, portant sur la même thématique, était sensiblement différent. Des liens croisés entre ces sites peuvent-ils porter préjudice ? Cette question vaut aussi pour les redirections: acheter x noms de domaine ayant un nom en relation avec la thématique du site principal, mais dont les dns pointent vers celui-ci porte-t-il à conséquence (négative), concernant le référencement ? Merci de vos réponses, xpatval
  12. Bonjour, En utilisant cet outil: http://www.seochat.com/?go=1&option=co...heck+URL+Header Il indique que j'ai une redirection 301 sur ma page d'accueil. Comme j'ai quelques soucis d'indexation google en ce moment je me demande si ça peut influer sur le référencement? Si c'est à corriger de quelle manière pensez-vous que je dois changer le htaccess pour conserver l'url rewriting du site en enlevant cette redirection sur la page d'accueil? Merci Voici le htaccess qui a été fait avec le composant sh404sef pour Joomla: ## # _AT_version $Id: htaccess.txt 10492 2008-07-02 06:38:28Z ircmaxell $ # _AT_package Joomla # _AT_copyright Copyright © 2005 - 2008 Open Source Matters. All rights reserved. # _AT_license [url="http://www.gnu.org/copyleft/gpl.html"]http://www.gnu.org/copyleft/gpl.html[/url] GNU/GPL # Joomla! is Free Software ## ##################################################### # READ THIS COMPLETELY IF YOU CHOOSE TO USE THIS FILE # # The line just below this section: 'Options +FollowSymLinks' may cause problems # with some server configurations. It is required for use of mod_rewrite, but may already # be set by your server administrator in a way that dissallows changing it in # your .htaccess file. If using it causes your server to error out, comment it out (add # to # beginning of line), reload your site in your browser and test your sef url's. If they work, # it has been set by your server administrator and you do not need it set here. # ##################################################### ## Can be commented out if causes errors, see notes above. Options +FollowSymLinks # # mod_rewrite in use RewriteEngine On RewriteCond %{HTTP_HOST} !^www\.100-pour-100-musique\.com [NC] RewriteRule (.*) [url="http://www.100-pour-100-musique.com/$1"]http://www.100-pour-100-musique.com/$1[/url] [QSA,R=301,L] ########## Begin - Rewrite rules to block out some common exploits ## If you experience problems on your site block out the operations listed below ## This attempts to block the most common type of exploit `attempts` to Joomla! # # Block out any script trying to set a mosConfig value through the URL RewriteCond %{QUERY_STRING} mosConfig_[a-zA-Z_]{1,21}(=|\%3D) [OR] # Block out any script trying to base64_encode crap to send via URL RewriteCond %{QUERY_STRING} base64_encode.*\(.*\) [OR] # Block out any script that includes a <script> tag in URL RewriteCond %{QUERY_STRING} (\<|%3C).*script.*(\>|%3E) [NC,OR] # Block out any script trying to set a PHP GLOBALS variable via URL RewriteCond %{QUERY_STRING} GLOBALS(=|\[|\%[0-9A-Z]{0,2}) [OR] # Block out any script trying to modify a _REQUEST variable via URL RewriteCond %{QUERY_STRING} _REQUEST(=|\[|\%[0-9A-Z]{0,2}) # Send all blocked request to homepage with 403 Forbidden error! RewriteRule ^(.*)$ index.php [F,L] # ########## End - Rewrite rules to block out some common exploits # Uncomment following line if your webserver's URL # is not directly related to physical file paths. # Update Your Joomla! Directory (just / for root) # RewriteBase / ########## Begin - Joomla! core SEF Section # RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_URI} !^/index.php RewriteCond %{REQUEST_URI} (/|\.php|\.html|\.htm|\.feed|\.pdf|\.raw|/[^.]*)$ [NC] RewriteRule (.*) index.php RewriteRule .* - [E=HTTP_AUTHORIZATION:%{HTTP:Authorization},L] # ########## End - Joomla! core SEF Section
  13. Je cherche à faire un alias d'une adresse mail pour que le mail soit redirigé sur l'adresse de départ plus une autre adresse sur un autre serveur. j'ai testé comme ceci : #cd /home/vpopmail/domains/nomdedomaine.com #echo "&adressederedirection_AT_domainederedirection.com" > .qmail-nomducompte Mon problème est que ce code me fais une redirection sur le serveur de sauvegarde, donc je ne reçois plus le mail dans ma boite. J'ai un serveur kimsufi sous release2 (gentoo) Avez vous une solution à mon problème ?
  14. Bonjour, N'étant pas très experte en php, j'ai perdu un temps fou à d'abord chercher "toute seule" comment parvenir à faire un menu déroulant avec liens sans utiliser de javascript, puis à parcourir différents forums... et comme je ne suis pas seule dans ce cas, je livre "mon" script à ceux à qui cela peut servir. Il est basé sur un script proposé par le Site du Zéro (encore merci à lui...), et je l'ai 'adapté pour qu'il puisse récupérer les données d'une BDD mysql. Ce menu déroulant permet donc de renvoyer l'utilisateur vers une page interne ou externe. Il nécessite la création d'une page de traitement que vous appelerez : redirection_navigation.php. Pour réaliser cette page : <?php /* on vérifie que l'information "menu_destination" existe ET qu'elle n'est pas vide : */ if ( isset($_POST['menu_destination']) && !empty($_POST['menu_destination']) ) /* si c'est bien le cas (existe ET non-vide à la fois), on redirige le visiteur vers sa valeur choisie de l'information "menu_direction" : */ {header("Location: ".$_POST['menu_destination']."");} /* sinon, on le redirige vers une autre page utile : */ else {header("Location: http://");} /*vous mettez entre http:// et " l'url complète de la page concernée*/ Pour la page sur laquelle figure le menu déroulant, je ne vous mets que ce qui concerne le menu déroulant. Vous ajouterez vos indications de connexion à votre BDD et de déconnexion... <form method="post" action="redirection_navigation.php"> <select name="menu_destination"> <?php /*On récupère les données de la BDD*/ $query = mysql_query("SELECT nom,url FROM table ORDER BY nom ASC"); /*On fait une boucle pour lister le contenu de la BDD*/ while ($row = mysql_fetch_row($query)) { /*$row[1] correspond, dans mon exemple au champ de l'url et $row[0] à celui du nom*/ echo "<option value=\"$row[1]\">$row[0]</option>"; } ?> </select> <input type="submit" value="Aller"> </form> Une précision concernant la ligne : $query = mysql_query("SELECT nom,url FROM table ORDER BY nom ASC"); Après SELECT, je n'ai mis volontairement que 2 données pour limiter le champ de recherche dans la BDD et comme je voulais que le résultat apparaisse en ordre alphabétique, j'ai ajouté : ORDER BY nom ASC. Bien sûr, vous remplacez : nom, url par les champs de votre BDD et table par le nom de votre table. Ce script fonctionne parfaitement chez moi.
  15. Bonjour à tous, OVH qui a migré sur Apache2 sur certains plans mutualisé sans prévenir ses clients a bousillé pas mal de sites ces derniers temps ... Il n'est pas rare de trouvé des sites qui affiche de belles erreur 500 à cause fichier .htaccess soit disant mal écrit J'avais un site qui tournait pas trop mal et qui est maintenant en erreur 500 quand le htaccess et présent sur le serveur j'ai fait pas mal de modif mais rien n'y a fait Du coup, je l'ai bascule sur mon dédié, mais rien n'a faire ce .htaccess ne veux plus fonctionner je vous le poste afin d'avoir une idée pour tout réparer RewriteEngine on RewriteCond %{REQUEST_FILENAME} -f RewriteRule "." - [skip=100] RewriteCond %{REQUEST_FILENAME} -d RewriteRule "." - [skip=100] RewriteRule ^fleur-(.*)-([0-9]*).php$ detailfleur.php?nom=$1&id=$2 [L] RewriteRule ^lingerie-(.*)-([0-9]*).php$ detaillingerie.php?prodname=$1&id=$2 [L] RewriteRule ^site-(.*).html$ recherche.php?mots=$1 [L] RewriteRule referencement-([0-9]*)-(.*).html$ referencement.php?id_cat=$1&cat_id=$2 RewriteRule rubrique-([0-9]*)-(.*).html$ rubrique.php?id_cat=$1&cat_id=$2 [L] RewriteRule (.*)-(.*).html$ annuaire.php?cat_id=$1 [L] RewriteRule (.*)-(.*)-(.*).html$ annuaire.php?cat_id=$1 [L] RewriteRule ^(.*)-([([0-9]*)-([0-9]*)]).html$ annuaire.php?cat_id=$2&page=$3 [L] RewriteRule rss-([0-9]*)-(.*).rss$ rss.php?id_cat=$1&cat_id=$2 [L] RewriteRule (.*)-(.*).php$ sitedetail.php?id=$2 [L] RewriteRule (.*)-(.*)-(.*).php$ sitedetail.php?id=$2 [L] RewriteRule ^(.*).htm$ multisearch.php?mots=$1 [L] RewriteRule ^recherche-(.*)-([0-9]*)-([0-9]*)-(.*)-([0-9]*).html$ recherche.php?mots=$1&page=$2&nb_results2show=$3&booleen=$4&nb_sites_trouves=$5 [L] RewriteRule ([0-9]+)\.html$ recherche.php?action=seek&mots=id$1&nb_results2show=20&booleen=AND [L] RewriteRule ^([^/]+).html$ recherche.php?search=$1 [L] RewriteRule ^sitemap.xml$ allcategs.php?sitemap [L] Merci à qui pourra m'aider
  16. Bonjour, j'ai migré mon forum fluxBB vers phpBB3 et je souhaite mettre en place quelques redirections dans mon .htaccess. Voici les URL à rediriger : Redirection des topics, des posts et des pages membres /viewtopic.php?pid=45 => /post45.html#p45 /viewtopic.php?id=2 => /topic2.html /profile.php?id=81 => /membre81.html J'ai essayé avec RedirectMatch et une règle de réécriture, mais aucune des deux solutions ne fonctionne : RedirectMatch 301 ^viewtopic.php?pid=([0-9]+)$ /post$1.html RewriteEngine on RewriteRule ^viewtopic.php?pid=([0-9]+)$ /post$1.html [R=301] J'ai aussi quelques URL à rediriger sans REGEX, mais ce code ne fonctionne pas : Redirection des forums (sans REGEX à cause de l'injection des noms dans l'URL) RedirectPermanent /viewforum.php?id=2 http://forum.finalclap.com/graphisme-et-retouche-f2.html RedirectPermanent /viewforum.php?id=16 http://forum.finalclap.com/compositing-f16.html Comment faire ? Merci
  17. Salut, Excusez-moi, mais est-ce que quelqu'un à aussi noté une mise à jour des BL sur Google ? D'habitude je m'en occupe pas, mais là j'ai des redirections dans tous les sens alors je sais plus où il en est... Merci
  18. Bonjour, j'ai un petit problème avec les sites dont je m'occupe. La redirection de certaines url se fait sans problème, par contre j'ai des erreurs dans le log d'apache, et j'aime pas les erreurs . j'ai un .htaccess dans /www/ RewriteEngine on RewriteRule ^sitemap\.html$|^sitemap\.php$ /sitemap.xml [R] #les details d'annonce (.html) #RewriteCond %{REQUEST_FILENAME} !-f RewriteRule ^.*([a-zA-Z]+[0-9]+-[0-9]+)\.html$ /site/accueil.php?page=detail-annonce&ref=$1 [QSA,L] #les recherches par marque & co #cas 2 dossiers (/quelquechose/marque/) #RewriteCond %{REQUEST_FILENAME} !-f #RewriteCond %{REQUEST_FILENAME} !-d RewriteRule ^[^/]+/([^/\.]+)[/]{0,1}$ /site/accueil.php?page=resultat-recherche&recherche_type=url&cabo_id=2&marque=$1 [L] #cas 3 dossiers (/quelquechose/marque/modele/) #RewriteCond %{REQUEST_FILENAME} !-f #RewriteCond %{REQUEST_FILENAME} !-d RewriteRule ^[^/]+/([^/]+)/([^/\.]+)[/]{0,1}$ /site/accueil.php?page=resultat-recherche&recherche_type=url&cabo_id=2&marque=$1&modele=$2 [L] RewriteRule ^([0-9]+)-([0-9]+)x([0-9]+)-(0|1).*\.([a-z]{3,4})$ getImage.php?ID=$1&W=$2&H=$3&f=$4&ext=$5 [QSA,L] #le fichier demandé n'existe pas, on va dans le dossier /site #pour palier aux erreurs vues dans les logs en prod RewriteCond %{REQUEST_FILENAME} !-f RewriteRule ^(.*)$ /site/$1 [QSA,L,R=301] ErrorDocument 404 /site/accueil.php?page=404 et un autre dans /www/site/ RewriteEngine on #gestion spéciale pub RewriteRule publicite-js.php$ /ecommerce-publicite/publicite-js.php [QSA,L] RewriteRule countclic\-([0-9]+).html$ /ecommerce-publicite/countclic.php?publ_id=$1 [QSA,L] #les details d'annonce (.html) RewriteRule ^([^/]+/){1,3}([a-zA-Z]+[0-9]+-[0-9]+)\.html$ accueil.php?page=detail-annonce&ref=$2 [QSA,L] #les recherches par marque & co #cas 1 dossiers (/marque/) RewriteRule ^([^/\.]+)[/]{0,1}$ accueil.php?page=resultat-recherche&recherche_type=url&cabo_id=2&marque=$1 [L] #cas 2 dossiers (/marque/modele/) RewriteRule ^([^/\.]+)/([^/\.]+)[/]{0,1}$ accueil.php?page=resultat-recherche&recherche_type=url&cabo_id=2&marque=$1&modele=$2 [L] ErrorDocument 404 /accueil.php?page=404 Quand je fais http://bestcars.fr/site/porsche la page affichée est bien celle attendue; mais j'ai ça dans le log d'apache, 10 fois de suite Et en testant, j'ai remarqué que je n'avais pas d'erreur quand j'utilisais http://www.bestcars.fr/site/porsche (rajout du 'www.' ). Je ne capte pas trop . Quelqu'un aurait-il une idée s'il vous plaît ? Voir une règle qui forcerait le www. (sachant que j'ai des sites en sous-dom.dom.fr).
  19. Bonjour j'ai un légé problème dans mon .htaccess et impossible de trouver une solution malgré mes recherches. J'ai des urls du type : http://www.site.fr/site/BMW/Z4/M-343-ch/SIPC110-758.html . /BMW/ /Z4/ /M-343-ch/ => répertoires virtuels dans mon .htaccess j'ai : RewriteEngine on RewriteBase / RewriteRule ^([a-zA-Z]+[0-9]+-[0-9]+)\.html$ accueil.php?page=detail-annonce&ref=$1 [QSA,L] ErrorDocument 404 accueil.php?page=404 Le problème est qu'apparement il ne trouve pas le fichier accueil.php qui est à la racine dans /site/ . Je pense que le ErrorDocument ne la trouve pas non plus étant donné qu'il m'affiche le texte "accueil.php?page=404". J'aimerai savoir comment forcer la racine pour la redirection s'il vous plaît ? Je précise que je ne souhaite pas passer par une redirection extérieure (avec http://) car l'adresse serait dès lors modifiée dans le navigateur et je perds tout l'intérêt des répertoires virtuels. J'ai essayé avec /accueil.php et sans le RewriteBase; en vain.
  20. Bonjour, j'ai créé un site, herbergé chez Free, avec un nom de domaine chez rapidomaine j'avais essayé de prendre l'option redirection web transparente pour avoir www.toto.com affiché (c'était bien l'idée !) mais comme ils utilisaient une frame (?), je me suis rendu compte que google n'arrivait pas à indexer mon site finalement, j'ai laissé tombé, et la redirection n'est pas transparente, donc j'ai toto.free.fr, bien indexé par google Il se trouve que mon site marche assez bien (300 visites / j) et que toto.com expire demain : je souhaite donc prendre un hebergeur payant et avoir un joli www.toto.com Comment faut il faire ? 1°) comment savoir si l'hebergeur a une option de rediection transparente compatible avec google ? 2°) pourriez vous m'en conseiller ? 3°) dois je renouveler chez rapidomaine puis transférer le nom de domaine ? Merci d'avance pour votre aide ! Cordialement Olivier
  21. Bonjour, est-il normal d' avoir plusieurs fois rewrite on dans un fichier htaccess ?
  22. Bonjour ! Je possede une marque déposé à l'INPI à l'échelle Européenne depuis peu de temps, je voudrai un nom de domaine avec l'extension .fr mais malheureusement il est pris par quelqu'un, cette personne refuse de le vendre, et le nom de domaine est carrement cybersquatté (une sorte de redirection vers un site). Comment faire pour recupérer ce nom de domaine ? Quel est la methode dans le domaine de la justice ? Qu'elles sont vos propositions et solutions avec un avocat ? Je sais que je vais sans doute attaqué en justice mais j'ignore comment car je connais pas la methode ! Cordialement !
  23. bonjour, voici mon soucis j'ai des anciennes pages présentes dans google par exemple le dossier regions_us n'existe plus si je fais j'ai ce résultat : j'obtiens bien la page index de mon site mais avec les variables j'ai essayé aussi avec si vous avez une idée ! amicalement JP
  24. bonjour Je souhaite rediriger les domaines de lecv.re vers le dosiers du meme nom sur le domaine hosting.re ex http://aude.lesite.re vers http://hosting.re/aude j ai mis en place cette regle dans mon httaccess RewriteEngine on RewriteRule (.*) http://www.hosting.re/%1 [L] le code fonctionne bien cependant Je ne comprend pas l url de destination s affiche dans le navigateur. je souhaiterai que cela soit invisible et que le visiteur ne vois pas ou il est redirigé. aurais je oublié quelque chose ?? merci pour votre attention Ps gestion dynamique Je ne souhaite pas de redirection DNS Je ne souhaite pas de redirection VHOST
  25. Bonjour, Nous venons de lancer une nouvelle version de notre site et on a un gros soucis la page www.monsite.fr/index.php est visible dans un navigateur ..mais pas vue par les robots. Du coup en moins d'une semaine mon site a été désindexé de google sur toutes les requêtes qui arrivaient sur la home du site... probleme testé et confirmé avec le spider http://www.seochat.com/seo-tools/spider-simulator/ pas de soucis sur les autre pages pourtant C'est un site réalisé avec le framework Symfony..j'avoue être largué .. ci dessous le .htaccess Options +FollowSymLinks +ExecCGI <IfModule mod_rewrite.c> RewriteEngine On RewriteCond %{HTTP_HOST} ^monsite\.fr [NC] RewriteRule (.*) http://www.monsite.fr/$1 [QSA,R=301,L] # uncomment the following line, if you are having trouble # getting no_script_name to work #RewriteBase / # we skip all files with .something # comment the following 3 lines to allow periods in routes RewriteCond %{REQUEST_URI} \..+$ RewriteCond %{REQUEST_URI} !\.html$ RewriteRule .* - [L] # we check if the .html version is here (caching) RewriteRule ^$ index.html [QSA] RewriteRule ^([^.]+)$ $1.html [QSA] RewriteCond %{REQUEST_FILENAME} !-f # no, so we redirect to our front web controller RewriteRule ^(.*)$ index.php [QSA,L] </IfModule> # big crash from our front web controller ErrorDocument 500 "<h2>Application error</h2>symfony application failed to start properly" le robot.txt User-agent: * Disallow: uploads/flash User-agent: Alexibot User-agent: asterias User-agent: BackDoorBot/1.0 User-agent: Black Hole User-agent: BlowFish/1.0 User-agent: BotALot User-agent: BuiltBotTough User-agent: Bullseye/1.0 User-agent: BunnySlippers User-agent: Cegbfeieh User-agent: CheeseBot User-agent: CherryPicker User-agent: CherryPickerElite/1.0 User-agent: CherryPickerSE/1.0 User-agent: CopyRightCheck User-agent: cosmos User-agent: Crescent User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0 User-agent: DISCo Pump 3.1 User-agent: DittoSpyder User-agent: EmailCollector User-agent: EmailSiphon User-agent: EmailWolf User-agent: EroCrawler User-agent: ExtractorPro User-agent: Foobot User-agent: Harvest/1.5 User-agent: hloader User-agent: httplib User-agent: humanlinks User-agent: InfoNaviRobot User-agent: JennyBot User-agent: Kenjin Spider User-agent: LexiBot User-agent: libWeb/clsHTTP User-agent: LinkextractorPro User-agent: LinkScan/8.1a Unix User-agent: LinkWalker User-agent: lwp-trivial User-agent: lwp-trivial/1.34 User-agent: Mata Hari User-agent: Microsoft URL Control - 5.01.4511 User-agent: Microsoft URL Control - 6.00.8169 User-agent: MIIxpc User-agent: MIIxpc/4.2 User-agent: Mister PiX User-agent: moget User-agent: moget/2.1 User-agent: NetAnts User-agent: NetAttache User-agent: NetAttache Light 1.1 User-agent: NetMechanic User-agent: NICErsPRO User-agent: Offline Explorer User-agent: Openfind User-agent: Openfind data gathere User-agent: ProPowerBot/2.14 User-agent: ProWebWalker User-agent: psbot User-agent: QueryN Metasearch User-agent: RepoMonkey User-agent: RepoMonkey Bait & Tackle/v1.01 User-agent: RMA User-agent: SiteSnagger User-agent: SpankBot User-agent: spanner User-agent: SuperBot User-agent: SuperBot/2.6 User-agent: suzuran User-agent: Szukacz/1.4 User-agent: Teleport User-agent: Telesoft User-agent: The Intraformant User-agent: TheNomad User-agent: TightTwatBot User-agent: Titan User-agent: toCrawl/UrlDispatcher User-agent: True_Robot User-agent: True_Robot/1.0 User-agent: turingos User-agent: URLy Warning User-agent: VCI User-agent: VCI WebViewer VCI WebViewer Win32 User-agent: Web Image Collector User-agent: WebAuto User-agent: WebBandit User-agent: WebBandit/3.50 User-agent: WebCopier User-agent: webcopy User-agent: WebEnhancer User-agent: WebmasterWorldForumBot User-agent: webmirror User-agent: WebReaper User-agent: WebSauger User-agent: website extractor User-agent: Website Quester User-agent: Webster Pro User-agent: WebStripper User-agent: WebStripper/2.02 User-agent: WebZip User-agent: WebZip/4.0 User-agent: Wget User-agent: Wget/1.5.3 User-agent: Wget/1.6 User-agent: WinHTTrack User-agent: WWW-Collector-E User-agent: Xenu's User-agent: Xenu's Link Sleuth 1.1c User-agent: Zeus User-agent: Zeus 32297 Webster Pro V2.9 Win32 User-Agent: MJ12bot User-agent: HTTrack User-agent: HTTrack 3.0 User-agent: TurnitinBot User-agent: QuepasaCreep Disallow: / merci pour toute aide
×
×
  • Créer...