Aller au contenu

inextremis

Actif
  • Compteur de contenus

    12
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre
  1. Merci XopheWH ! Une erreur de débutant que je n'ai pas relevé ! Esperons qu'il ne sagisse que de ca ... Merci encore... a+ thib
  2. Salut, c'est bien ce qui me semblait.... Le probleme c'est que les balise <noscript> ont été placé sur toutes mes pages à la demande de la boite referencement payé par mon client ...... je leur est soumis aussi cet interogation, a savoir, est ce que de pousser l'optimisation d'un site jusqu'a coller ce genre de balises sur quasiment toutes les pages ne pouvait pas etre considéré par ggoglebot comme su spaming.... pour eux non ... toute leur technique de referencement tourne autour de ces dernieres... Donc pour moi, pas trop moyen de les enlever ... Aller expliquer au client que je dois reprendre tout le boulot de ref****.com alors meme qu'il les a payé x milliers d'euros pour avoir une place "garantie" ds la premiere page de google.... et qu'il m'a aussi payé pour refaire le site à LEUR manière... je le sens assez mal ...... cette boite a ete mandaté en decembre.... je vous laisse imaginer la tete du dit client qui en 4 mois n'a vu aucune modif .... Comment verifié l'etat de ce domaine pour google ?... appremment le site n'est pas blacklisté, mais ca reviens presque au meme .... merci et a+ thib
  3. salut et merci pour ta reponse, tu as du regarder le site : www.lacartotheque.Com Mais pour celui la, tout est ok, meme si c'est long, google index bien mes pages.... meme si il prend son temps... et mon referencemet est coherent puisque depuis 1 mois, je gagne des places tous les jours dans plein de moteurs sur des requettes a plus de 50 ou 100 000 reponses trouvés ... style "cartes topographiques" ... Le probleme se pose sur le site www.laberine.com .... la c'est le vide total ... et je ne comprend pas du tout ce qui arrive ... a+ thibaut
  4. bonjour, Un de mes sites, créé en octobre dernier avait été indexé dans google a l'epoque sans qu'il soit pourtant optimisé... une recherche du site dans google sortait donc la page d'accueil sans titre ni description.... normal Depuis mon client a fait appel a une société de réferencement pour qu'un audit du site soit realisé et que des propositions d'optimisation soit faites... ca a ete chose faite et j'ai donc retravaillé les 290 pages du site selon leurs conseils....Depuis, ils se chargent de suivre le referencement et le positionnement et de soumettre le site aux moteurs ... Tout fonctionne tres bien dans quasiment tous les moteurs et je constate qu'on arrive dans les premieres pages yahoo, lycos et autres sur les rêquetes que le client avait privilégiées.... super ca Le gros probleme, et que googlebot, qui passe pourtant sur le site, n'indexe rien du tout et n'enregistre aucune modification.... meme la description de ma page d'index n'est toujours pas enregistrée ... une requete dans google ne me sort toujours que l'url du site en reponse ... je commence a desespérer serieusement ... même l'equipe de refer***.com est pommée et ne sais pas expliqué le blocage... Aurait t ils trop soumis le site en trop peut de temps ? a ma connaissance 4-5 depuis le 28 fevrier ... est il possible que le site soit dans le bac à sable ? Ai je intéret a rebalancer tout mon site sur un autre nom de domaine ?, et a indexer a nouveau cette nouvelle adresse ? en esperant que google la prenne en consideration ? Merci d'avance si qqun sait me renseigner .... a+ thib
  5. Merci ! je continue a tt modifier dans ce sens alors ! a+ thib
  6. salut , Ma question concerne les balise <NOSCRIPT> ... j'ai sur mon site un tas de carte geographique et la navigation se fait via des zones sensitive sur les images de ces mem cartes... Apperemment, les robots, meme celui de yahoo.. ont bcp de mal a suivre ces liens... Est ce que, si je met un script "bidon" + une balise noscript qui contienne mes liens en dur, mon probleme peut etre réglé .. google suit t il toujours le contenu de ces balise ? et y a t il une taille maximum pour celles ci? Idée de script : <script language="JavaScript"> type="text/javascript"</script> <noscript> <h1>mon site</h1> <p><a href=&quot;http://mon site.com/mapagexxx.htm" title="Laberine">Laberine</a>, <p><a href=&quot;http://mon site.com/mapagexxx.htm" title="Laberine">Laberine</a>, <p><a href=&quot;http://mon site.com/mapagexxx.htm" title="Laberine">Laberine</a>, .... </noscript> Sinon est ce préférable de refaire, sur la derniere page visité par les robots, un lien discret vers une page comporter des vrai liens textuel ? un grand merci... thib
  7. Bonjour, Merci pour ta reponse ! Ds ce cas, est ce que le fait de construire une page "plan du site" dans laquelle toutes les pages sont reprises avec des url dans le texte sous forme d'une arborescance, peut permettre au moteurs d'indexer quand même toutes ces pages ? le fait d'avoir une page "bourrée" de lien freinera t'il le moteur ? a+ Thib
  8. Bonjour, Je suis entrain de travailler sur un site d'entreprise dont je ferais bien tout le catalogue avec des menu deroulant en utilisant une code javascript comme ci dessous ... Est ce que le robot de google va suivre les urls du form ?? ... dans la negative, c'est la 90% du site qui sera invisible ....ds ce cas, si qqun a une solution ... merci d avance ! Thib <script language="JavaScript"> function ChangeUrl(formulaire) { if (formulaire.ListeUrl.selectedIndex != 0) { location.href = formulaire.ListeUrl.options[formulaire.ListeUrl.selectedIndex].value; } else { alert('Veuillez choisir un produit'); } } </script>
  9. Bonjour, J'ai fait tester a des amis.... le probleme se pose aussi..... tu parle du cache sur le serveur ? ... a+ et merci thib
  10. Bonjour a tous, Mon site est construit sans frame, et je suis partis d'un page pour construire toutes les autres... Donc mes liens sont censé etre tous les memes et ils le sont, le code html est identique et l"espace près... Mon probleme est que j'ai un lien qui fonctionne sur certaines pages mais pas sur d'autres. Je precise que c'est variable.... quand je recharge les pages sur le seveurs, ca marche, et qqs jours apres, ca change... De la même facon que apres quelques jours, toutes les images du site deviennent "flou" et que si je les recharge a nouveau sur le serveur, elle reapparraissant OK.... Vu la taille de mon site je ne pourrais pas uploader mes 2000 pages tous les 3 jours.... Est ce que ca peut venir de l'hebergeur ? (AMEN en l'occurence) ... Merci d'avance, thib <modérateur: la mise en page au kilomètre n'est pas des plus aisée à lire, merci de mettre un minimum en page tes posts.>
  11. le site n est pas completement en ligne... mais les qqs pages que j ai mis recemment en attente sont aussi atteintes... evidemment : vous pouvez voir la cata sur www.lacartotheque.com a++ et merci thib
  12. bonjour, j'utilisais jusqu'a peu I.E et suis passé recemment a Firefox... J'editais donc mes pages avec dreamweaverMX et les testais sous IE vu que je n avais que ca .... mon probleme est je me rend compte que toutes mes pages sortent "decalées' sur mozilla... il semble que cela soit du au fait que dans une page ouverte sous IE, la "marge" au dessus du tableau soit plus épaisses que si on l'ouvre ds firefox... comment puis je corriger ca ? est ce meme possible ? ou est ce que je dois me resoudre a acceuillir les visiteurs avec "site concu uniquement pour IE ; )" ... le gros probleme est que mon site compte deja 5700 pages.... si qqun a une solution ... merci d avance ! a+ thib
×
×
  • Créer...