Aller au contenu

Lugdunum

Actif
  • Compteur de contenus

    47
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Lugdunum

  1. Il n'y a vraiment aucune alternative possible selon toi? Car apparement ce problème n'est récurrent que pour les services Microsoft. Tu as des prestataires à me conseiller que je puisse regarder un peu si cela pourrait répondre à mes besoins? Merci d'avance
  2. Bonjour, Je pensais que ce problème avait été réglé depuis un petit temps, mais à ma grande surprise je constate que chaque email envoyé depuis mon serveur dédié vers Hotmail se retrouve systématiquement en courrier indésirable chez "Hotmail". Après quelques tests et changement au niveau des entêtes pour l'envoi des emails et d'une redéfinition de mon SPF Record jugé valide par Microsoft et openspf.org, tout semblait être revenu à la normale avec l'adresse de notre service qui est un compte pop bel et bien existant. Voici les résultats des test du SPF Record selon openspf.org: pass Please see http://www.openspf.org/why.html?sender=service%40tongay.com&ip=94.23.236.174&receiver=tools.bevhost.com: tongay.com A 94.23.236.174 tools.bevhost.com: domain of service_AT_tongay.com designates 94.23.236.174 as permitted sender v=spf1 a mx ptr ~all HASH(0x8eb9fa0) Connecting to 94.23.236.174 220 box4.bevhost.com ESMTP Postfix HELO ks308325.kimsufi.com 250 box4.bevhost.com MAIL FROM: <service_AT_tongay.com> 250 2.1.0 Ok RCPT TO: <nobody_AT_tools.bevhost.com> 550 5.1.1 : Recipient address rejected: undeliverable address: mail for tools.bevhost.com loops back to myself QUIT 221 2.0.0 Bye Test du SPD Record chez Microsoft: SPF Record Found [OK] One or more functional SPF record(s) have been found for the domain tongay.com The inbound mail servers of the domain may also send mail outbound. Any IP addresses listed in the domain's A records in DNS are also outbound mail servers for the domain. (What's this?) At the present time, the domain's A records contain the following addresses: 94.23.236.174 No domains are listed as outsourced domains. (What's this?) The full text of the domain's SPF record is as follows. v=spf1 a mx ptr ~all Test de blacklistage négatif: blacklist:94.23.236.174 Checking 94.23.236.174 against 103 known blacklists... Listed 0 times with 4 timeouts. Voici l'entête email utilisée: $email_headers = "From: TonGay.com <service_AT_tongay.com>\n"; $email_headers .= "Reply-To: TonGay.com <service_AT_tongay.com>\n"; $email_headers .= "MIME-Version: 1.0\n"; $email_headers .= "Return-Path: <service_AT_tongay.com>\n"; $email_headers .= "X-Sender: <www.tongay.com>\n"; $email_headers .= "X-Mailer: PHP\n"; $email_headers .= "X-auth-smtp-user: noreply_AT_tongay.com\n"; $email_headers .= "X-abuse-contact: noreply_AT_tongay.com\n"; $email_headers .= "Content-Type: text/html; charset=\"iso-8859-1\"\n"; Les adresses emails ont bien une arobase en réalité, désignée par une _AT_ dans le code précédent Le courrier envoyé était bien reçu dans la boîte de réception "Hotmail" jusqu'à hier où nous avons envoyé environ 20.000 emails pour annoncer une actualité à nos membres. Du coup nous sommes repassés en courrier indésirable. Je ne sais vraiment plus où donner de la tête, d'autant que d'après nos statistiques, 5 à 10% des inscriptions non validées proviendrait du fait que les personnes qui s'inscrivent ne trouvent pas l'email de confirmation permettant de valider leur inscription au site et ce malgré un avertissement précisant de vérifier le dossier de courrier indésirable. Avez-vous rencontré ce genre de problème vous aussi et surtout avez-vous trouvé une solution qui fonctionne à long terme? ;-) Merci d'avance pour vos réponses.
  3. A la base c'était pour permettre aux sites d'être retrouvés facilement car les mots clés utilisés qui pointent vers un site sont toujours d'abord ceux en rapport avec son nom. Evidement d'autres malins ont décidés de ne pas donner de véritable nom à leur site et de l'utiliser dans leur nom de domaine mais plutôt d'y placer des mots clés pour monter dans le classement y étant associé. Vivement que Google modifie son algorithme à ce sujet car cela devient de plus en plus fréquent et certains n'hésitent pas à utiliser des extensions genre "ws" ou "cc" qui sont rarement utilisées pour enregister des noms de domaines à mots clés.
  4. Oui, c'est ce qu'il faut. L'exemple même de JeuxVideo.com, une équipe soudée et douée dans divers domaines. J'espère que vous aurez une aussi belle réussite :-)
  5. Bienvenue sur le hub :-) Je trouve ton site bien sympathique étant moi même fan de jeux vidéo. (principalement XBox 360) Au plaisir de te lire ici.
  6. Quelqu'un peut-il confirmer cette affirmation ou bien possède une source à ce propos? Merci d'avance
  7. Merci pour cette information Patrick, c'est toujours utile :-)
  8. J'ai le même problème concernant les tentatives d'escroquerie en provenance de pays Africains sauf qu'étant donné le thème du site que je gère, ils jouent plus précisement sur les sentiments en essayant de nouer des liens avec les membres pour ensuite tenter de persuader la personne de lui venir en aide financièrement. La solution proposée d'interdire l'accès aux adresses ips en provenances de ce pays a cependant ses limites et tu vas vite t'en rendre compte. Certains plus malins que d'autres vont tout simplement utiliser des serveurs proxys provenant d'un peu partout dans le monde. C'est pourquoi cette petite portion de code supplémentaire est utile, mais bon le problème n'est pas réglé pour autant soit en rassuré lol. RewriteCond %{REMOTE_HOST} \.privacyfoundation\.de$ [NC,OR] RewriteCond %{REMOTE_HOST} ^tor(\.|-) [NC,OR] RewriteCond %{REMOTE_HOST} anonym [NC,OR] RewriteCond %{REMOTE_HOST} torproject [NC,OR] Le mot "tor" provient d'un logiciel assez répandu qui fournit des centaines d'adresses proxys dont certaines parties commencent par "tor.", "tor-" ou contiennent "torproject". PrivacyFoundation et Anonym sont des DNS utilisés par une série de proxys aussi. Pour une solution plus radicale, il faut selon moins faire du monitoring d'activité suspecte sur ton site pour parer à ce genre d'escroquerie. (détection de message envoyés en masse, ips suspectes entre autres ...)
  9. Le problème c'est que les 2 fichiers dont tu parles sont hébergés chez Google donc tu ne peux malheureusement pas définir via ton site combien de temps ces scripts vont être gardés en cache, c'est la configuration du serveur distant qui prime puisque ce sont ses fichiers.
  10. Vu sur la page d'accueil de GTMetrix :-) Je me demande bien à quelle échelle.
  11. En fait c'est le temps d'expiration qui n'est pas suffisant, eux conseillent un minimum de 7 jours en cache pour tout ce qui est JavaScript, images, CSS, ... J'ai du décommenter quelques lignes dans ma configuration d'Apache pour que par défaut cela soit 7 jours et non 1. Si tu n'as pas accès au fichier de configuration d'Apache tu peux toujours utiliser un fichier .htaccess Le code en question: <IfModule mod_expires.c> # turn on the module for this directory ExpiresActive on ExpiresDefault "access plus 7 days" </IfModule> Edit: Autant pour moi j'ai mal lu, les fichiers ne font pas partie de ton serveur, alors ça risque d'être difficile ;-)
  12. Pourtant l'internaute aime quand il peut accéder à la page et au contenu qu'il recherche rapidement non? Tu ne fais pas précédente pour prendre le résultat suivant lorsque ça va na pas suffisament vite et que le cache ne fonctionne pas comme prévu?
  13. Il ne reste plus qu'à espérer que ce facteur soit pris en compte par Google et ses amis à un degré suffisament intéressant que pour que tout le monde se penche dessus. Je trouve que ça revaloriserai le web et notamment rendrait celui-ci plus "standardisé" car à l'heure actuelle, c'est loin d'être le cas. En ce qui concerne les performances de temps de chargement, je rajoute une petite adresse, il s'agit de GTMetrix qui reprends les statistiques de YSlow, ainsi que ses propres critères: />http://gtmetrix.com/ Très utile pour l'optimisation de son site puisque tous les facteurs sont répertoriés et un pourcentage vous est attribué à chacuns d'entre eux, vous savez donc quelle partie optimiser. En plus il propose une optimisation des images ce qui est assez intéressant je trouve. En tout cas Google.com montre l'exemple avec un grade A à 99%, par contre moins fier du côté de YSlow avec un grade D à 67%. Je mets ma main à couper que d'ici peu de temps Google tiendra compte de ce facteur et que l'on va vite reparler de tout ça :-)
  14. Je suis d'accord avec toi valide ne veut pas dire conforme Si on suit la politique de Google qui est d'offrir les résultats les plus pertinents aux internautes, je pense qu'il y ai de fortes de chances pour qu'un jour ou l'autre, le fait d'avoir un site qui respecte les standards du web soit plus à même d'avoir un meilleur positionnement qu'un autre qui ne l'est pas. (en admettant que ces 2 sites soient sur le même pieds d'égalité pour tout le reste) L'information se trouvant sur le site soit accessible par la plupart des navigateurs, tout comme par un internaute aveugle ou mal voyant, alors que celle-ci le sera sans doute moins sur un site non standardisé. En ce qui concerne le temps de réponse du site, on pourrait en conclure la même chose. Un site dont l'information s'affiche en 2 secondes ou un autre dont il faut 30 secondes pour afficher le contenu de la page n'intéressera pas autant l'internaute impatient qui désire obtenir son information rapidement. Je suis persuadé que tout cela jouera un rôle à un moment donné (peut-être pas pour tout de suite au niveau du W3C, mais du moins le temps de réponse d'un site), Google nous donne déjà un petit indice en ayant ajouté des statistiques à ce niveau, Yahoo avec YSlow.
  15. Bonjour, J'aimerais pouvoir discuter avec vous de l'importance d'avoir un site dont le contenu se charge rapidement et qui respecte les normes en matière de développement web (recommandations du W3C Consortium) Je sais que Google donne des informations sur le temps de chargement moyen d'un site dans ses outils "Centres pour webmasters". Je suppose donc que ce critère est pris en compte par celui-ci pour déterminer le classement d'une page sur son moteur, ou bien que cela sera pris en compte dans le futur. En ce qui me concerne je tente au maximum de respecter les recommandations du W3C, bien que je n'ai pas encore eu l'occasion de constater de grande différence au niveau du classement dans Google après le passage de mon site de "Vieux codage avec tables" sans réel respect des normes à un passage en CSS validé en "Strict". Pareil au niveau du temps de réponse du site qui varie fortement dans les statistiques de Google. Pour exemple, je suis passé de 51% plus rapide que la moyennes des autres sites à 55% plus lent. Cela sans aucune modification importante du code, la différence provient de données "étranges" qui m'annoncent des temps réponse de plus de 20 secondes pour des pages légères qui s'affichent en principe en moins de 2 secondes. Selon vous est-ce qu'avoir un site optimisé pour l'internaute est un critère qui peut faire la différence sur un positionnement dans les résultats de Google? Avez-vous un retour là-dessus ou une expérience personnelle? Le débat est ouvert
  16. Bienvenue à toi sur le Hub. Au plaisir de pouvoir discuter de référencement avec toi ;-)
  17. Tu veux dire par là que Google pourrait par exemple favoriser un site dans ses résultats par rapport à ce que ce site même peut lui rapporter? Par exemple si le site en question est inscrit au programme AdSense? En gros ça voudrait dire qu'un site optimisé pour les AdSenses, avec 3 publicités par page et un bon quota de visiteurs journaliers aurait plus de poids de la classement qu'un site sans publicité proposant un contenu identique? Concernant le guide du Routard il possède quand même un pagerank de 6 et le nom de domaine existe depuis mi 2002, logique qu'il bénéficie d'une position "figée" dans le classement.
  18. Ton problème ne serait-il pas en rapport avec le changement d'algorithtme de Google? Voir l'article suivant: http://www.presse-citron.net/changement-dalgorithme-google-les-premiers-degats-collateraux Bien qu'il ne semble pas que tu puisses être concerné directement par cette modification au vu de ce que tu as dit précédement, c'est la première idée qui me vient à l'esprit étant donné les concordances de dates. En précisant l'adresse de ton site, il serait plus facile pour nous d'analyser une autre éventualité à ton problème.
  19. Si cela peut apporter des visiteurs supplémentaires de façon naturelle, c'est une bonne chose. Il ne reste plus qu'à espérer que les abus de cette fonctionnalité ne rendent pas celle-ci complètement inutile car on voit un peu de tout et n'importe quoi sur Facebook, entre autres les vidéos "buzz" qui dès qu'on les regardent se publient automatiquement sur son compte FB par la même occasion ... A voir donc :-)
  20. Essaye ceci: RewriteRule ^\?proprety-type=([a-z]+)$ /$1 [R=301,L] Le R=301 signifie redirection permanente, cela te permets de garder le pagerank de tes pages qui seront redirigées
  21. Tout d'abord bonjour à tous et un grand merci à la communauté de Webmaster Hub qui m'a apporté beaucoup dernièrement grâce à ses nombreux sujets sur le référencement. J'ai enfin décidé de m'inscrire au site pour pouvoir partager mon expérience avec vous et aussi bénéficier de vos précieux conseils par la même occasion. En ce qui me concerne, mon prénom est David, j'ai 25 ans, je suis de Belgique et je suis responsable d'un site internet crée en 2007 sous le nom de TonGay.com. C'est un projet de site de rencontre totalement gratuit destiné aux homosexuel(le)s et mis sur pieds par plusieurs personnes liées d'amitié et de passion. (Informatique, internet et programmation entre autres) Pour l'instant je suis encore aux études, en 3ème année de bachelier (Analyste - Programmeur), cela me permets d'avoir une vision globale sur de nombreux domaines relatifs à l'informatique. J'ai beaucoup de questions sur le référencement donc vous me retrouverez prochainement sur les forums dédiés à ce domaine ;-) A bientôt donc
×
×
  • Créer...