Aller au contenu

slender

Hubmaster
  • Compteur de contenus

    325
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par slender

  1. salut, Pour le CSS dans les mails il existe un article intéressant chez pompage
  2. salut, D'après ce que j'ai entendu tout à l'heure sur ce sujet, l'amende est de 75000 euros... en dehors du reste... slender edit: excuse je n'avais pas lu ton premier post jusqu'à la lie, tu le savais déjà...
  3. salut, je suis en train de résoudre le même problème que toi et mes dernières recherches me font penser que comme tu déduis 20 pixels à 800 pour présenter correctement un site en 780x600 en tenant compte de l'ascenseur vertical, il faudrait mettre la largeur à 1000 px pour une présentation en 1024, cela laisserait 24 pixels pour l'ascenseur et les comptes seraient ronds. slender
  4. salut, pour générer des passwords tu peux te servir de ce bout de code: $lettres = 'AbCDefGHIjkLmNopQrsTuVWxyZ'; $autres = "/_//__"; $chiffres = '123456789'; for ($i = 0; $i < 7; $i++) { mt_srand((double) microtime() * 1000000); $lettres[$i] = substr($lettres, mt_rand(0, strlen($lettres) - 1), 1); $autres[$i] = substr($autres, mt_rand(0, strlen($autres) - 1), 1); $chiffres[$i] = substr($chiffres, mt_rand(0, strlen($chiffres) - 1), 1); } $password = $lettres[0].$chiffres[0].$autres[0].$lettres[1].$chiffres[1].$autres[2].$lettres[2].$lettres[3].$lettres[4]; Les passwords issus de ce random sont de niveau élevé, en rajoutant encore un choix (.$lettres[5]) tu obtiens un niveau supplémentaire Si tu veux compliquer tu peux dédoubler les lettres en majuscules et en minuscules mais là déja c'est bon. slender
  5. salut, tu trouveras certainement une réponse avec l'utilisation des sprites CSS.
  6. J'imagine que dans le cas où le contrat est tel qu'il stipule que le click ne soit pas organisé, le propriétaire du site soit considéré comme un fraudeur mais qu'en est-il de ses complices (site prestataire reverseur et clickeurs)? Sont-ils répréhensibles?
  7. On peut penser que si la rémunération au click consiste à inciter des internautes à aller cliquer sur des pubs sur des sites dont les propriétaires percevraient des profits (pour en reverser une partie aux internautes clickeurs par l'intermédiaire d'un prestataire) et que ces clicks n'amènent à aucune transaction, il y a effectivement fraude au click.
  8. dans la catégorie des plans pour gagner des euros sur le net facilement: un PTR = pay to read - site qui paye l'internaute pour recevoir des mails. un PTC = pay to click - site qui paye l'internaute pour surfer. un PTS = pay to subscribe - site qui paye si l'internaute s'inscrit à des jeux concours.
  9. moi aussi, j'ai reçu un mail de google adsense me signalant leur existence et que, peut-être j'aurais intérêt à les proposer. Du coup je les ai intégré avec bénéfice ( + 25 à 30% de mieux en rentabilité).
  10. salut, apparemment pas de problème de latence au premier chargement, ni aux suivants après mise en cache.
  11. salut, Tu peux simuler une tâche cron, regarde cette page. slender
  12. normalement margin-left: auto; margin-right: auto;
  13. salut, En local, tu sors tes fichiers CSS de ton dossier site. Puis un par un tu demandes une recherche texte sur tous les noms de règles que tu as dans tes fichiers CSS. Tu cherches "nom_de_règle" plutôt que nom_de_règle, sinon tu risques d'avoir des faux positifs. Si tu trouves, tu laisses la règle en activité; si la recherche échoue tu vires la règle. DW est bien pour ça car tu as la commande "chercher sur tout le site" dans le Find et il t'affiche les pages concernées pour la vérification.
  14. hello, Après un petit détour PC, je reviens avec délice sur mac. Je voudrais savoir si MAMP contient les bibliothèques PDF? slender
  15. salut, je ne sais pas trop quel type de site tu veux développer mais si tu n'en es qu'au début, ça va être un peu coton... Pour développer dans ce domaine en général on commence par les JSP mais c'est limité dès que l application doit grossir. Pour aller plus loin il faut intégrer des frameworks genre struts. A mon avis tu te lances dans un truc du genre 'les yeux plus gros que le ventre'...
  16. salut captain torche, Ok, désolé, je ne l'avais pas compris comme ça mais ton idée est bonne. Oui et non, le développement n'est pas si compliqué que ça, pas plus, tout au moins, que si tu veux contruire une page avec des includes différents, simplement tu peux avoir une batterie de tests en amont pour décider si tel ou tel article doit être en include. Par ailleurs, il n'est pas dit que la page du site correspondant aux mots clefs arrive en premier au niveau du moteur car ces pages n'ont pas nécessairement le même poids en terme de PR et de back links... D'un autre côté, peut-être que les articles dont parle benoit93 ne font pas nécessairement l'objet d'une page dédiée à l'intérieur du site et ne sont pas référencés en tant que tels. Faudrait voir de manière plus précise le contenu de sa demande.
  17. salut, La technique qu'évoque captain torche est certainement la meilleure. Il te faut détecter les mots clefs introduits par ton visiteur lors de sa recherche par le moteur de recherche. En fonction de ces mots clefs tu vas déterminer quels sont les articles à faire apparaître dans ta home-page et les appeler par des includes. Si il n'y a pas de mots clefs (arrivée sur ton site par un lien autre qu'un moteur ou par le biais d'un signet) tu peux définir un lots d'articles par défaut ou, éventuellement, rappeler les articles que tu as déjà affiché pour ce visiteur si tant est que tu aies pensé à les mettre dans un cookie si il est déjà venu... Evidemment cela nécessite un peu de développement en php, une bonne gestion des cookies en base de données, des articles formatés idéalement pour venir se loger en home-page sans problème de manière à garder une bonne présentation (formatage identique par exemple). En fait cela s'appelle du cloaking , donc vérifie bien qu'un visiteur lambda arrivant sur ton site sans mot-clef reçoit la même page par défaut que les bots. Normalement oui. slender
  18. salut, je dirais aussi qu'il y a certainement un nombre non négligeable de personnes qui se connectent en semaine au cours de leur job et qui peut-être n'ont pas de d'ordi ou de connection à la maison.
  19. Salut, éventuellement, si tu es mutualisé, tu peux simuler la tâche cron en te servant du passage des visiteurs de ton site pour déclencher la tâche. Plus de renseignements ici.
  20. thanks a lot - je ne m'imaginais pas résoudre le problème en postant sur ce fil... mais bon, le proverbe "quand tu veux parler au bon dieu, parles à ses saints" garde apparemment encore toute sa fraîcheur...
  21. @ dan, Rassures toi, il n'y aucun mal. En l'occurence, l'affaire n'était pas critique car l'ancien site, mal développé, mal référencé, n'offrait pas assez d'attraits pour que j'insiste d'où la création d'un nouveau site même nom en .com. Le seul attrait qui reste encore était l'ancienneté du site qui était pour moi un facteur important pour le référencement permettant d'éviter une éventuelle sandbox et de bénéficier d'un tout petit PR et de quelques liens... Mon intention était de coller une redirection 301 vers le nouveau pour bénéficier de cela. Je te remercie des précisions que tu m'apportes quant aux démarches administratives et reprendre l'affaire en main via les nouveaux propriétaires. slender
  22. Dan, Je comprends ta position mais, en l'occurence la lettre était circonstanciée, elle n'émanait pas de moi mais des nouveaux propriétaires. En admettant même qu'il puisse y avoir un refus dans la mesure où le dossier ne soit pas complet, il aurait fallu, au moins, qu'OVH se manifeste. En l'occurence il n'y a pas eu la moindre réponse. Je n'ai pas toujours compris pourquoi. Résultat des courses: création d'un nouveau site chez un autre hébergeur.
  23. salut, petite expérience perso: j'ai récupéré un site hébergé chez OVH à référencer. Ce site avait changé de propriétaire. L'ancien proprio avait perdu le login et le pass permettant d'accéder à l'admin dudit site. Après plusieurs mails à OVH expliquant la situation + une lettre recommandée, OVH n'a jamais réagi (aucune réponse). C'est pas top...
  24. salut régis, Si tu utilises PHP tu peux toujours insérer ce morceau de code (en include de préférence) au début de toutes tes pages. Tu récupères aisément le nom du moteur ainsi que les mots-clefs qui ont été tapés par le visiteur. Tu n'a plus ensuite qu'à les stocker dans une base de données si tu veux les exploiter. Si tu stockes en plus les URLs des pages succesivement demandées en référant simplement à la session, tu pourras tout aussi aisément connaitre le chemin de ton visiteur dans ton site, les pages qu'il a visitées, le temps qu'il est resté sur chaque page, etc... <?php $SearchEngine = array("google"=>"q","alltheweb"=>"q","altavista"=>"q","yahoo"=>"p","aol"=>"q","msn"=>"q","lycos"=>"query","reacteur"=>"kw","dmoz"=>"search","nomade"=>"s","mirago"=>"qry","hotbot"=>"query","voila"=>"kw","search.ke.voila.fr"=>"kw=+&rdata"); $referer = parse_url($_SERVER["HTTP_REFERER"]); $SearchEngineReferer = isSearchEngineReferer($SearchEngine,$referer['host']); $keyword = extractKeyword($referer['query'],$SearchEngine[$SearchEngineReferer]); echo "- ".$referer['host']."</br>"; echo "- ".$referer['query']."</br>"; echo "- ".$keyword; ----------------------------<functions>------------------------------- function isSearchEngineReferer($SearchEngine,$host) { foreach($SearchEngine as $k => $v) { if(stristr($host.".",$k)) return $k; } return false; } function extractKeyword($query,$SearchEngineVar) { preg_match("#&".$SearchEngineVar."=(.*?)(?:&|\Z)#is", "&".$query."&", $s); if(!empty($s[1])) return utf8_decode(urldecode($s[1])); else return "undefined"; } ----------------------------</functions>------------------------------- ?> ps - peut-être que certains moteurs doivent être mis à jour... slender
  25. Salut, Ton site faisant moins de 10 pages, tu as tout intérêt à faire ton plan sitemap à la main en downloadant un exemple et en remplaçant les URL de l'exemple par les tiennes. Il n'y aura pas d'erreurs et tu comprendras mieux comment le sitemap est construit.
×
×
  • Créer...