Aller au contenu

xunil

Hubmaster
  • Compteur de contenus

    138
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par xunil

  1. Google "tweake" (améliore) son algorithme constamment. Il y a une équipe d'ingénieurs affectés à celà. C'est normal que les résultats évoluent de temps en temps. S'il prend mieux en compte le contenu, c'est tant mieux.
  2. Une petite liste de sites permettant de présenter un logiciel: http://www.scriptet.com/software.php Je les ai tous testés.
  3. Le nom dépend du logiciel, c'est post pour punBB et posting pour phpBB. Je le mets juste avant que le message soit envoyé en base de données avec une requête SQL. Pour phpBB je le mets avant cette ligne: Et cela a fonctionné parfaitement à ce jour.
  4. Je mets un filtre de ce genre dans le fichier post.php if(stristr($message, "via*ra") !== false) { $errors[] = $lang_post['Forbidden word']; } if(stristr($message, "po*rn") !== false) { $errors[] = $lang_post['Forbidden word']; } L'emplacement et la commande exacte dépendent du logiciel utilisé (ici phpBB). Edit: suppression mots indésirables!
  5. Je suggère de charger les images de façon asynchrone en Ajax.
  6. Ce n'est pas une chute du PR mais un changement d'échelle. Il est plus difficile d'avoir un PR 7 depuis le dernier export. De nombreux sites ont ainsi perdu un point. Rien à voir avec les sites qui ont perdu 3 points pour motif de vente et échange de liens.
  7. Réponse sans avoir à se taper un pavé wikipedia Pourquoi utiliser Ajax?
  8. Effectivement, il est possible que Google ait envoyé un mail d'avis de sanction à cause de re*seo. Deux cas possibles: - Evacuation du lien et demande de fin de sanction -> retour du positionnement rapide. - Aucune réponse -> blacklistage total. Pour consolation, re*seo aussi est blacklisté.
  9. Cela pourrait se faire avec l'option multi-utilisateur de Wordpress ou Doclear. Ou encore avec un wiki (on a l'embarras du choix).
  10. Voir déjà avec les diagnostics des outils pour webmaster (GWT) ce qu'ils disent...
  11. Difficile de mettre l'URL parce que c'est dynamique et à rallonge, mais il y a une notice tout au fond du guide du webmaster qui dit que l'on ne peut pas acheter ou vendre de lien pour manipuler le PR, mais que c'est permis si le lien est en nofollow ou sur une page avec une méta noindex ou nofollow. Ce n'est pas ce que cherchent les acheteurs de lien en général, c'est un fait.
  12. Et bien... si, puisque les logs prennent en compte les visites des robots. Et justement les stats disent un peu n'importe quoi en ce moment et c'est parceque les visites des robots sont comptées plusieurs fois.
  13. Explications du responsable sur le forum OVH:
  14. Pour la première question, faire un contrôle sur les données entrées est très facile mais cela dépend de ce que l'on contrôle, s'il faut faire des vérifications dans une base de données, il faudrait utiliser Ajax + PHP. Sinon, un exemple: HTML: onclick="mafonction(this)" JavaScript function mafonction(element) { var x = element.monid; if(x < 1 || x > 5) alert("la valeur doit être comprise entre 1 et 5"); } Pour la seconde question, on peut utiliser un include, on ne perdra aucune donnée.
  15. Amusant. On peut mettre le gid en backround ou background-image en CSS et le prénom en texte ordinaire.
  16. xunil

    css animation

    Voila une étude de cas qui répond assez bien au problème: http://www.xul.fr/javascript/images-dynamiques.html Cependant il faut remplacer onclick par onmouseover si l'on veut changer l'image quand la souris passe dessus et sans avoir besoin de cliquer.
  17. Une petite introduction pour bien saisir les bases... http://www.scriptol.org/ecmascript/php.php On peut aussi utiliser Ajax avec la méthode post. J'arrive à passer le contenu d'un RSS comme çà, donc un bloc de données assez gros en paramètre.
  18. Il faudrait effectivement un dédié pour ce genre de site. On peut en obtenir à moins de 40 euros pas mois + quelques connaissance administration de serveur ou s'adresser à prestataire... mais beaucoup plus cher!
  19. Je suis aussi d'accord avec Jeanluc et michaeljackvont. Je ne parle pas d'un nombre défini d'annuaires, mais de s'inscrire sur les meilleurs annuaires, vingt ou trente ce n'est pas la question. Ensuite si on fait une description très complète et différente pour chaque annuaire, ce n'est pas pareil que balancer le même texte sur tous les annuaires. Mais ce qui le plus déterminant je crois comme l'a dit alain-b, c'est le fait que l'on fasse un bond dans la position sur les résultats. Les sites que je connais et qui ont été sandboxés sont de gros sites qui sont passé en tête des résultats. Tant que vous restez en fond de classement, même si vous passez de la 10000 ième position à la 9000 ième, je ne pense pas que Google s'en soucie.
  20. S'inscrire sur des centaines d'annuaires, cela passe ou cela casse. Certains s'en portent bien, d'autres finissent en sandbox. Et je peux dire où Google exprime ce qu'il pense de ce genre de lien: http://www.scriptet.net/google-pagerank.html Voir la section: Le critère des liens sur la page
  21. Il y a aussi une offre gratuite (voir à droite sur le panel) proposée par l'hébergeur. On peut essayer aussi hebergement-gratuit.com.
  22. Si l'on finit par être blacklisté, non ce n'est plus dans la logique. Il suffit de se référencer sur une vingtaine d'annuaires les plus connus, pour les autres, Google prohibe ce type de liens et n'en tient pas compte pour le classement dans les résultats. Les solutions faciles ne sont jamais les meilleures.
  23. J'ai dit ce qu'était le Web 2.0 pour moi: 1) une plateforme avec des technologies 2) le collaboratif 3) une nouvelle économie. Je ne veux discuter de ce qu'est Wikipédia, évidemment il est collaboratif, je parle d'une page Wikipedia, son look (n'importe laquelle). Et pour le mode Asynchrone, non, tu n'a pas saisi (et Leonick non plus). Les images ne sont chargées avec la page, elle ne le sont pas non plus dynamiquement avec une commande write (car je suppose que c'est dynamique sinon pourquoi faire?), les images sont chargées une fois la page affichée et pendant que l'internaute lit le contenu. Donc chargement de la page rapide, et images disponibles quand on passe la souris sur une vignette (sauf si le lecteur est trop préssé). Par ailleurs, il ne fait pas comparer DHTML et Ajax. Ajax c'est DHTML + l'objet XMLHttpRequest qui permet de communiquer avec le serveur (dans les deux sens). C'est forcément un plus.
  24. Ce n'est pas un débat sur Wikipedia, qu'il corresponde aux attentes ou pas n'est pas le problème, je veux juste donner un exemple de ce à quoi ressemblaient les anciens sites. Et de ce qu'ils apportaient comme fonctionnalités, autrement dit rien. Ensuite si on se donnait la peine de lire ce que j'écris... Ajax permet de charger des images pendant que le lecteur lit la page, vous ne pourrez jamais faire cela avec du DHTML. Pour faire quoi que ce soit en JavaScript il faut avoir les matériaux en mémoire, Ajax permet de les charger de façon asynchrone et c'est irremplaçable.
×
×
  • Créer...