xunil
-
Compteur de contenus
138 -
Inscrit(e) le
-
Dernière visite
Messages postés par xunil
-
-
Une petite liste de sites permettant de présenter un logiciel:
http://www.scriptet.com/software.php
Je les ai tous testés.
-
Bonjour, je profite pour poser une question à xunil : ce code on le met n'importe où dans le fichier post.php ?
(En fait, le fichier s'appelle posting.php, ou je me trompe ?)
Le nom dépend du logiciel, c'est post pour punBB et posting pour phpBB.
Je le mets juste avant que le message soit envoyé en base de données avec une requête SQL. Pour phpBB je le mets avant cette ligne:
prepare_post($mode, $post_data, $bbcode_on, $html_on, $smilies_on, $error_msg, $username, $bbcode_uid, $subject, $message, $poll_title, $poll_options, $poll_length);Et cela a fonctionné parfaitement à ce jour.
-
Je mets un filtre de ce genre dans le fichier post.php
if(stristr($message, "via*ra") !== false)
{
$errors[] = $lang_post['Forbidden word'];
}
if(stristr($message, "po*rn") !== false)
{
$errors[] = $lang_post['Forbidden word'];
}
L'emplacement et la commande exacte dépendent du logiciel utilisé (ici phpBB).
Edit: suppression mots indésirables!
-
Je suggère de charger les images de façon asynchrone en Ajax.
-
Ce n'est pas une chute du PR mais un changement d'échelle. Il est plus difficile d'avoir un PR 7 depuis le dernier export. De nombreux sites ont ainsi perdu un point.
Rien à voir avec les sites qui ont perdu 3 points pour motif de vente et échange de liens.
-
Réponse sans avoir à se taper un pavé wikipedia
-
Effectivement, il est possible que Google ait envoyé un mail d'avis de sanction à cause de re*seo. Deux cas possibles:
- Evacuation du lien et demande de fin de sanction -> retour du positionnement rapide.
- Aucune réponse -> blacklistage total.
Pour consolation, re*seo aussi est blacklisté.
-
Cela pourrait se faire avec l'option multi-utilisateur de Wordpress ou Doclear.
Ou encore avec un wiki (on a l'embarras du choix).
-
Voir déjà avec les diagnostics des outils pour webmaster (GWT) ce qu'ils disent...
-
Difficile de mettre l'URL parce que c'est dynamique et à rallonge, mais il y a une notice tout au fond du guide du webmaster qui dit que l'on ne peut pas acheter ou vendre de lien pour manipuler le PR, mais que c'est permis si le lien est en nofollow ou sur une page avec une méta noindex ou nofollow.
Ce n'est pas ce que cherchent les acheteurs de lien en général, c'est un fait.
-
Ca n'a rien à voir avec les logs
Et bien... si, puisque les logs prennent en compte les visites des robots. Et justement les stats disent un peu n'importe quoi en ce moment et c'est parceque les visites des robots sont comptées plusieurs fois.
-
Explications du responsable sur le forum OVH:
on passe progressivlement les logs sur un nouveau systeme de stockageplus performances et plus grand. le probleme est qu'on ne peut pas
arreter de calculer vos logs, il faut que tout soit accessible et
qu'on continue à recevoir les logs, tout en sachant qu'il s'agit de
plusieurs dizaines de To de données. C'est d'une lourdeur maximal les
logs. Mais on avance surment.
-
Pour la première question, faire un contrôle sur les données entrées est très facile mais cela dépend de ce que l'on contrôle, s'il faut faire des vérifications dans une base de données, il faudrait utiliser Ajax + PHP.
Sinon, un exemple:
HTML:
onclick="mafonction(this)"
JavaScript
function mafonction(element)
{
var x = element.monid;
if(x < 1 || x > 5) alert("la valeur doit être comprise entre 1 et 5");
}
Pour la seconde question, on peut utiliser un include, on ne perdra aucune donnée.
-
Amusant.
On peut mettre le gid en backround ou background-image en CSS et le prénom en texte ordinaire.
-
Voila une étude de cas qui répond assez bien au problème:
http://www.xul.fr/javascript/images-dynamiques.html
Cependant il faut remplacer onclick par onmouseover si l'on veut changer l'image quand la souris passe dessus et sans avoir besoin de cliquer.
-
Une petite introduction pour bien saisir les bases...
http://www.scriptol.org/ecmascript/php.php
On peut aussi utiliser Ajax avec la méthode post. J'arrive à passer le contenu d'un RSS comme çà, donc un bloc de données assez gros en paramètre.
-
Il faudrait effectivement un dédié pour ce genre de site.
On peut en obtenir à moins de 40 euros pas mois + quelques connaissance administration de serveur ou s'adresser à prestataire... mais beaucoup plus cher!
-
Absolument pas d'accord ; si un nombre défini d'annuaires faisait loi, cela se saurait ! Je pense que les interventions de Jeanluc et de michaeljackvont dans ce sens.
Je suis aussi d'accord avec Jeanluc et michaeljackvont. Je ne parle pas d'un nombre défini d'annuaires, mais de s'inscrire sur les meilleurs annuaires, vingt ou trente ce n'est pas la question.
Ensuite si on fait une description très complète et différente pour chaque annuaire, ce n'est pas pareil que balancer le même texte sur tous les annuaires.
Mais ce qui le plus déterminant je crois comme l'a dit alain-b, c'est le fait que l'on fasse un bond dans la position sur les résultats. Les sites que je connais et qui ont été sandboxés sont de gros sites qui sont passé en tête des résultats.
Tant que vous restez en fond de classement, même si vous passez de la 10000 ième position à la 9000 ième, je ne pense pas que Google s'en soucie.
-
S'inscrire sur des centaines d'annuaires, cela passe ou cela casse. Certains s'en portent bien, d'autres finissent en sandbox.
Et je peux dire où Google exprime ce qu'il pense de ce genre de lien:
http://www.scriptet.net/google-pagerank.html
Voir la section: Le critère des liens sur la page
-
Il y a aussi une offre gratuite (voir à droite sur le panel) proposée par l'hébergeur.
On peut essayer aussi hebergement-gratuit.com.
-
j'ai pu constater que les BL ont été modifiés et que les BL figurant dans la commande link ont tous un PR superieur ou égal à 3.
Pas pour moi. J'ai des BL de 0 à 2.
-
mais c'est en contradiction avec la logique d'un site à vocation commerciale: plus on est référencé, plus on a de chance d'attirer des clients...
Si l'on finit par être blacklisté, non ce n'est plus dans la logique. Il suffit de se référencer sur une vingtaine d'annuaires les plus connus, pour les autres, Google prohibe ce type de liens et n'en tient pas compte pour le classement dans les résultats.
Les solutions faciles ne sont jamais les meilleures.
-
Enfin, de toute façon a ce que tu dis, pour toi le web 2.0, c'est un site avec des couleurs flashi, des effets de reflets, des dégradés partout, plus de l'ajax. Et bien, tu es vraiment passé a coté de ce que c'est réellement, on a déjà été plusieurs a te l'expliquer.
Quand a ta demo de la galerie asynchrone, c'est vraiment pas pertinent, que tu fasses le pré-chargement en CSS ou en soit disant asynchrone, cela n'apporte rien, quand je dis soit disant asynchrone, c'est tout bêtement qu'il est demandé de charger l'image au chargement de la page, au final, il est où le principe de l'asynchrone????
Et pour info XMLHttpRequest existe depuis IE 5 soit depuis 1998
J'ai dit ce qu'était le Web 2.0 pour moi:
1) une plateforme avec des technologies
2) le collaboratif
3) une nouvelle économie.
Je ne veux discuter de ce qu'est Wikipédia, évidemment il est collaboratif, je parle d'une page Wikipedia, son look (n'importe laquelle).
Et pour le mode Asynchrone, non, tu n'a pas saisi (et Leonick non plus). Les images ne sont chargées avec la page, elle ne le sont pas non plus dynamiquement avec une commande write (car je suppose que c'est dynamique sinon pourquoi faire?), les images sont chargées une fois la page affichée et pendant que l'internaute lit le contenu.
Donc chargement de la page rapide, et images disponibles quand on passe la souris sur une vignette (sauf si le lecteur est trop préssé).
Par ailleurs, il ne fait pas comparer DHTML et Ajax. Ajax c'est DHTML + l'objet XMLHttpRequest qui permet de communiquer avec le serveur (dans les deux sens). C'est forcément un plus.
-
Qu'importe, si le site correspond exactement aux attentes des utilisateurs ?
En disant ça, tu ne résumes le "Web 2.0" qu'à la partir émergée de l'iceberg : l'interaction "piou-piou".
La vraie prise de conscience qu'il y a eu récemment, est de faire participer l'internaute, non plus à la vie du site, mais au site lui-même.
Le reste n'est que décoration.
Ce n'est pas un débat sur Wikipedia, qu'il corresponde aux attentes ou pas n'est pas le problème, je veux juste donner un exemple de ce à quoi ressemblaient les anciens sites. Et de ce qu'ils apportaient comme fonctionnalités, autrement dit rien.
Ensuite si on se donnait la peine de lire ce que j'écris... Ajax permet de charger des images pendant que le lecteur lit la page, vous ne pourrez jamais faire cela avec du DHTML.
Pour faire quoi que ce soit en JavaScript il faut avoir les matériaux en mémoire, Ajax permet de les charger de façon asynchrone et c'est irremplaçable.
Pénalités et effet de longue traîne
dans Techniques de Référencement
Posté
Google "tweake" (améliore) son algorithme constamment. Il y a une équipe d'ingénieurs affectés à celà. C'est normal que les résultats évoluent de temps en temps. S'il prend mieux en compte le contenu, c'est tant mieux.