Aller au contenu

Siddartha

Hubmaster
  • Compteur de contenus

    748
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Siddartha

  1. SERPS = Search Engine Results Pages
  2. Pas actuel, enfin ca dépend ou tu regardes, mais les nouveaux résultats qui sont en train de se propager oui. Ca devrait prendre le week end pour être complètement terminer.
  3. La patience est de rigueur encore Mais effectivement, Brandy semble rendre les résultats plus propre que ce qu'on a pris l'habitude de voir depuis quelques mois. En espérant que cette fois, Google va devenir un peu plus stable Ce qui me semble difficile puisque par la même et d'aprés les posts de GG sur wmw, les fréquences des Google Dance en tout genre vont certainement augmenter encore ! C'est pour quand les updates en temps réel ? On y arrive !
  4. Il ne trouve pas de système d'exploitation à lancer .. Deux solutions : - soit tu as une disquette dans ton lecteur A: - soit tu as un problème de MBR (la table de démarrage erronée, effacé ou détruite) sur le disque dur un format c: + un petit paramétrage BIOS pour bien booter sur c: d'abord, puis d:, puis a: devrait faire l'affaire. En tentant avant de sauvegarder ce qui peut l'être, mais apparemment c'est un vieux portable avec aucune donnée importante ?
  5. Merci Tizel pour cet article ! Et à Maïsse pour sa correction et critique (donc c'est toi qu'on tapera si y'a un problème comme l'a si bien souligné Tizel ) Je suis en plein apprentissage de tout cà, je vais donc épier la sortie des prochains articles de trés près ;-)
  6. Effectivement, le site est magnifique, super ergo et c'est vraiment agréable de se balader dessus ! On tient un pur flashmaster là Les puristes vous diront néanmoins que ce site n'est malheureusement destiné qu'aux personnes disposant du plugin flash et pas forcément 'accessible' ;-) Malgré cà , ca fait plaisir de voir que la 'French Touch' sévit encore outre-atlantique !! Félicitations, bienvenue sur le Hub et bonne chance pour la finale
  7. On fait pas d'omelette sans casser des oeufs ;-) Il s'agit clairement d'une évolution majeure de l'algo Google, mais pas encore au point vu les résultats Quant au monopole de Google, l'over-optimization et le positionnement de nombreux autres outils de recherche est la conséquence de son succès. N'aimant pas non plus les monopoles, j'espère voir se dessiner un nouveau marché des outils de recherche d'ici quelques mois
  8. La méthodologie me semble parfaite, d'autant plus pour pouvoir remarquer les effets des changements récents dans Google suite aux successives Florida et Austin. Car quoi qu'on en dise, et au vu des résultats et des changements, autant la Florida était peut être un test, autant la Austin est clairement un changement du poids de certains critères dans l'algo Google. (et ca n'engage que moi ) Même si je te rejoins la dessus, c'est cependant discutable, et je trouve que la faille du raisonnement est ici. La saisonnalité des mot-clés est quelque chose que nous avons tous pu observer et, dans cette méthodologie, tout me va, hormis le choix des mot-clés. Entre le mois de Novembre et aujourd'hui, je sais que des variations importantes auront lieu. Pour illustrer l'exemple, le 14 Février est le jour de la St Valention, et je sais par expérience que les requêtes concernant les restaurants, cadeaux, fleurs sortie et même voyage vont fortement varier à la hausse à cette période, et ce dès début-mi Janvier. Il faudrait arriver à trouver des mot-clés qui ont des variations quasi certaines faibles sur la période pour que le test, et encore une fois, ca n'engage que moi, car je sais que ce n'est chose facile, soit le plus efficace et révélateur. Ce qui suppose avoir un historique de tout ca et là ... tendu Bref, hors cette période de début d'année, les mot-clés conviendraient je pense, mais selon la date à laquelle tu réalises cette étude et notamment en ce moment, je pense que les résultats seront étranges à interpréter.
  9. Hello Fruge, Nan pas la peine de te déclarer à l'URSSAF à moins que tu ne gagnes des sommes trés élevées. Il existe une tolérance fiscale pour les particuliers qui touchent des revenus de ce type à côté de leur activité principale. Il y 4/5 ans quand j'avais mon entreprise individuelle, je m'étais alors renseigné, et la tolérance était de 30.000 F /an. Aujourd'hui, je sais que cette tolérance a été augmenté, mais je ne sais de combien exactement et encore moins en euros
  10. Microsoft Internet Explorer File Extension Spoofing Vulnerability Une nouvelle vulnérabilité de type Spoofing a été identifiée dans Microsoft Internet Explorer, elle se situe au niveau des extensions fichiers et leur interprétation/exécution par IE. Le problème est que si le nom d'un fichier à télécharger contient un identificateur de classe spécifique "CLSID", Microsoft Internet Explorer l'ouvrira automatiquement avec une application différente de celle indiquée par l'extension du fichier. Ceci pourrait être exploité par des attaquants afin de duper les utilisateurs, en les incitant à télécharger/ouvrir un fichier malicieux ayant une extension de confiance (.pdf, mpeg ...). Le fichier "kotik.{CLSID}fichier_malicieux%2Empeg" ne sera pas automatiquement ouvert par Windows Media Player. Il sera exécuté par internet explorer comme étant un fichier .HTA (ou autre). L'advisory complet
  11. D'après ce que j'en ai trouvé de mon côté aussi, je rajouterais juste une chose mais c'est la bonne procédure Monique Si jamais ca ne suffit pas à éradiquer le virus : - désactiver restauration système - nettoyer disque (fichiers temp) - redémarrer (EN MODE SANS ECHEC) - scanner/éliminer - redémarrer et réactiver restauration système
  12. Idem, chèque daté du 26/01 et recu donc le 31/01. C'est la grande classe ! Si les régies fr pouvaient en prendre de la graine ...
  13. Comme je l'ai dit plus haut, les conditions vont s'assouplir avec le temps .. Donc pour le moment, non ce que tu demandes n'est pas possible. Arlette, des coupes à volonté, ca ira ?
  14. Pour l'instant, il s'agit de Décembre et Google n'avait pas décidé encore cette limitation pour ses paiements. Donc quel que soit le montant des campagnes, tous les gains réalisés en Dec 03, même inférieur à 100$ seront payés ! Pour la suite, apparemment, le paiement et l'envoi du chèque (ou futur autre moyen de paiement) n'interviendra que les 100$ dépassés, histoire de ne pas envoyer des chèques qui ne paient même pas le papier sur lesquels ils sont imprimés A priori, le système devrait s'assouplir avec le temps, mais trop tôt pour pouvoir dire encore de quelle manière.
  15. Je viens de recevoir aujourd'hui mon premier chèque pour mes campagnes Adsense ! Surveillez vos boîtes à lettre donc pour ceux qui n'ont pas encore recu le paiement des campagnes de Decembre 2003, ca arrive !!
  16. Je confirme complètement Dams Toutes les pages dynamiques qui peuvent être générées à partir d'une seule et même page qui contient le script ont bien le même PR. Ce qui effectivement semble logique bien qu'un jour les moteurs pourraient faire évoluer ca mais je ne pense pas qu'ils le feront car ce serait accorder trop de crédit aux URLs 'virtuelles' et avec lesquelles on pourrait facilement et trés vite abuser
  17. Le PR n'a pas autant d'importance .. Je ne vois pas dans cette explication pourquoi un site PR0 avec une optimisation adéquate serait 1er sur sa requête trés générique, et pourtant ca arrive plus que souvent et relativement facilement
  18. Aucun problème pour le div invisible, j'ai tester, ca passe sans problème pour l'instant .. Ce qui ne veut pas dire qu'à terme, Google ne sera pas capable de le détecter, donc à contrôler régulièrement . Pour la densité de mot-clés, trop de mot-clés = densité trop forte = un kick de la base d'office mais sans blacklistage Donc mollo sur la densité, et enjoy Et bien sur, privilegiez le contenu sera tjours plus bénéfique que ce types de techniques, d'autant plus avec le nouvel algo de la derniere GoogleDance (Austin) qui est plus qu'une mise à jour classique dont on avait commencé à prendre l'habitude 'hormis la florida qui a amorcé le mouvement) Beatnikk, on utilise le même analyser alors Bonne opti !
  19. Re-Bonjour/'soir à tous, D'aprés wmw, Austin est une GoogleDance qui complète celle commencée par la désormais célèbre Florida. Apparemment, et au vu des résultats, cela semble exact, la hit-list des mot-clés touchés par la Florida s'est agrandie, pour d'autres termes relativement génériques qui avait besoin d'un gentil nettoyage de printemps avant l'heure. Les premières modifications ont été vu et testé sur Google.de cette fois. Malgré çà, cela n'explique pas complètement le boost des pages internes de beaucoup de sites au détriment des homes, Google les privilégerait-il désormais ? Ca en a tout l'air .. Patience, le temps que ca se stabilise pour en savoir plus !
  20. Excellent article Curio ! D'autant plus qu'il semblerait que Google en terme de référencement aurait tendance à mieux indexer les sites standardisés xhtml/css. Il est possible que ce meilleur classement sur ses sites là soit aussi simplement dû au fait qu'une page web bien construite aux normes xhtml est beaucoup plus 'parlante' aux moteurs, et comporte beaucoup plus d'indications textuelles/rédactionnelles qu'une page qui n'est pas aux normes. Toutes les balises de classification sont de plus disponibles dans ces normalisations (je pense notamment aux Dublin Core) qui bien qu'inefficace jusqu'à aujourd'hui semblerait aussi posséder leur propre efficacité pour le positionnement depuis quelques temps. Je te rejoins aussi quant au potentiel de classification du contenu via les urls qui garantirait des résultats dans les outils de recherche de bien meilleure qualité, et aurait aussi de multiples intérêts en terme d'ergonomie. Quant à l'id, sous cette forme, cela ne pose aucun problème, par contre à éviter les paramètres dynamiques de type 'id=' que Google n'indexe pas. (En prévision des futures normes d'indexation des outils de recherche et un attribut id trés utilisé dans les normalisations ? ) Et bienvenue à bord !
  21. Un truc de plus : je viens de lancer l'abc-pr pour voir ce qu'il se passait, chez moi aucun data center répond ... et chez quelqu'un d'autre avec qui on fait des tests, seul l'ex répond .. C'est quand même un beau bordel Possible pour le clustering, et effectivement update non finie, donc il faut être patient Je voulais dire et parler surtout de site TRÉS (trop ?) optimisées Bon courage pour ta fin de week-end alors
  22. Sans vouloir être alarmiste, ca semble plus grave que prévu.. J'ai le sentiment qu'on à le droit à un nouvel update qui chamboule beaucoup de choses un peu à la florida style update ;-) Il n'y a plus qu'a attendre un peu le temps que tout se stabilise, mais apparemment, il se passe quelque chose d'important et on dirait que c dans la suite logique de sa recherche de pertinence Beaucoup de site qui arrivait à se positionner avec des techniques un peu agressive ont carrément perdu le positionnement de leur home bien que leurs pages internes soient toujours positionnées et présentes. D'autres se sont vu indexer de nouvelles pages dans un gros volume, donc si ces résultats restent sur Google, cela voudra dire qu'une nouvelle fois, l'algo de classement s'est encore affiné.. Et apparemment, la cible est encore une fois les sites un peu trop optimisées ;-) .. Nom de code : Austin Update 24/01/2004 pr les 'ricains. allé au boulot ..
  23. C'est même carrément hallucinant de voir la proportion que ca prend ! Google est tout cassé de partout Intéressant quand même de voir la répartition des pages d'un site sur plusieurs datacenters, on dirait même que sur certains résultats, il affiche l'url et le titre, mais la description a disparu .. et encore qd ce n'est pas toutes les pages du site qui ont disparu .. C'est ouf ! Tu as vu où Dan que les Datacenters étaient en maintenance ? J'ai loupé cette info apparemment (ou alors tu as contrôler ton positionnement quotidien et tu t dis Oh Google cassé today ? )
  24. Hmm l'explication pourrait être que Google a deux types de pages chez lui, les 'regions' et les 'links' et qui ont a priori toutes les deux le meme code source .. Du coup, il va toutes les crawler, mais indexer de manière complétement aléatoire les unes et les autres. La solution radicale serait d'interdire toute indexation du rep /links/ pour n'avoir que les nouvelles ('régions' si j'ai bien compris). Mais comme c des redirs via htacces, c pareil .. hmm Donc, a priori, ils devraient rafraichir toutes les anciennes URLs links par le région (puisqu'au niveau du header avec le htacces dorénavant le code doit etre un 200 OK) et les pages links disparaitront petit à petit. Bon je dois partir là, mais si tu peux m'envoyer un exemple des deux types de liens par MP, je peux regarder tout ca de plus prés et te dire ce que j'en pense aprés analyse plus fine
×
×
  • Créer...