Au passage, c'est un deal payant pour les moteurs. Intéressant: la plupart des sociétés dépensent au total en milliards pour leur SEO afin de bien se faire bien indexer gratuitement par les moteurs. Twitter arrive lui (pour l'instant) à se faire payer! Ce n'est à mon avis que temporaire: les mastodontes plient devant l'enfant-star du moment mais à mon avis cela ne durera pas...
Sur le fond, qu'est que cela veut dire? Eh bien, à mon sens que l'on en est finalement à la deuxième phase majeure d'évolutions des moteurs:
- à leur genèse, ils se sont battus (comme des chiffonniers....) comme des chiffonniers dans la dimension de l'espace pour atteindre l'exhaustivité en étant capable d'indexer tout le contenu publié sur Internet avant leur naissance ainsi que celui publié pendant qu'ils développaient. On est maintenant arrivé à des chiffres de 1'000 milliards de pages indexées: ce n'est peut-être pas l'exhaustivité parfaite mais il ne doit plus rester que quelques recoins inexplorés....
- en parallèle, depuis longtemps, j'ai pu observé très clairement les progrès (de 4 mois à quelques minutes) de Google dans la dimension du temps: mes publications sont dans son index en quelques minutes. Il atteint cette rapidité seulement pour les sites comme les blogs équipés de RSS et pour une palette de sites de médias sélectionnés au sein du service Google News.
Le concept des capteurs du Web Squared le prédit: ces senseurs avec "l'ombre informationnelle" qu'ils génèrent sur Internet à partir du monde réel publieront l'information toujours plus vite que les moteurs ne se "muscleront" pour l'ingurgiter.
Donc, le moteur autonome intégral en temps réel restera un mythe.
Il lui faut alors des "béquilles-échasses" pour marcher plus vite: et c'est qui ? Et bien, nous, les êtres humains qui allons finalement être mis à contribution en apportant la dimension de la détection en temps réel des sujets nouveaux (50 millions d'utilisateurs en veille permanente...) des sujets nouveaux et intéressants.
Nous allons donc collectivement être l'apport de puissance artificielle à cette intelligence articificielle qu'est un moteur. D'où mon titre! (CQFD)
Le format des tweets aide à cela:
- détecter les urls injectées dans un tweet de 140 caractères est très aisé: on sait ainsi facilement où diriger les "robots-visiteurs" du moteur pour maximiser la pertinence.
- de même, cette taille réduite impose la concision et des mots minimaux mais très bien choisis. Une analyse sémantique beaucoup plus simple: du pain béni pour un moteur....
- avec les retweets, ces accélérateurs de bouche à oreille, , il est très facile de suivre l'émergence d'un sujet et son intérêt croissant.
A court terme, Twitter fait des sous. C'est bien pour lui! Mais, ne scie-t-il pas la branche de son assise ? En livrant son flux aux "grands", il dévalorise massivement à moyen terme sa propre fonction de recherche et son service des" sujets chauds".
Pour conclure, ceux qui font le web, c'est finalement nous! N'a-t-on pas là une nouvelle incarnation de mon billet sur "nous bossons tous bénévolement au black pour Mountain View" ?
On devrait peut-être faire grève du tweet et revendiquer cet argent. C'est dans l'époque, non ?
Source: blog Media & Tech (par didier durand)
1 commentaire:
Dans la lignée de ce que tu dis, les listes twitter sont aussi un moyen très intelligent pour Twitter de nous faire bosser au black.
En effet, chaque utilisateur peut classer les gens qu'il suit en listes, dont le nom est souvent très révélateur du profil de la personne (on est pas loin du tagging à la delicious).
Par exemple si on regarde les listes ou apparaît @tocarts (http://twitter.com/tocarts/lists/memberships) on pourrait construire un nuage de tags qui decrit relativement bien le compte. (musique, musique en ligne, musique industry, web-music-2-0, blog, gers-gascogne, ...)
Après les fourmis taggeuses de delicious et de recaptcha, voici maintenant les fourmis-taggueuses de twitter !
Je pense que très bientôt les moteurs pourront prendre en compte les infos des listes pour attribuer un trust rank a chaque compte et donner plus de de poids aux tweets qui correspondent à leur niche.
Par exemple si je suis classé dans plusieurs listes liées à la musique, mes tweet musique auront plus de poids qu'un tweet musique d'un utilisateur lambda.
Par contre mes tweets sur le jardinage seront au même niveau que les tweets de tout le monde puisqu'il sont hors de ma niche.
Pouvoir observer qui liste qui, qui retweete qui/quoi et qui discute de quoi, le tout en temps réel, c'est vraiment du pain bénit pour les moteurs !!
Par contre je ne crois pas que twitter scie pas la branche de son assise en livrant son flux aux "grands".
Sa fonction de recherche n'a jamais été très performante et ne pourra jamais égaler la puissance de google ou bing. Cela donc plus de sens de s'associer avec les moteurs tout en faisant jouer la concurrence entre eux.
Tant que sa communauté reste aussi active, Twitter reste l'élément indispensable au centre de l'écosystème, celui par lequel tous les flux transitent, et sans lequel rien n'est possible.
Il a donc intérêt à focaliser sur le developement de sa communauté pour rester LA plateforme incontournable ("the winner takes all")
Outre les partenariats avec les moteurs, il y aura beaucoup d'autres moyens pour Twitter de monetiser sa position notamment en fournissant des services pour les entreprises (publicité, outils de veille, outil de statistiques, pages de marques, et autres options premium...).
Le plus génial dans tout cela c'est les fonctions de bases de twitter sont ultra simple et que ce sont les utilisateurs qui font toute la valeur ajoutée (le contenu mais aussi le développement de la plupart des outils via les APIs).
Un bien bel exemple de crowdsourcing !!!
On n'a pas fini d'entendre parler de twitter ;-)
Enregistrer un commentaire