mercredi, novembre 25, 2009

Karmic Koala depuis un mois dans la famille : Simple comme Ubuntu!

Mise à jour:

Ubuntu party à Paris (Cité des Sciences) ce week-end du 28 et 29.11 2009 pour le lancement de Karmic Koala. Tous les détails dans ce fichier. Présence exceptionnelle de Mark Shuttleworth, le "père" de Ubuntu. Allez-y de ma part...

Billet original:
Fin Octobre 2009 alors que la planète entière (ou presque...) passait à Windows 7, la famille Durand jusqu'à présent équipée de XP a fait un virage à 180°: j'ai installé le nouveau PC familial sous Ubuntu avec sa dernière version Karmic Koala.

Avec le projet NACA (dont nous avons mis les outils de transcodage Cobol > Java en Open Source), j'ai fait prendre à Linux un rôle critique dans le système informatique de mon employeur. Maintenant que Linux semble également mûr pour le poste de travail personnel, il me paraissait logique de lui faire prendre aussi la place de choix dans l'informatique

Le PC acquis pour l'occasion est un clone "no-name" mais haute performance dépouillé de tout logiciel acquis à très bon prix (à cause de l'absence totale de soft) parmi les meilleurs ventes d'Amazon. Il est très standard dans sa config matériel: carte-mère ASUS, etc.

Le dernier service demandé au vieux PC poussif et boîteux sous XP a été de descendre l'image ISO du disque d'installation Ubuntu et de la graver sur un CD.

L'install s'est passée absolument sans souci: quelques paramètres à configurer et le système se met en place automatiquemet en 30 min. Il reboote et c'est fait: tous les dispositifs matériels internes (USB, connexion Ethernet, accélération graphique, disque, etc...) du PC ont été reconnus de même que les périphériques externes: imprimante HP multi-fonctions, disque dur externe USB, micro USB, lecteur MP3, etc.

J'ai ensuite ajouté des utilisateurs distincts pour ma femme et mon fils. Puis, mis en place tous les logiciels dont nous avions besoin pour reconstituer un environnement équivalent à celui que nous avions sur MS-Windows.

C'est là que je vous conseille l'excellent livre (libre lui aussi !) de Didier Roche "Simple comme Ubuntu" sur Framabook: il a été clef pour moi pour préparer cette migration. [Téléchargeable puisque libre mais à seulement 17 euros en version papier. Pourquoi s'en priver ?¨...]

Il présente en effet Ubuntu sous un angle parfait pour une telle migration: j'arrive de Windows, comment je fais pour reproduire mes vieilles habitudes MS-iennes sous Ubuntu? Eh bien, c'est détaillé sur de nombreux chapitres avec en prime un exposé clair (juste un peu biaisé parfois...) des avantages de Linux sur Windows dans ce genre d'activités. Tout ce qu'il faut savoir y est: des heures (jours ?...) de gagnés par rapport à la navigation "à l'aveuglette" dans les forums pour trouver les bonnes équivalences par soi-même.

De plus, parmi ces chapitres, il y a un inventaire dual sur les logiciels de chaque plate-forme par domaines qui propose des équivalences par domaine avec des recommandations pour les "stars" du libre : MS File Explorer > Nautilus, MS-Office > Open Office, MSN Messenger > Pidgin, Scan/OCR HP > Xsane, gestion des podcasts et MP3 > RythmBox + gPodder, etc.... Je ne cite pas Firefox (je suppose que vous y êtes déjà même sous Windows...)

Plusieurs chapitres sont consacrés aux jeux: nous en avons déjà installé quelques-uns. Premières constations: les jeux sous Linux n'ont franchement (plus) rien à envier à ceux sous Windows. Il va nous falloir plusieurs années pour venir à bout de tous ceux qui viennent avec Ubuntu....

La sélection de ses nouveaux outils personnels par popularité est essentielle: le dynamisme d'évolution d'un logiciel libre est toujours très fortement corrélé à la taille de sa communauté d'utilisateurs. Le bouquin ci-dessus est très précieux dans ce domaine.

Le bilan après un mois:
  • Madame Durand (vivant hors de la sphère geek...) est passée en douceur de Windows à Ubuntu: elle a retrouvé des outils équivalents sous Karmic Koala pour ses activités essentiellement bureautiques et internautes. L'ergonomie du bureau et de OpenOffice sont tellement proches de Windows qu'elle s'est à peine rendue compte du passage!
  • ... enfin si, elle s'en est rendu compte: elle ne veut absolument plus retourner à Windows car elle trouve la nouvelle machine hyper-stable et très rapide. On ne sait ce qu'est un reboot: les derniers, c'est EDF qui les fait pour nous dorénavant !....
  • un petit bémol de ma part: on va attendre un peu avant de se prononcer définitivement. Côté rapidité: le PC est tout neuf alors que le vieux avait 5 ans: la loi de Moore est passée par là... Côté stabilité: on verra à la longue car une machine Windows neuve est aussi toujours très stable: c'est au fil des installations hétéroclites et donc du pourrissement progressif de la MS-registry que les choses se gâtent en général. On verra dans quelques mois si Ubuntu lui se bonifie en vieillissant...
  • Un point qui contribue à cette stabilité: seul l'administrateur (donc moi!) peut installer de nouveau logiciels sur la machine via la logithèque Ubuntu donc un meilleur contrôle sur les installations multiples de ma chère tête blonde... En général, le système de sécurité intégré au noyau de Linux (qui vaut 1.4 milliards de dollars si cela peut rassurer) dès sa conception rend le système beaucoup moins vulnérables aux virus et autres malwares.
  • Avec la logithèque Ubuntu, j'ai trouvé un moyen intégré au système d'exploitation pour compléter de manière homogène et cohérente la panoplie des outils que nous utilisons. De plus, avec la taille de cette logithèque, on a l'impression d'avoir trouvée la corne d'abondance ... avec utilisation illimitée et gratuite en prime.
  • Le système de correctifs est très simple: c'est strictement équivalent à Windows Live Update. La machine reçoit automatiquement les notifications de correctifs depuis les dépôts de paquets Ubuntu et les signale (ou les installe automatiquement selon paramètres choisis).
  • Des économies: plus d'achats de nouveaux logiciels mais simplement leur installation à l'envi! Plus d'abonnement annuel à l'anti-virus, aux nouvelles versions des logiciels déjà utilisés, etc... En conséquence plus de craintes de retrouver des logiciels sans licence installlés par Junior via des cracks généreusement fournis par les potes.
Donc, après un mois, franchement aucune ombre au tableau ! Seul bémol à ce jour: être prêt à se débrouiller via Internet quand on a des questions car peu de d'assistance possible dans le voisinage: les grandes chaînes de distribution poussent encore massivement Windows.

Même si j'ai écrit récemment que la taille du logiciel Open Source restait faible par rapport à tout le logiciel commercial et professionnel, elle suffit à combler les besoins de notre famille. Je ne le garantis pas sur les besoins très pointus que vous pourriez avoir.

Conclusion: Ubuntu/Linux n'est plus réservé à des geeks boutonneux à fortes compétences et inclination certaine pour le hack et la bidouille, c'est devenu un système d'exploitation 100% viable pour la station de travail familiale.

Si l'avenir me fait mentir, je reviendrai en toute transparence sur mes soucis dans de futurs billets.....

PS: Si vous prévoyez cette migration sur un PC déjà installé, il y a une solution sans risque pour voir "ce qui va se produire après" sans avoir à changer quoi que ce soit sur votre disque dur: le CD de Ubuntu est bootable.

Vous pouvez donc faire démarrer votre PC actuel sous Ubuntu à zéro risque: bootez juste sur le CD sans rien faire d'autre. Quand Ubuntu a démarré, regardez si tous vos dispositifs matériels sont correctement reconnus (Ethernet, carte graphique, disque dur, USB, etc...). Si c'est bien le cas alors vous pouvez faire une sauvegarde de vos données sur disque USB externe et vous lancer ! Un mode intermédiaire consiste à repartitionner le disque pour avoir un boot dual entre Windows et Linux pendant un petit moment: le temps de s'habituer!

PS du PS: je ne suis pas coupable de la casse ni responsable du support!

Source: blog Media & Tech (par didier durand)

lundi, novembre 23, 2009

Youtube et sous-titrage: avantages stratégiques cachés

Google a annoncé le sous-titrage automatique des vidéos Youtube par utilisation de la technologie de transcription de Google Voice: Guillaume en donne les détails. Il avait été initialement testé sur les vidéos de la campagne Obama.

C'est bien sûr un service aux utilisateurs qui traite de la seconde partie de la mission à 300 ans de Google, "rendre le contenu accessible":
  • quand on reste dans la même langue, c'est une assistance appréciable aux déficients auditifs.
  • quand on combine la transcription textuelle avec le service de traduction automatique de Google (qui reste parmi les meilleurs du monde), il donne accès à chacun à du contenu étranger.
Mais, il y a aussi des avantages stratégiques (cachés) à la mise en place automatique de ce système pour les 20 nouvelles heures de vidéo chargées sur Youtube chaque minute:
  • Amélioration progressive de la technologie de base: le sous-titrage automatique va pouvoir être corrigé dans ses erreurs par les interventions manuelles des spectateurs qui seront ensuite réinjectées dans l'outil pour l'améliorer. C'est donc une fois de plus (cf. "le boulot au noir" de re-Captcha) l'utilisateur final qui est mis à contribution pour améliorer les services développés.
  • Augmentation du trafic via meilleure indexation: les voix sont ramenées en texte. Ce texte peut ensuite être exposé aux moteurs de recherche (celui de la maison-mère bien sûr mais aussi Bing, celui de Microsoft et autres) pour qu'ils l'indexent. La mise en action ultérieure des technologies Universal Search expose ainsi au mieux ces vidéos sur les pages de résultats. Le trafic incroyable de Youtube augmentera encore ! (1.2 milliards de diffusion quotidiennes aux dernières nouvelles...)
  • Elimination publicitaire du contenu scabreux: la stagnation du chiffre du d'affaires publicitaire de Youtube (à la déception de Google) est dû aux risques que les annonceurs ne veulent pas prendre: aucune grande marque ne peut accepter de voir une coûteuse campagne d'image associée à des contenus peu flatteurs dû l'imperfection des mécaniques d'association. La transcription textuelle systématique des vidéos va permettre à Youtube de détecter mieux (mais pas encore parfaitement) les clips "douteux" et donc pouvoir apporter plus de sécurité d'image aux annonceurs
  • Meilleure ciblage publicitaire: à l'instar de ce qui se fait sur le moteur de Google, Youtube va pouvoir mieux cibler, à travers la compréhension des mots prononcés, les publicités qu'elles présentent avec les vidéos y compris dans les formes publicitaires spécifiques à la vidéo.
Tout ceci va bien sûr demander quelques mois (années?...) car la qualité de la transcription "voix vers texte" de Google n'est pas encore optimale, même dans sa langue maternelle qu'est l'américain.

Mais, c'est un travail essentiel pour le futur: la proportion du contenu textuel dans l'univers informationnel a clairement tendance à diminuer pour faire place au multimédia.

C'est alors un enjeu stratégique que des maîtriser les techniques de l'indexation indirecte de ces nouvelles formes de contenu pour rendre de meilleurs services à l'utilisateur tout en maximisant la valorisation du trafic résultant.

Les futurs titans de l'Economie de la Sérendipité naissante sont à chercher parmi les leaders de ce domaine technologique!

Source: blog Media & Tech (par didier durand)

jeudi, novembre 19, 2009

[Fun] Génération Y

Je viens d'avoir une révélation: pourquoi mon fils fait-il dignement partie de la génération Y ?
(celle qui va de 1980 à 1995)


Arf!

Merci Nathalie!

Source: blog Media & Tech (par didier durand)

mercredi, novembre 18, 2009

Google (News) = 15-20% des visiteurs pour les leaders de presse

La chaude empoignade qui oppose depuis quelques jours Ruppert Murdoch à Google dont il veut se faire désindexer amène la publication de chiffres très intéressants: le magazine Ad Age donne aujourd'hui les détails pour 3 leaders de la presse US: Barron's, New York Post et Wall Street Journal.

Rupert Murdoch doit donc avoir le coeur bien accroché pour renoncer à presque 20% des visiteurs du titre leader de sa société: pense-t-il vraiment tout au fond de lui-même que les souscriptions payantes supplémentaires vont compenser la chute correspondante des revenus publicitaires ?

La question reste ouverte:
Il est bien que les leaders essaient de désserrer l'étreinte de Google et d'annihiler sa ré-intermédiation du 4ème pouvoir, mais avec le levier des chiffres énoncés ci-dessus, la partie n'est clairement pas gagnée!....

Source: blog Media & Tech (par didier durand)

mardi, novembre 17, 2009

Désamicaliser = mot de l'année selon le dictionnaire Oxford

Le célèbre dictionnaire anglophone Oxford vient de choisir son mot de l'année 2009: c'est "désamicaliser" (to "unfriend" dans la langue de Shakespeare).

Cette action de "rompre le lien créé précédemment dans un réseaux social" (surtout Facebook) est donc le nouveau mot le plus marquant du langage de cette année.

Signe des temps, il y a 3 ans c'était le verbe "googler" qui avait son heure de gloire: ce choix du Oxford's montre clairement que le front de la vague est dans le web social. La recherche d'information n'a pas disparu (30'000 requêtes sur le seul Google chaque seconde) mais elle simplement standard dans notre vie.

Cette "socialisation virtuelle" de notre vie se prouve par les chiffres toujours hauts de Facebook en train de s'approprier le graphe social mondial.

Comme déjà écrit, je vis aussi ce jeu de la (dés)amicalisation tous les jours: très peu de mes relations non-professionnelles, pourtant très éloignées pour la plupart du Web Squared, n'ont pas leur page Facebook.

Source: blog Media & Tech (par didier durand)

vendredi, novembre 13, 2009

Google Street View et sphère privée : le Tribunal Fédéral Suisse va trancher!

Depuis ce genre d'images sur Google Street View (... sans même parler de celles-ci), je prédisais les procès comme inévitables.

Un premier a eu lieu: plutôt favorable à Google. Un second très intéressant s'ouvre aujourd'hui devant le Tribunal Fédéral suisse: le préposé fédéral avait promis il y a un mois de porter l'affaire devant la plus haute instance juridique helvétique en l'absence d'avancées significatives. Google y travaille activement mais la vitesse de progrès ne convient pas au préposé fédéral à la sphère privée.

L'introduction au Tribunal Fédéral se fait aujourd'hui autour du communiqué ci-après. [J'ai souligné les passages qui m'y paraissent importants]

A l'aube de l'ère du Web Squared où l'on veut créer sur Internet une ombre informationnelle la plus fidèle possible du monde réel et potentiellement la faire alimenter par Monsieur Tout Le Monde via le "life streaming", il est impératif que la justice soit impliquée afin d'aligner la vitesse du progrès technologique et celle de sa "digestion" par la société.


On va donc suivre ce dossier avec intérêt, plus pour les conclusions générales qu'il tirera autour de l'antagonisme entre notre sphère privée et le "bouillon de culture technologique" dans lequel elle trempe que pour les éventuelles sanctions contre Google.

Il faut bien que quelqu'un se lance pour "débroussailler" le terrain sur le sujet. Et Google "aime" faire cela: l'affaire Google Books n'est à mes yeux rien d'autre qu'une de ces explorations juridiques des nouvelles opportunités technologiques!

===== Texte du commnuniqué officiel ===============

Le Préposé fédéral porte l'affaire Google Street View devant le Tribunal administratif fédéral

Berne, le 13.11.2009 - M. Hanspeter Thür, Préposé fédéral à la protection des données et à la transparence (PFPDT), demandait plusieurs mesures à Google dans sa recommandation du 11 septembre 2009 afin de mieux protéger la sphère privée dans le service en ligne Street View. Google a refusé d'appliquer la plupart de ces mesures, raison pour laquelle le Préposé fédéral porte l'affaire devant le Tribunal administratif fédéral.

Le service Street View, en ligne depuis la mi-août 2009, laisse trop à voir du point de vue de la protection des données: visages et plaques d'immatriculation ne sont pas suffisamment floutés, ou alors des personnes sont montrées dans des environnements sensibles, par exemple devant un hôpital, une prison ou une école. Par conséquent, le PFPDT a émis une recommandation le 11 septembre 2009 dans laquelle il demandait à Google de mieux garantir la protection des données personnelles et de la sphère privée. Par lettre du 14 octobre 2009, Google a rejeté en grande partie les exigences du Préposé fédéral.

Du reste, les informations préliminaires livrées par Google au PFPDT étaient en elles-mêmes incomplètes: Google avait en particulier annoncé à l'origine que ses prises de vues concernaient principalement les centres-villes, alors que bien des villes sont montrées dans toute leur étendue. Dans les quartiers périphériques, où la densité de la population décroît considérablement par rapport aux rues des centres-villes, il ne suffit pas de flouter les visages, étant donné qu'un zoom permet aux utilisateurs de Street View de cadrer sur ordinateur les images de personnes et de les agrandir.

Autre point mentionné dans la recommandation, la hauteur des caméras montées sur les véhicules de Google est inadéquate. Elle permet de voir par-dessus les haies et les murets de jardins privés bien mieux qu'un passant ordinaire ne le pourrait depuis la rue. La sphère privée n'est ainsi plus garantie dans les jardins et les cours clôturés.

Le Préposé fédéral a donc décidé de porter l'affaire devant le Tribunal administratif fédéral. Le libellé de la demande présentée au tribunal est disponible en allemand ici.

Source: blog Media & Tech (par didier durand)

jeudi, novembre 12, 2009

Facebook: pour retrouver les photos subrepticement publiques de soi-même

L'immense succès de Facebook (300+ millions d'utilisateurs) vient en majeure partie de l'impression donnée par le système de publier entre amis: "je contrôle le cercle des gens qui voient le contenu qui me concerne: au pire les amis de mes amis". J'observe cela très clairement parmi ma famille et mes amis ("physiques") qui vivent très loin de la geekerie du Web Squared: ils se sentent couverts par le côté "jardin fermé" de Facebook

La conclusion est donc "je peux me lâcher et donc laisser mes amis (virtuels) publier les photos qu'ils veulent (de moi)", y compris celles un peu graveleuses de fin de soirée....

Eh bien, c'est faux et dangereux: il est possible de définir (depuis 2006 !) un album photo avec l'attribut "public" qui fait qu'il est ensuite intégralement visible sur Internet, i.e sans besoin d'être utilisateur Facebook ni connecté au propriétaire de l'album. C'est bien sûr dans l'intérêt de Facebook: comme les éditeurs de presse, il cherche à recevoir des milliards de visites mensuelles d'internautes depuis les moteurs en publiant (au sens "rendre globalement public") tout ce que l'utilisateur lui (... et même un peu plus) permet afin de maximiser ses revenus publicitaires.

Ces albums-photos ont certes une URL cabalistique (i.e longue et pleine de nombres sans rapport avec l'utilisateur): on les invente pas si on ne les reçoit pas.

Pour se protéger au maximum, la question est alors: "est-il possible de les recevoir exhaustivement ces damnées URLs de photos publiques ?" En effet, elles peuvent être subreptices, ces publications: dans une soirée, on ne connaît pas forcément tous les photographes-facebookers....

La réponse est positive:
  • une partie de chaque profil d'utilisateur est publique: en allant sur le mien et après N rafraîchissements (pour les voir tous) , vous aurez une bonne idée de la liste de mes amis, en plus de leur identifiant ainsi que la photo choisie par eux pour leur profil. Souhaitent-ils s'afficher ainsi avec moi ? Pas sûr ;-) En tout cas, Facebook ne leur a pas demandé....
  • Un développeur muni de ses premiers identifiants va ensuite fabriquer un programme qui développera sur le principe ci-dessus le graphe social global de tous les utilisateurs sans rien avoir à demander à Facebook
  • Ensuite, par les APIs de Facebook, il pourra obtenir la liste des albums publics de chaque utilisateur (méthode "artisanale" ici), télécharger les photos pour y retrouver les visages par des techniques de reconnaissance faciale biométrique et ensuite si il le souhaite republier le tout avec l'indication claire des noms des personnes trouvées sur le photo.
  • Si il republie ces photos, accompagnées des noms des personnes découvertes, avec les commentaires des amis de l'utilisateur faits dans Facebook et donc accessibles en statut public comme les photos, alors c'est badaboum-patatrac: au nom des personnes découvertes sur les photos comme mot-clef sont maintenant associés sur Internet, donc accessible par les moteurs comme Google d'autres mots-clefs gênants et des photos embarrassantes... [Ce serait bien sûr une violation des conditions d'utilisation Facebook mais qui sait combien de temps cela pourrait durer!]
  • En les mettant seulement à disposition de tierces parties, il pourrait être aussi la source de licenciements (abusifs ?) par exemple: demandez donc à Kevin Colvin....
Science-fiction, direz-vous ? Pas d'accord: Google fait exactement cela à longueur de journée à l'exception de l'étape de re-publication avec les noms des personnes découvertes. Avec le floutage des visages sur Google Street View, ces équipes ont cependant démontré qu'elles savaient traiter (bien qu'imparfaitement à ce jour) la biométrie. Qui dit qu'ils ne font pas cela actuellement pour des usages internes de ciblage dans la veine Big Brother que nous prêtons tous régulièrement au géant de Moutain View?

Ce qui me fait dire "réalité" plutôt que "science-fiction"? Eh bien, c'est l'annonce toute récente de la société israélienne face.com: elle a monté toute la mécanique citée précédemment mais sur le mode "chevalier blanc salvateur": à travers cette mécanique, elle repère les photos publiques sur Internet et dans Facebook qui vous concerne et vous en alerte discrètement si vous vous inscrivez à son service en lui donnant quelques photos permettant de vous reconnaître.

Ensuite à vous de voir comment utiliser les alertes de Face.com:
  • contacter le publicateur pour lui faire éventuellement "gommer" la photo gênante.
  • laisser Face.com piloter le placement d'un tag photographique Facebook rendant votre présence explicite cette fois aux yeux de tous.

Fin de l'épisode (futuristico)-tragi-comique du jour! A chacun de juger si c'est finalement très fun ou plutôt dramatique..... En juillet, Face.com avait déjà analysé 1.5 milliard de photos et identifié 2.4 millions de visages, verre à moitié vide ou à moitié plein? Facebook héberge 80 milliards de photos.

Tout ceci me rappelle mes très vieux billets sur la transparence totale apportée par le Web 2.0. C'est votre avis aussi?

PS: merci de ne pas développer la version vilain "petit canard délateur" exposée plus haut. Je ne veux pas d'ennui avec la police! ;-)

Source: blog Media & Tech (par didier durand)

lundi, novembre 09, 2009

(re)Vente Skype: belote, re-belote ... et dix de der pour les fondateurs!

La revente des 35% d'un Skype valorisé à 2.7 milliards de dollars par Ebay après son acquisition peu synergique était annoncée dès le 1er Septembre.

Depuis, bagarre avec les fondateurs qui ont très habilement su garder la propriété intellectuelle sur la technologie d'index au coeur du système de connexion des utilisateurs: ils menaçaient depuis septembre de retirer une part de la technologie licenciée aux acquéreurs donc de tuer Skype si ils ne ré-obtenaient pas une part du capital au moment de cette vente en échange d'une licence beaucoup plus "éternelle" (i.e. sans condition) pour les acquéreurs.

Eh bien, après avoir fait belote (voire jackpot! ...) lors de la vente initiale, ils font re-belote en recevant 14% du capital en parallèle des autres actionnaires pour cette nouvelle forme de licence.

Et, ils font dix de der en gardant le droit de ré-utiliser cette technologie (qui provient de Kazaa à l'origine) dans le cadre d'autres aventures à venir. Vu que leur dernier bébé, Joost, est planté, les fondateurs de Skype vont sûrement se relancer dans autre chose, armés des technologies P2P qu'ils dominent à100% et qu'ils possèdent.... Oseront-ils relancer un Skype bis? Pourquoi pas après tout....

Grandiose, non ! Morale: il faut vraiment vérifier et analyser ce que l'on achète lors d'une acquisition. Ebay a certainement dû faire ce genre de concession (licence restrictive avec droit de regard) car elle ne pouvait pas payer le prix fort lors de la première acquisition. Résultat, elle repasse à la caisse au moment de la revente....

Qu'est devenu Skype entretemps? Elle explose toujours: son chiffre d'affaires est passé de 200 millions de dollars à 740 millions de dollars générés en majorité par SkypeOut par 521 millions d'utilisateurs actifs (dont je fais toujours activement partie: aussi bien en local qu'en international)

La courbe ci-dessous de la progression des utilisateurs simultanément connectés le prouve explicitement:


[Source: Skype journal]

Mon syllogisme du gruyère appliqué à Skype semble encore loin à M. Andreessen (multi-impliqué dans la genèse du web actuel) puisqu'il s'est placé parmi les nouveaux investisseurs en la définissant comme "une des sociétés les plus importantes de l'Internet": il est clair qu'avec un marché des services de télécommunications à par an, Skype n'a pas fini de pouvoir générer des revenus même si dans l'absolu elle finit par rendre les communications vocales gratuites (y.c pour les mobiles)

En tout cas, quelle existence troublée pour la société que Mary Meeker avait décrite comme" le service à la croissance la plus rapide de l'histoire". Ce sont les phénoménaux enjeux collatéraux pour le monde des télécommunications qui en sont majoritairement la cause.....

On va donc rester à l'écoute des prochains épisodes!

Source: blog Media & Tech (par didier durand)

jeudi, novembre 05, 2009

Patrimoine Open Source mondial: état et perspectives

Chris DiBona, le responsable du programme Open Source chez Google, a livré les résultats d'une étude intéressante:

le logiciel en Open Source sur Internet, c'est actuellement
  • 2.5 milliards de lignes de code organisées en
  • 30 millions de fichiers.

En effet, les robots d'ndexation de Google s'intéressent bien sûr au contenu rédactionnel mais aussi au code source qu'ils trouvent sur les 1'000 milliards de pages de l'Internet. En enlevant les redondances des mêmes projets publiés sur diverses archives (Google Code, SourceForge, etc.), on arrive aux 2 chiffres ci-dessus.

Pour fixer les idées sur cette taille:
Donc, finalement, 2.5 milliards, cela reste encore très modeste par rapport à l'intégralité du code source écrit durant la brève histoire de l'informatique...

Les licences de ce patrimoine Open Source, toujours selon C. DiBona:
  • plus de la moitié du code est publié avec licence GPL/LGPL , l'étalon de l'Open Source: c'est celle qui convient aux puriste de l'OSS puisqu'elle impose par ses termes l'accès au code source pour tout utilisateur qui le souhaite. C'est la raison pour laquelle, nous l'avons choisie dans NACA: il ne peut pas y avoir d'appropriation injuste (i.e "verrouillage") d'un code source légèrement modifié par celui qui serait parti d'un code GPL pour dériver sa propre valeur ajoutée.
  • plus de 20% de ce code est, par contre publié, sous des licences très libérales: c'est impératif quand on veut qu'un logiciel ainsi publié devienne une plate-forme à forts enjeux commerciaux. En effet, les fabricants qui reprennent cette plate-forme doivent pouvoir la bonifier sans être obligés de publier leurs modifications. C'est clairement cette voie qui a été retenue par Google pour Android via le choix d'une licence Apache afin qu'Android soit adopté par un maximum de fabricants de combinés.
On peut s'imaginer que cette tendance à l'écartèlement entre les 2 extrêmes de l'Open Source va se poursuivre car ces extrêmes ont des buts respectifs certes fortement divergents mais très clairs!

Les licences "médianes" qui essaient de préserver la chèvre et le chou vont avoir tendance à disparaître: on ne peut avoir le beurre et l'argent du beurre à travers l'Open Source!

Source: blog Media & Tech (par didier durand)