• Téléphone : +33 (0)9 84 21 77 49
  • Courriel : contact[@]edeation.fr

Le blog du numérique libre

Suivez chaque semaine l'actualité du numérique libre et des technologies open-source

Graphe Global Géant

Le GGG, Graphe Global Géant, sera le futur du WWW

Posté le 21 janvier 2015 dans Web 3 / IoT / objets connectés et tagué , , , , par edeation.

Je vous parlais en décembre de ce que sera réellement le web 3.0. Je vous expliquais qu’une part de mystère entoure encore la façon dont il sera concrètement utilisé. Dans ce billet, je mettais surtout l’accent sur l’interconnexion des objets. Mais il y a une autre façon de voir les choses, qui est celle de Tim Berners-Lee, le créateur du protocole www (World Wide Web). Cette façon de voir les choses, l’informaticien anglais l’appelle le GGG. Quel concept ce cache sous ce nouveau sigle ?

Le concept du GGG est en réalité complémentaire du concept de l’IdO (internet des objets), et je pense qu’il faut y voir une grande cohérence entre les deux (plutôt qu’une confusion). D’une certaine façon, on pourrait dire que le GGG est au WWW ce que l’IdO est à l’internet. Je m’explique. L’internet d’aujourd’hui, c’est encore essentiellement l’internet des ordinateurs. Certes, nous pouvons désormais surfer sur internet via notre smartphone ou notre tablette, mais il ne s’agit là que d’une extension du concept d’ordinateur, en direction des « terminaux mobiles ». Ce que promet l’IdO, c’est l’extension de l’interconnexion au monde des objets, tout type d’objet, équipements électroménagers, systèmes d’éclairage ou de chauffage (domotique), véhicules, vêtements, accessoires, bref tout ce qui peut incorporer un microcapteur. Autrement dit, le web 3.0 promet de donner du sens à l’ensemble plus vaste des objets constituant la cellule de vie d’un foyer, d’une personne, et même d’une société ou d’une communauté.

Sur cette base, l’idée du GGG est d’étendre le WWW sur le même principe : en considérant le contenu internet non plus comme le réseau des pages HTML (sous forme d’hyperliens), mais comme le réseau des « objets sémantiques » contenus dans les pages HTML, c’est-à-dire comme le réseaux des objets qui interprètent sur la toile notre quotidien, en quelque sorte.
Lire la suite

Fedena

Fedena, un ERP libre de gestion d’école

Posté le 19 janvier 2015 dans Éducation et tagué , , par edeation.

Fedena est un ERP (logiciel de planification des ressources de l’entreprise) open source de gestion d’école développé par Foradian Technologies à partir du framework Ruby on Rails. L’application a été adoptée par le ministère de l’éducation de l’état indien du Kerala (situé à l’extrême sud de l’Inde) dans le cadre du projet nommé Sampoorna, le système pilotant l’automatisation de la gestion et de la coordination de plus de 15 000 écoles dans l’état. Fedena est aujourd’hui utilisé par plus de 40 000 établissements dans le monde.

Fedena a été développé par Foradian Technologies, une agence de développement basée à Bangalore, en Inde. Foradian avait initialement commencé en mai 2009 le développement d’un système de gestion d’élèves sur-mesure pour une école (alors nommé « Foredu »), rebaptisé plus tard « Fedena ». La version Fedena 0.1 a été lancée en août 2009. Développée en Ruby selon l’architecture MVC, l’application se compose d’un module de base qui remplit toutes les conditions nécessaires d’un jeu d’instruction. Fedena est ensuite optimisé, toujours suivant le principe de la modularité, pour la personnalisation ; de nombreux modules peuvent être facilement installés pour étendre la puissance et l’ergonomie de la solution.

Dans son ensemble, le projet Sampoorna permet de coordonner l’activité des enseignants, de surveiller les activités des étudiants de l’école. De nombreux processus y ont été intégrés. Parmi les modules intégrés dans le système de base, on retrouve des fonctionnalités comme la gestion des cours, des utilisateurs, des ressources humaines, des calendriers scolaires, des événements scolaires, des news, de l’assiduité des élèves, des bourses d’étude, des finances, des renseignements sur les élèves, des examens, des admissions aux examens, de la messagerie et des alertes SMS. Le système dispose d’un extranet ouvert aux enseignants, aux employés, aux élèves et aux parents d’élèves, ainsi que de plusieurs tableaux de bord en fonction de type d’utilisateur.

Parmi les modules payants (qui ne sont donc pas véritablement open source) on trouve des fonctionnalités telles que la gestion des auberges de jeunesse et des dortoirs, la vidéo-conférence, les examens en ligne, l’intégration de Moodle, la bibliothèque, la gestion des transports, les forums de discussion, le blog, les sondages, la gestion des taxes, les affectations, la version mobile, les paramètres d’importation personnalisés, les rapports personnalisés, les rapports disciplinaires, les inventaires, les galeries photos, les Google Apps, la passerelle de paiement.

L’exhaustivité des fonctions et leur qualité d’implémentation ont valu à Fedena de nombreux prix : MiT TR35, Edustars, Indira International Innovation, NASSCOM Emerge 10, 2012, CNBC-TV18 Young Turks, UKTI Innovative Indian Companies Award

Actuellement en version 3.1.1 (juin 2014), Fedena est disponible à http://www.fedena.com.

OpenIoT

OpenIoT, une solution libre pour l’internet des objets

Posté le 16 janvier 2015 dans Cloud, Framework / EDI, Théorie / Science, Web 3 / IoT / objets connectés et tagué , , , , , , par edeation.

Comme vous le savez, l’internet des objets (IdO) est un concept informatique qui décrit un avenir (disons proche) où les objets et appareils entourant notre quotidien seront identifiés sur le réseau afin d’être connectés entre eux. C’est l’une des ambitions du web 3.0, la principale autre étant le web des objets sémantiques connectés, i.e. le web sémantique, dont je parle dans cet autre billet traitant du GGG (Graphe Global Géant). Je voudrais aujourd’hui élargir le sujet, pour montrer que l’IdO ne se limite pas à la domotique, bref, que l’IdO annonce autre chose que des SMS qui annoncent qu’il faut racheter du beurre, ou une appli smartphone qui permet de préchauffer le four à distance.

Au sens large, l’IdO se présente sous la forme de réseaux de capteurs sans fil (réseaux WSN, ou Wireless Sensor Network). Ces réseaux représentent un des grands enjeux de demain, car ils répondent au besoin impérieux d’observer et de contrôler un nombre croissant de phénomènes, dans de multiples domaines : dans l’industrie et les sciences (observatoires de la température, de la pression, de l’hygrométrie…), en écologie et environnement (observatoires des ultraviolets, de la radioactivité, des polluants, les métaux lourds, de l’ozone, du CO2 et des gaz à effet de serre), dans le domaine de la santé (observatoires des maladies, veille épidémiologique), dans le domaine de la sécurité ou encore dans le domaine des transports (contrôle du trafic routier urbain, prévention des accidents, domotique).

Dans ce cadre, OpenIoT est un middleware open source permettant de construire des réseaux de capteurs sans fil abstraits, c’est-à-dire sans avoir à se soucier de leur nature. L’identification des objets, c’est-à-dire des capteurs, est réalisée grâce à la technologie RFID (Radio Frequency Identification), qui est une méthode d’identification utilisant des marqueurs appelés radio-étiquettes (ou RFID transponder). Le middleware est donc générique et fonctionne avec une interface utilisateur conviviale centralisant les appareils connectés au réseau.

La grande force d’OpenIoT réside dans le large éventail des domaines scientifiques et technologiques couverts. Cette couverture est rendue possible par l’utilisation du Web sémantique. OpenIoT fait un usage large de l’ontologie du web ; il utilise des modèles et des annotations pour représenter les objets connectés à Internet, ainsi que des techniques sémantiques liées aux données ouvertes. Des algorithmes ont été implémentés pour collecter et filtrer les flux d’information provenant des objets connectés.

Autre avantage, le modèle de cloud est flexible. OpenIoT propose plusieurs modèles de prestation, pour une utilisation comme IaaS, PaaS ou SaaS. Signe de son ouverture, OpenIoT peut également être déployé « en interne » sur un serveur local. OpenIoT est disponible sous forme d’un kit de développement ; un certain nombre de fonctionnalités sont activées par défaut mais le projet peut être modifié librement, le code source étant gratuitement téléchargeable dans son intégralité.

OpenIoT est le fruit d’un effort conjoint d’éminents contributeurs open source venant d’horizons différents. Il
a été cofinancé par le « European Union’s Seventh Framework Program », et a été récemment incorporé au programme d’enseignement de l’université de Santa Clara University, en Californie. Pour en savoir plus, visitez le site d’OpenIoT.

Google annonce le support du format OpenDocument

Posté le 14 janvier 2015 dans Bureautique et tagué , , , , , , , , , par edeation. | Laisser un commentaire

OpenDocument a décidément le vent en poupe. Après Microsoft, c’est au tour de Google d’annoncer officiellement le support du format OpenDocument (format ODF) pour SkyDrive. La firme de Mountain View vient en effet d’annoncer que ce format ouvert serait pris en charge dans sa suite Google Apps. Dans un post sur Google +, l’équipe précise bien que ce support comprend ODT (documents de texte ODF), ODS (tableurs) et ODP (présentations), qui peuvent donc être importés respectivement dans Google Docs, Google Sheets et Google Slides.

La décision de Google fait suite à un vaste mouvement de fond pressant les prescripteurs du numérique, gouvernements et autres organes de gouvernance en tête, à exiger la prise en charge des formats libres. On rappellera que le gouvernement britannique a pris la décision d’utiliser ODF pour ses documents, et que, de façon complémentaire, la Commission Européenne est bien décidée à soutenir le logiciel libre . Or, jusqu’à présent, le soutien de Google envers le format OpenDocument était plutôt timide (le format de présentation ODP était par exemple royalement ignoré). Une nouvelle ère semble donc se dessiner, où les poids lourds du numérique ne pourront désormais plus ignorer l’avènement du logiciel libre.

Reste à savoir si le support est de bonne qualité, si l’encodage des caractères est correctement traité, aussi bien en importation qu’en exportation, si les annotations et autres métadonnées ne sont pas perdues ou altérées au cours des opérations de conversion, si le support annoncé sera correctement maintenu dans le temps aussi. Pour Google, aussi bien que pour Microsoft, ODF est encore essentiellement vu comme un format de migration permettant de faire interagir deux formats propriétaires, typiquement les formats Microsoft (Word, Excel, Powerpoint) et les formats Apple (Pages, Numbers, Keynotes). Et si cette reconnaissance était l’amorce d’une nouvel ère, ou ODF s’imposera enfin comme un authentique format de travail? C’est ce qui pourrait arriver de mieux au numérique libre : que les formats de création tombent, avec le temps, définitivement dans le domaine libre, laissant à Microsoft Office et iWork le rôle de simples suites logicielles. Nous en sommes encore très loin mais cette hypothèse doit être sérieusement envisagée pour les prochaines décennies. Le rôle des « gens d’en haut » — des gouvernements, des législateurs — sera déterminant.

Offre Libre

L’Aful promeut une marque « Offre Libre »

Posté le 12 janvier 2015 dans Gouvernement / droit, Histoire / généralités et tagué , par edeation. | Laisser un commentaire

Au départ, il y a cette observation très juste de Laurent Séguin, président de l’Aful (Association Francophone des Utilisateurs de Logiciel Libre) :

Je me souviens d’un DSI, que j’encourageais depuis longtemps à passer au logiciel libre. Un jour il est venu me voir en me disant qu’il l’avait fait et qu’il ne voyait aucune différence. En regardant de plus prés, j’ai vu que l’offre en question était en fait de l’open core (Ndlr : un business model qui repose sur la coexistence d’une offre commerciale propriétaire et d’une offre gratuite et open source mais aux fonctionnalités limitées) ce qui est très différent. Mais les clients ne saisissent pas toujours les subtilités.

D’où la volonté de promouvoir une marque « Offre Libre », qui entend clarifier tout cela, comme l’appelle de ses voeux Laurent Séguin. L’objectif de cette marque libre est donc de distinguer les « vrais » éditeurs open source des « faux », c’est-à-dire les éditeurs qui joue véritablement le jeu de l’open source de ceux qui, voulant le beurre et l’argent du beurre, en joue pour s’acheter une crédibilité. La marque « Offre Libre », précise le président de l’Aful, « ne sera pas à proprement parler un label au sens juridique du terme ». La question est de savoir quelle sera la forme précise de cette offre, de façon à guider les clients dans la pléthore des offres logicielles disponibles. En particulier, les administrations et les entreprises pourront exiger le label « Offre libre » dans leur appel d’offre, s’épargnant le tri fastidieux des sociétés qui sont en réalité en marge de la production open source.

L’offre Libre devrait concrètement se présenter sous la forme d’une note de A à D, établie sur la base de certains critères clairement identifiés :

  • Les licences utilisées, l’existence de dépendances ou compléments non libres ;
  • L’accès aux sources des logiciels ;
  • La documentation associée au code source ;
  • L’ingénierie liée au logiciel : qualification, tests, gestion des données et la montée de version ;
  • Les aspects commerciaux : modèle d’affaires, licence multiple, transparence tarifaire, politique de gestion du code client/spécifique, autonomie de l’utilisateur ;
  • Pour les éditeurs : la gestion de la communauté avec les conditions de contributions au code, les remontées de bugs et de demandes, les relations avec les utilisateurs
  • La notoriété par l’existence de références clients.

Cette note circonstanciée devrait ainsi jouer aussi bien le rôle de guide d’achat pour les clients que le rôle d’un petit guide de bonnes pratiques pour les offreurs, en les aidant à améliorer leurs solutions logicielles.

À noter que la marque sera décernée pour un an et devra faire l’objet d’un renouvellement. Une initiative très intéressante à suivre. Pour en avoir les détails, voir le site de l’Offre Libre.

DeepDive

Dossier intelligence artificielle open source #1 DeepDive

Posté le 9 janvier 2015 dans Intelligence artificielle et tagué , , , par edeation.

Souvenez-vous, en février 2011, IBM avait défrayé la chronique avec Watson, un programme d’intelligence artificielle encore jamais vu, capable de surclasser les meilleurs humains dans le célèbre jeu télévisé américain « Jeopardy », où il est question de répondre à des questions formulées en langue naturelle, un peu comme le jeu « Questions pour un champion » en France. Quelques mois plus tard, les alternatives open source commençaient à poindre le bout de leur nez. Alors, en ce début d’année, j’ai eu l’idée de faire un petit état des lieux des solutions open source actuellement disponibles. Je commence aujourd’hui, fort logiquement, avec DeepDive, qui n’est autre que la version open source de Watson développé par IBM au sein du Defense Advanced Research projets Agency (DARPA).

Le projet DeepDive de la DARPA n’a pas vocation à émuler l’intelligence artificielle de Watson, c’est-à-dire à reproduire les compétences d’un humain en langage naturel (avec la rapidité qu’on lui connait), mais plutôt à améliorer le processus décisionnel au fil du temps avec l’aide humaine. Comme le note Christopher Re, professeur à l’Université du Wisconsin et développeur en chef de DeepDive, « Watson est un moteur de question-réponse là où DeepDive est un programme d’extraction de données structurées à partir de sources de données non structurées ». Et les résultats sont d’ores-et-déjà fort honorables ; comme le déclare Shanan Peters, qui a supervisé les essais, « Nous avons testé DeepDive contre les humains effectuant les mêmes tâches, et DeepDive est sorti gagnant ou au moins à égalité avec les humains ».

DeepDive se veut donc un programme d’exploration de données non structurées, en vue par exemple de classer automatiquement les articles parus dans des revues techniques. Il intègre des algorithmes d’apprentissage très avancés, fondés notamment sur les probabilités, mais aussi des outils open-source comme MADlib, Impala (d’Oracle), ainsi que des techniques de bas niveau, tels que Hogwild. L’implémentation de DeepDive dans une application repose sur une architecture Python/SQL.

En se penchant sur l’avenir de DeepDive, on en vient finalement à se demander jusqu’où peut évoluer un tel programme d’IA, si on lui en donne les moyens. Selon Christopher Re, « Nous pensons que la prochaine génération de DeepDive rendra l’apprentissage des machines beaucoup plus facile à programmer. Nous prévoyons aussi d’entrer plusieurs types de données dans DeepDive : images, figures, tableaux, graphiques, feuilles de calcul — une sorte de « données Omnivore » pour emprunter une formule de Oren Etzioni».

Pour l’heure, le projet DeepDive n’enregistre pas moins de 10 000 téléchargements par semaine. Preuve que le sujet est bouillant. Pour suivre le mouvement, rendez-vous sur deepdive.stanford.edu. Bonne lecture.

Place des libraires

Comment court-circuiter Amazon avec Amazon-Killer

Posté le 7 janvier 2015 dans Business / e-commerce et tagué , , , , par edeation. | Laisser un commentaire

Je ne résiste pas à l’idée de relayer cette information. C’est un peu la version GAFA (Google, Amazon, Facebook, Apple) de l’histoire de l’arroseur arrosé, ou du court-circuiteur court-circuité si vous préférez. Dans le rôle du court-circuiteur court-circuité : Amazon (et chacun s’en réjouira quand on connait les méthodes de cette entreprise). Amazon avait fait parler de lui à l’occasion de la sortie de Kindle Cloud Reader, un lecteur permettant de lire les livres électroniques instantanément sur votre navigateur Web, court-circuitant l’App Store d’Apple. Bien fait pour Apple, se disait-on, tant Apple abuse dans ce domaine. Mais on riait jaune quand même, car c’était au profit d’Amazon, qui est encore plus perfide qu’Apple.

Mais voici qu’aujourd’hui Amazon est à son tour court-circuité par un jeune entrepreneur, Elliot Lepers, fils de John-Paul, mais surtout développeur et activiste, qui s’était offusqué de la décision d’Amazon de contourner la loi anti-Amazon (je rappelle que Amazon avait réagi à la loi interdisant les frais de port gratuits en fixant ses frais de port à … 1 centime d’euro). À ce petit jeu, que je qualifierais de scélérat, et que Lepers envisage comme un « mépris total et assumé du politique par le capital », on finit toujours par perdre. On a beau émarger dans le club très fermé des GAFA, on a toujours un point faible quelque part, un talon d’Achille qui ne demande qu’à être exploité.

Ce talon d’Achille, Elliot Lepers l’a trouvé en découvrant que les libraires indépendants ont déjà leur propre réseau pour vérifier la disponibilité d’un livre en magasin. Il n’en fallait pas plus pour pousser le développeur de 22 ans à coder Amazon Killer, un petit pont entre Amazon et la place de marché placedeslibraires.fr/, ledit réseau des libraires indépendants, sous la forme d’une extension pour navigateur (actuellement pour Chrome et Firefox, mais également bientôt pour Opera et Safari).

Le principe de l’extension est très simple, vous allez sur Amazon, sur la fiche d’un livre que vous souhaitez acquérir et là, plutôt que de cliquer sur le bouton achat, vous cliquez sur l’icône d’Amazon-Killer qui se trouve dans la barre d’outil et Amazon-Killer trouve automatiquement le livre correspondant sur la Place des Libraires. Comment ? Simplement en récupérant le code ISBN du livre affiché sur la page Amazon. Il ne vous reste plus alors qu’à commander le livre chez un libraire indépendant, ou à l’acheter dans un magasin physique, et cet acte citoyen vous aura simplement demandé un clic de plus pour réaliser votre achat. Pour un développeur, l’exercice était plutôt facile, mais encore fallait-il y penser ! Donc un grand merci à Elliot Lepers.

Mozilla Rust

Rust 1.0, successeur de C++, disponible le 9 janvier

Posté le 5 janvier 2015 dans Langages, Sécurité / vie privée et tagué , , , par edeation. | Laisser un commentaire

Rust est un nouveau langage de programmation syntaxiquement proche de C et C++, conçu par Graydon Hoare de Mozilla Research. En version alpha depuis 2012, Rust est aujourd’hui annoncé par la fondation Mozilla en version 1.0 pour le 9 janvier, avec un cycle de correctifs programmé toutes les 6 semaines jusqu’à la première version stable prévue pour le printemps.

Rust a été conçu pour être un langage compilé multi-paradigme expérimental, sécurisé et concurrent. L’objectif de Mozilla Research était de faciliter le développement des gros logiciels clients et serveurs reposant sur l’internet. Ce réquisit a poussé l’équipe de développement à porter une attention soutenue à la sécurité, au contrôle de la mémoire et à la concurrence. Les développeurs ont ainsi pu décrire Rust comme une sorte de successeur de C++ orienté web.

Par ailleurs, il était prévu que Rust repose uniquement sur des concepts déjà connus et éprouvés (d’où son nom, «rouille» en anglais) et n’intègre aucun concept nouveau et non testé. C’est cet autre réquisit qui a finalement aboutit à un langage proche de C. Ce qui n’empêche pas, pour autant, que Rust est sémantiquement différent de C ou C++. En effet, si Rust est composé de blocs de code délimités par des accolades et de structures de contrôle comme if, else, while et for, il supporte également les styles de programmation purement fonctionnelle, ce qui le rapproche plutôt de Haskell.

Enfin côté performance, Rust est également comparable à C++.

europe open source

Un audit de 1 000 000 € pour la sécurité des solutions open source de l’UE

Posté le 31 décembre 2014 dans Gouvernement / droit, Sécurité / vie privée et tagué , , par edeation. | Laisser un commentaire

Je vous parlais à Noël des annonces de la Commission Européenne concernant son soutien au logiciel libre. On apprend aujourd’hui qu’en complément de cette annonce, l’Union Européenne va investir d’un million d’euros dans l’audit des solutions libres et open sources utilisée par le parlement et la commission.

Comme je l’expliquais dans le billet précédent, l’Union Européenne souhaite renforcer la présence des technologies open-source au sein de ses institutions (technologies déjà bien présentes), et passer de plus en plus d’un rôle de simple utilisateur à un rôle de contributeur. Or cette stratégie ne pouvait s’envisager sans un diagnostic sérieux de la sécurité des logiciels. C’est la raison pour laquelle l’UE va lancer ce vaste audit d’un million d’euros. À ce prix, il faut s’attendre à une analyse systématique des solutions, utilisées tant par le Parlement que par la Commission Européenne.

C’est la Direction Générale de l’Informatique de la Commission Européenne (DIGIT) qui supervisera le projet, qui commencera par un simple inventaire des solutions utilisées par les institutions. À noter que les résultats seront publiés, dans le soucis d’une étroite collaboration avec la communauté des développeurs.

Le diagnostic logiciel sera accompagné de la mise en place d’une politique d’utilisation des meilleures pratiques logicielles et du développement, pour 500 000 euros, d’une solution de soumission d’amendements baptisée AT4AM, déjà disponible en beta et dont je reparlerai bientôt.

blacklist google

Google blackliste plus de 11 000 sites WordPress

Posté le 29 décembre 2014 dans CMS, Sécurité / vie privée et tagué par edeation. | Laisser un commentaire

Google a mis en liste noire plus de 11 000 domaines suite à la détection d’un malware baptisé SoakSoak. Les experts ont découvert que le vecteur d’attaque est RevSlider, un plugin de slideshow pour WordPress très populaire (utilisé sur ce blog!). La campagne malveillante a exploité une faille dans ce plugin. La plupart du temps, ces attaques sont surmontées par des mises à jour logicielles qui comportent les correctifs nécessaires. Mais, dans le cas de RevSlider, la situation a dégénérée pour deux raisons, d’une part parce que l’éditeur n’as pas suffisamment insisté sur l’urgence de la mise à jour, d’autre part parce que l’intégration de ce plugin ne facilite pas sa mise à jour. La qualité du plugin lui avait valu d’être intégrée par défaut comme solution de slideshow sur bon nombre de thème WordPress. Du coup, le plugin n’est pas recensé dans le journal des mises à jour des plugins, et il convient d’effectuer la mise à jour du plugin manuellement, sans toucher au reste du thème. En plus, pour ne rien arranger, certaines versions du plugin sont payantes, ce qui pu éventuellement dissuader certains blogueurs d’envisager la mise à jour.

Résultat : plus de 11 000 sites WordPress ont été corrompus, détectés comme malveillants par les systèmes de sécurité de Google et finalement blacklistés par Google (qui affiche dans ce cas un message d’alerte à l’attention de l’internaute lorsque celui-ci tente de se connecter).

Da façon plus générale, il faut rappeler que les malwares sont un mal quotidien qui touche en permanence le web. L’agence de sécurité Sucuri a par exemple annoncé avoir identifié des failles sur plus de 100 000 sites WordPress, à travers des plugins très populaires dont l’incontournable All In One SEO Pack (qui totalise à lui seul 2à millions de téléchargements).

La morale de cette histoire est double. Côté développeurs, c’est une faute que de sous-estimer la portée d’un problème de sécurité ; en minimisant la faille de son logiciel, le développeur a sapé l’outil de travail de milliers d’utilisateurs. Côté utilisateurs, on ne saurait trop leur conseiller d’ouvrir occasionnellement le capot du moteur de blog, histoire de prévenir plutôt que guérir. C’est cette recommandation qui a sauvé ce blog de la disgrâce googelienne!