• Téléphone : +33 (0)9 84 21 77 49
  • Courriel : contact[@]edeation.fr

Le blog du numérique libre

Suivez chaque semaine l'actualité du numérique libre et des technologies open-source

opencog

Dossier intelligence artificielle open source #3 OpenCog

Posté le 9 avril 2015 dans Intelligence artificielle et tagué par edeation.

Suite du dossier intelligence artificielle open source. Après DeepDive et UIMA, je vais aujourd’hui vous parler de OpenCog. Opencog est particulièrement à l’aise pour les applications robotiques, mais pas seulement. Il se montrera aussi à son aise dans des tâches linguistiques comme la traduction ou la correction des fautes. Distribué sous licence GNU Affero, le framework OpenCog fournit une infrastructure OS de type API comprenant des composants écrits en C++.

Contrairement à certains programmes qui s’avèrent performants dans un domaine restreint (par exemple les programmes d’échecs), Opencog a l’avantage de couvrir un spectre assez large de compétences. Ses créateurs affirment d’ailleurs qu’il est déjà en usage dans des applications linguistiques, aussi bien dans le monde de la recherche que dans les affaires.

Les concepteurs ont d’ailleurs clairement annoncé qu’OpenCog aura vocation, à long terme, à tendre vers l’intelligence artificielle dite forte (que les anglosaxons nomment Artificial General Intelligence ou AGI). L’occasion de rappeler qu’il faut distinguer l’IA faible et l’IA forte. L’IA faible caractérise les programmes qui simulent l’intelligence humaine grâce à un programme d’apprentissage ad hoc. On pourrait dire qu’il s’agit d’une IA de résultat, alors que l’IA forte a la prétention de reproduire véritablement l’intelligence humaine, c’est-à-dire de viser une IA de processus. C’est ce type d’intelligence que vise Opencog. Évidemment l’IA forte peut faire grincer des dents, et d’ailleurs les prises de positions se sont multipliées ces derniers temps, pour dénoncer les dérapages futurs prévisibles de l’intelligence artificielle forte, qui devrait supplantée celle de l’homme (voir par exemple les propos alarmants de Stephen Hawking et Bill Gates), dans la mouvance transhumaniste.

Mais, comme souvent, la recherche avance sans se soucier de sa philosophie et des considérations éthiques. Si bien que, à terme, Opencog pourrait réellement faire beaucoup de choses comme contrôler un agent virtuel intelligent (dans un monde virtuel), voire contrôler un robot humanoïde dans le monde réel (comme le robot Nao). On le voit, le cyborg est clairement aujourd’hui en ligne de mire.

Pour l’heure, nous n’en sommes pas là et la Fondation OpenCog n’est qu’un organisme sans but lucratif fondé pour favoriser la recherche, orienter l’élaboration du projet, et encourager l’adoption du framework dans les universités et dans les centres de recherche de part le monde. Nul doute qu’il se généralisera tant pour les projets commerciaux que pour les programmes de recherche demandeurs d’IA.

Icinga

Icinga, un système de surveillance open source

Posté le 9 mars 2015 dans Sécurité / vie privée et tagué , , , par edeation. | Laisser un commentaire

Icinga est une application de surveillance de réseaux open source. À l’origine, il a été conçu comme un fork du système Nagios en 2009 (à propos Nagios signifie en zoulou « il cherche » ou « il examine »), mais une attention particulière a été ici portée sur l’architecture distribuée, l’interface Web, et la connexion SQL (pour Mysql, Oracle, Postgresql). Les développeurs de Icinga ont aussi cherché à impliquer davantage le travail de la communauté, en intégrant plus rapidement les commits correctifs des développeurs. Les mises à jour sont ainsi proposées tous les deux mois à partir de janvier 2010 (alors que la première version stable a été publiée en décembre 2009). Par rapport à Nagios, le module de reporting a également été amélioré, tandis qu’un module de migration fait son apparition pour permettre la portabilité depuis Nagios.

Globalement, les fonctions premières liées au monitoring sont les suivantes :

  • Surveillance des services de réseau (SMTP, POP3, HTTP, NNTP, PING, etc.)
  • Surveillance des ressources hôte (utilisation du CPU et du disque, etc. )
  • Surveillance des composants du serveur (commutateurs, routeurs, capteurs de température et d’humidité, etc.)
  • Contrôles de service sur-mesure grâce à un plugin idoine.
  • Contrôles des services de parallélisme.
  • Capacité de définir la hiérarchie du réseau via des hôtes « parents », afin de détecter les hôtes down et les hôtes inaccessibles
  • Capacité de définir des gestionnaires d’événements, à exécuter lors de certains événements de service, en vue de la résolution de problèmes.

En ce qui concerne le système de notifications, Icinga permet d’envoyer des notifications aux personnes compétentes par email ou par d’autres méthodes définie par l’utilisateur. Un échelonnement des alertes, à d’autres utilisateurs ou via d’autres canaux de communication, est également possible.

En ce qui concerne le reporting, dont le reporting visuel, Icinga annonce les fonctionnalités suivantes :

  • Deux interfaces utilisateur (Icinga UI classique et Icinga Web) permettent de visualiser l’état du serveur, du service, des cartes réseau, des rapports, des journaux etc..
  • Un module de reporting basé sur Jasper Reports, disponible pour les deux interfaces utilisateur.
  • Un référentiel de rapports avec différents niveaux d’accès et de création automatique de rapports et de distribution
  • Une extension facultative d’accord de niveau de service (SLA) permettant de distinguer les événements critiques de temps d’arrêt planifiés et non planifiés et périodes d’accusé de réception [15]
  • Un reporting d’utilisation de la capacité.
  • Des modules de données de performances graphiques tels que PNP4Nagios, NagiosGrapher et InGraph

Icinga est conçu sur une architecture modulaire (voir figure). Le noyau Icinga Core, écrit en C, gère les tâches de monitoring (le cas échéant avec des plugins) et envoie les résultats vers la base de données IDODB via l’interface IDOMOD et le démon IDO2DB en SSL. Le module Web prend alors le relai. Il est composé de trois couches : un ORM en vue d’une utilisation orientée objet, une interface de contrôle et une API REST.

L'architecture d'Icinga

L’architecture d’Icinga (cliquez pour agrandir)

Enfin Icinga dispose d’une interface utilisateur mobile (développée sous l’inévitable moteur Webkit intégrant des bibliothèques Javascript et Sencha Touch), disponible sur iOS, Android, BlackBerry Tablet OS et webOS.

JDLL 2015

Les 16e Journées du Logiciel Libre (JdLL) les 28 et 29 mars

Posté le 16 février 2015 dans Histoire / généralités et tagué par edeation. | Laisser un commentaire

Les 28 et 29 mars 2015 aura lieu les Journées du Logiciel Libre (JdLL), à Lyon 3ème. Comme précédemment, cette 16e édition des FdLL est organisée par l’ADLIL, le PLOSS-RA et la Maison pour Tous, et est destinés à tous les publics. Elle aura cette année pour thème particulier « reprenons le pouvoir sur nos outils numériques », où différentes questions seront abordées :

  • Migration vers les logiciels
  • Libres enfants du numérique : jeux et loisirs pour les juniors.
  • Gérer ses données personnelles
  • Do It Yourself (jeux vidéos, fablabs…)
  • Culture libre
  • Communautés du libre

Je rappelle que le principe des FdLL est de faire appel aux acteurs du numérique libre pour alimenter le programme des conférences/ateliers : chacun peut ainsi participer s’il souhaite échanger avec le public et partager des moments enrichissants avec la communauté. Les FdLL propose cinq formats de contribution :

  • Stands au sein du village associatif
  • Conférences de 20 ou 40 minutes suivies d’un échange
  • Ateliers de 45 minutes ou 1h15
  • Démos de vos matériels, logiciels ou projets libres
  • Animations ouvertes

Il est annoncé qu’il sera possible de combiner plusieurs formats (par exemple, une démo ou une conférence suivie d’un atelier).

Source : http://jdll.org/.

Apache UIMA

Dossier intelligence artificielle open source #2 UIMA

Posté le 11 février 2015 dans Big data / open data, Intelligence artificielle par edeation.

Suite du dossier intelligence artificielle open source. Après mon billet sur DeepDive, je vous présente aujourd’hui Unstructured Information Management Architecture (UIMA). UIMA est une plate-forme ouverte, évolutive et extensible pour la création d’applications d’analyse de textes ou plus généralement de données non structurées, pour en trouver la signification latente, ou l’information pertinente enfouie. UIMA permet aux développeurs de construire des modules analytiques et des applications provenant de plusieurs fournisseurs analytiques, en encourageant la collaboration et en facilitant l’extraction de valeur des données non structurées. IBM a intégré le framework UIMA dans son application WebSphere Information Integrator OmniFind Edition, qui permet aux utilisateurs de déployer leur analyse de texte et de données dans les plus grandes solutions intégrées.

UIMA est composé d’un framework open source Java fournissant :

  • un environnement pour la création de composants analytiques UIMA compatibles (à partir de zéro ou en assemblant les modules analytiques existants) et pour le développement de modules analytiques composites
  • une infrastructure d’exécution pour exécuter les processus analytiques composites.

UIMA est supporté par une communauté diversifiée, et est aujourd’hui en phase de standardisation. En effet, la société OASIS (Advancing Open Standards for the Information Society) a formé un comité technique autour de UIMA pour standardiser l’architecture et Apache a accepté de prendre part au développement de UIMA à travers l’élaboration d’un framework UIMA par des acteurs de l’open source. Ce faisant, UIMA est aujourd’hui disponible sous licence Apache 2.0. Il a été initialement développé par IBM en collaboration avec de nombreux gouvernements, agences, institutions scientifiques et universitaires, ce qui lui a valu d’être déployé en production dans de nombreux sites. L’Institut de technologie des langues de l’Université Carnegie Mellon est devenu la plaque tournante de UIMA en hébergeant le répertoire des sources des composants de UIMA. Des modules d’analyse open source tels que OpenNLP et GATE (General Architecture for Text Engineering) peuvent être exécutés dans le cadre du framework UIMA. De nombreux éditeurs de logiciels ont par ailleurs développé ou développent des modules compatibles UIMA.

UIMA Java Framework

L’architecture du système UIMA (cliquer pour agrandir)

Le site de SourceForge continuera d’accueillir le code source pour les versions de Java antérieures à la première version d’Apache. En vertu de la Common Public License (CPL), les sources de ces versions peuvent entrer librement dans les implémentations commerciales et non commerciales. Pour les versions pré-Apache, le framework UIMA est disponible comme SDK téléchargeable, pour aider les développeurs dans la création et le test des modules analytiques compatible UIMA. Ce SDK inclut des composants gratuits supplémentaires étendant les fonctionnalités de base, mais ne peuvent pas être redistribués. UIMA dispose d’un support pour plusieurs langages de programmation, avec des mises à jour périodique (dont la plus récente en octobre 2014).

Il faut savoir que le célèbre joueur virtuel Watson d’IBM utilise une implémentation de UIMA, qui n’est donc qu’une petite partie du programme Watson. Heureusement que nous ne sommes pas obligés de passer par Watson pour utiliser UIMA! Il a d’ailleurs été également utilisé dans des projets dérivés comme YodaQA, en tant qu’analyseur de texte, à partir de la source de données Wikipedia.

Salon solutions libres

Salon solutions libres & open source les 19 et 20 mai 2015

Posté le 9 février 2015 dans Big data / open data, Cloud, CMS, Framework / EDI, Mobile, Sécurité / vie privée et tagué , par edeation. | Laisser un commentaire

Le Salon Solutions Libres & Open Source, dédié à Linux et aux autres logiciels libres se tiendra les 19 et 20 mai 2015, au CNIT (à la Défense).

Au programme de la 16ème édition 2015 de cet évènement incontournable, des conférences et tables rondes autour des 9 thématiques suivantes :

  • Le cloud libre
  • L’open source en entreprise : consommation, maitrise, mutualisation
  • Les nouveaux enjeux des outils collaboratifs open source
  • Le bi / big data
  • L’open source au coeur de la révolution mobile
  • Le développement web
  • Les CMS, CMF, développement spécifique
  • La sécurité
  • L’administration système / clusters / devops

Comme chaque année, le salon est l’occasion de rencontrer les principaux acteurs du marché et l’ensemble de la communauté du libre présente au village associatif. À noter que, cette année, un programme d’ateliers sera organisé autour du big data, des applications de gestion et du cloud computing.

L’ouverture du salon est à 09h00 le 20 mai
Pour en savoir plus : http://www.solutionslinux.fr/.

alljoyn

AllJoyn, un protocole d’interopérabilité pour l’internet des objets

Posté le 4 février 2015 dans Web 3 / IoT / objets connectés et tagué , , par edeation. | Laisser un commentaire

Je vous parlais le mois dernier d’OpenIoT, une solution libre pour l’internet des objets permettant de construire des réseaux de capteurs sans fil abstraits, c’est-à-dire sans avoir à se soucier de leur nature. La question qui pouvait se poser est comment cette abstraction est-elle possible. Je réponds aujourd’hui à la question en présentant AllJoyn, qui est précisément un protocole d’interopérabilité permettant aux objets d’échanger de l’information entre eux, au-delà de leurs formats propriétaires. Un signe qui ne trompe pas : Microsoft lui-même vient d’adopter ce protocole.

À l’origine, AllJoyn a été développé par Qualcomm, qui a présenté le premier prototype au Mobile World Congress en 2011. Pour parvenir à une telle interopérabilité entre les objets connectés et les applications logicielles provenant de fabricants et éditeurs différents, Qualcomm avait utilisé des réseaux de proximales dynamiques en utilisant un middleware D-Bus permettant aux applications de communiquer entre elles. La firme Unity Technologies avait alors distribué une extension « AllJoyn Unity » sous la forme d’un SDK, en partenariat avec des fabricants et des fournisseurs comme Foxconn, Technicolor, LG-Innotek, LeTV et Xiaom. En décembre 2013, Qualcomm a finalement ouvert sa technologie, en la reversant à la AllSeen Alliance, un consortium open source créé pour la circonstance.

Concrètement, les appareils visés appartiennent à l’univers domestique (télévision, système audio…) et automobile, mais Qualcomm travaille actuellement à la production de ses propres appareils. Par ailleurs, le protocole de communication est limité pour l’instant au Wi-Fi .

En rejoignant le consortium AllJoyn, qui regroupe déjà (parmi les partenaires platinium) des acteurs comme LG, Panasonic, Haier, Sharp, Technicolor, et naturellement Qualcomm, Microsoft apporte un soutien de premier choix, surtout quand on évalue à 1 milliard le nombre d’appareils Microsoft aujourd’hui déployés dans le monde. Du beau monde auquel on peut encore ajouter Silicon Image, Cisco, TP-Link, Canaries, doubleTwist, FON, Harman, HTC, LIFX, Liteon, Muzzley, Sproutling ou encore Wilocity. De quoi former un écosystème d’objets connectés absolument considérable.

FLOSS Manuals

FLOSS Manuals, plateforme de co-création de manuels libres

Posté le 2 février 2015 dans Culture libre / science libre, Gestion de projet et tagué , par edeation. | Laisser un commentaire

Je voudrais faire aujourd’hui un petit focus sur Floss Manuals, une plateforme de partage et de co-création plurilingue. Floss Manuals a pour vocation de mettre à la disposition du grand public et des professionnels une collection de livres en français sur les logiciels, la culture libre et le matériel libre. Créer de nouveaux livres, relire ceux qui existent déjà, participez à des efforts collaboratifs d’écriture ou encore traduire des livres écrits dans d’autres langues, de façon à remédier au défaut de documentation de qualité sur les logiciels libres, telles sont les diverses missions des collaborateurs de cette fondation à but non lucratif.

La fondation FLOSS Manuals a été créée en 2006 et basée aux Pays-Bas. Elle s’appuie sur une communauté d’utilisateurs élargie comprenant auteurs, éditeurs, artistes, développeurs de logiciels et activistes. Les livres sont consultables librement en différents formats (pages web, pdf et epub) et en différentes langues : l’anglais, le français, le finlandais, le parsi, et le néerlandais.

La méthode utilisée repose notamment sur l’usage d’un wiki (d’abord TWiki puis Booki depuis 2011) supportant le développement collaboratif ainsi que sur la mise en place de booksprints qui rassemblent les contributeurs du manuel dans un espace donné. Je rappelle au passage que le terme de « booksprint » a été créé par analogie au concept de codesprint, qui réfère à une session de travail intensif rassemblant des programmeurs autour d’un objectif défini, dans un temps limité, souvent dirigés par un coach. Cette pratique apparentée à l’Extreme programming et aux méthodes agiles a fait son chemin et fut réinteprétée par Tomas Krag dans le domaine de l’édition, pour ainsi aboutir au concept du « booksprint » : une méthode permettant de réduire le temps de production d’un livre à quelques mois.

Concrètement, les booksprints mis en place par Floss Manuals concentrent une petite équipe de 6 à 8 personnes qui travaillent ensemble pendant une semaine, avec pour objectif de produire un livre imprimé le dernier jour de la semaine. Pour en savoir plus, voici la version française du site de FLOSS Manuals.

data.gouv

L’État investit 2,5 millions d’euros dans l’open data

Posté le 30 janvier 2015 dans Big data / open data, Gouvernement / droit et tagué , par edeation. | Laisser un commentaire

Les gouvernements ne soutiennent pas seulement le logiciel libre. Déjà en pointe dans le domaine des données ouvertes (open data), l’État souhaite enfoncer le clou et « amplifier le mouvement d’ouverture et de partage des données publiques ouvertes et gratuites », dans le cadre des investissements d’avenir. La Caisse des Dépôts vient en effet de lancer un appel à projets ayant pour objectif d’encourager le développement des plateformes de diffusion des données ouvertes et de diversifier les applications. On peut rappeler que, outre ses activités commerciales, la Caisse des Dépôts et Consignations est placée sous le contrôle direct d’une commission de surveillance parlementaire, et exerce à ce titre des activités d’intérêt général pour le compte de l’État et des collectivités territoriales.

Une dizaine de projets à sélectionner

Au total, c’est une coquette somme de 2,5 millions que les pouvoirs publics ont alloué au projet, répartie sur dix projets ministériels. Les ministères se verront donc confier des projets accélérant la diffusion et la réutilisation des données au profit des citoyens, des entreprises ou des administrations. Cet appel entend donc tirer profit du mouvement d’ouverture des données, regroupant des statistiques de l’INSEE, des informations parlementaires et des données géomatiques, disponibles sur le site data.gouv.fr

L’appel à projet se concentre sur deux types de propositions. Le premier concerne les plateformes de diffusion :

L’ouverture et le partage des données publiques reposent encore souvent sur la mise à disposition de données telles qu’elles proviennent nativement des systèmes d’information historiques des administrations. Ces données sont produites par une grande variété d’acteurs : services distincts au sein d’une même administration, services déconcentrés, collectivités… Ces données gagneraient, dans de nombreux cas, à être regroupées pour être mises en résonance et gagner un sens nouveau, pour créer des descripteurs du réel et des référentiels les plus complets possibles

Le second concerne les applications de réutilisation des données :

De nombreux exemples montrent l’intérêt qu’il peut y avoir pour une administration à compléter ses propres données par des données produites par les utilisateurs, à faire qualifier leurs données par les utilisateurs, à intégrer leurs données dans la définition ou dans le pilotage des politiques publiques.

Les candidats doivent déposer leurs dossiers avant le 24 mars à 17 heures. Les lauréats seront sélectionnés par un jury avant le mois de juin. Pour plus de détails sur cet appel à projets, vous pouvez visitez le site des Investissements d’avenir.

cloud computing

Le framework Orleans maintenant open source

Posté le 28 janvier 2015 dans Cloud et tagué , , , par edeation. | Laisser un commentaire

Orleans est un framework open source permettant de simplifier le déploiement des applications distribuées à grande échelle, sans avoir à appliquer les méthodes complexes des autres outils de cloud computing. Orleans a été largement utilisé dans Microsoft Azure.

Comme vous le savez, le cloud computing est un paradigme informatique combinant divers terminaux clients — PC, smartphones, capteurs… — et un réseau de serveurs informatiques distants calculant et/ou stockant les données des terminaux clients. L’un des défis fondamentaux du cloud computing est notre capacité à déployer de tels systèmes distribués sur du matériel et des réseaux fiables. Orléans est un framework allant précisément dans ce sens ; il permet de créer des applications de cloud fiables, extensibles et évolutives, et permet surtout au développeur de se concentrer sur la logique d’application. Il s’agit d’un modèle de programmation concurrent basé sur des composants unitaires distribués qui sont des sortes de « grains » qui communiquent par messages asynchrones.

Microsoft annonce que depuis la sortie de son projet Orleans, ils ont reçu beaucoup de commentaires positifs de la part de la communauté, et affirment avoir largement pris en compte les retours et les suggestions formulées lors de la dernière mise à jour de septembre. Mais Microsoft ne comptait pas s’arrêter là. La firme de Albuquerque a en effet décidé que l’étape suivante du framework serait d’exaucer ce que beaucoup ont demandé : rendre Orleans open-source. Le travail de préparation avait commencé fin 2014 pour un dépôt des sources sur Github annoncé pour début 2015. Et cela n’a pas traîné puisque le code vient d’être libéré par Microsoft Research sous licence MIT, et publié sur GitHub. Microsoft espère bien sûr que cette « libération » permettra une contribution directe de la communauté open source au projet, ce qui devra en retour favoriser son adoption. Microsoft annonce également avoir mis plusieurs outils à disposition d’Orléans, comme des applications de réseau et messagerie sociales. Plus d’informations sur la page du projet Orleans de Microsoft.

WikiWash

WikiWash, un monitoring en temps réel pour Wikipedia

Posté le 26 janvier 2015 dans Big data / open data, Culture libre / science libre et tagué , par edeation. | Laisser un commentaire

En avril 2012, Le CIR (Center for Investigative Reporting, i.e. Centre pour le journalisme d’investigation), une organisation journalistique à but non lucratif basée à Berkeley, et Google annonçaient leur association à travers l’événement « TechRaking » une conférence informelle réunissant des journalistes et des experts en technologie du numérique. En mars 2014, le projet TechRaking recevait une nouvelle impulsion suite au concours de l’agence The Working Group et du journal Metro News. De cette prometteuse association de compétences est né un remarquable outil de journalisme de données : WikiWash.

Wikipedia est, comme vous le savez, l’un des sites les plus visités au monde. La grande encyclopédie en ligne, créée en 2001 et modifiable par (presque) n’importe qui, est devenue avec le temps la première source d’information générale sur tout sujet. Cependant, pour les journalistes et plus généralement les personnes désirant suivre un sujet d’actualité, il est difficile de suivre les modifications afférentes au sujet en question. C’est ce à quoi répond WikiWash, qui permet à n’importe qui, doté d’un simple navigateur web, de surveiller l’histoire d’une page de Wikipedia et d’en voir toutes ses modifications en temps réel. Autrement dit, en langage savant, c’est un outil de monitoring et de versioning en temps réel pour Wikipedia. Ce type d’outil est très utile pour le journalisme et le travail d’investigation, puisqu’il permet de fouiller dans l’historique des pages pour y dénicher d’éventuelles informations refoulées (rumeurs, canulars, controverses…).

WikiWash est donc un outil de big data par excellence permettant de réaliser des requêtes sur l’immense base de données de Wikipedia. Afin de faciliter le travail des contributeurs open source au projet, l’équipe de WikiWash a choisi de développer l’outil en Javascript, l’un des langages de programmation les plus accessibles et flexibles d’aujourd’hui.

Pour extraire les données sur l’historique d’une page de Wikipedia, WikiWash s’appuie sur l’API de Wikipedia, qui offre un accès à la quasi totalité des données de la vaste base de données. En revanche, les données ne sont pas toujours disponibles rapidement. Si les informations relatives à la liste des contributeurs et les métadonnées des révisions sont quasi-instantanées, le contenu réel de chaque révision, pour chaque page de Wikipedia, est assez lent à générer. C’est peut-être sur cette relative faiblesse que devront porter les améliorations ultérieures (Wikiwash est encore en version beta), même si l’outil sera toujours, in fine, tributaire de l’architecture particulière de la base de données Wikipedia.

Pour accéder au service Wikiwash et extraire les données d’une page Wikipedia, rendez-vous sur la page de Wikiwash.