Archives pour la catégorie Architecture

Agrégateurs de news RSS

L’OpenDirectory signale notamment les logiciels opensource suivants, parmi les nombreux agrégateurs de News RSS aujourd’hui disponibles : Aggie (.Net), AmphetaDesk (perl), MyHeadlines (PHP+MySQL), Peerkat (Python) et Reptile (en architecture peer-to-peer) . Parmi les logiciels signalés par l’OpenDirectory, j’ai notamment repéré fyuze, NewsApp de server.com,
NewzCrawler. Il faut également signaler les nombreux produits de syndication « in-bound » (=aggrégation) pour Zope, même si aucun n’offre de fonctionnalités « off-the-shelves », comme on dit (il faut coder un peu pour intégrer ces produits dans un site fait avec Zope).
Jon Udell citait (dans un article sur byte.com auquel, visiblement, on n’a plus accès à moinds de s’enregistrer auprès de byte.com ; le titre « personal RSS aggregators… ») les principaux aggrégateurs RSS. Amphetadesk et Peerkat m’ont paru les plus intéressants d’entre eux. J’ai installé Amphetadesk : ça marche bien malgré le
fait qu’Amphetadesk a repéré des centaines de canaux RSS lorsque je naviguais sur des sites de syndication tels que moreover,
newsisfree et syndic8. Du coup, ma liste de canaux disponibles est immense et bien peu utilisable ! Il manque encore des
fonctionnalités mais c’est un très bon début pour imaginer ce que seront les aggrégateurs personnels de demain. Reste à
tester Peerkat. Jon Udell, dans son article, cite de manière désordonnée les principales fonctionnalités attendues pour ce
genre d’agrégateurs (ou syndicateurs ?). Essayons d’y mettre un peu d’ordre :

  • présenter le contenu sur trois panneaux, à la façon des lecteurs de newsgroups (Usenet)
  • proposer des listes de canaux pré-enregistrés
  • lire les formats RSS 0.92, 1.0,
  • organiser les canaux par catégories
  • ouvrir une fenêtre d’alerte lorsqu’une actualité apparaît
  • organiser les actualités et canaux sous la forme d’un arbre « à l’Explorer »
  • lire les groupes de news NNTP (Usenet)
  • lire des sites web d’actualités (screen craping, web clipping)
  • ajouter de nouvelles sources facilement
  • faire lire les actualités par un synthétiseur vocal
  • faire défiler les actualités à l’écran sous la forme d’un prompteur
  • importer/exporter la liste de canaux
  • écrire des actualités
  • publier un canal
  • offrir une API (en XML/RPC par exemple)
  • supporter l’API de Blogger
  • sélectionner des actualités une à une, les filtrer, les annoter et afficher voire publier le résultat
  • avoir une interface claire, intuitive et conviviale
  • je vous laisse imaginer le reste

On ne tardera pas à voir apparaître des offres logicielles « corporate » pour la syndication de contenus. Sinon, il me reste encore à installer et tester peerkat.
Tiens, il y a aussi quelqu’un qui tente de définir Le Parfait Agrégateur RSS.

Les blogs

MSNBC le raconte très bien : des
blogs de toutes sortes sont apparus sur le Net : les blogs sont ce que le fait de « faire sa
home page » était il y a quelques années. Les bloggers sont motivés par un besoin
d’attention, une obsession pour le partage d’information et surtout, par le désir d’être « un
participant et non une patate » ! Souvent, un blog (ou « carnet web ») est un bon moyen pour
tenir au courant des amis ou de la famille. Les blogs sont devenus un phénomène social et on
a vu se former une blogosphère d’amas de blogs interconnectés, aux centres d’intérêts
similaires. David Weinberger, auteur d’un livre sur la cyberculture, déclare « Dans le futur,
tout le monde sera célèbre via le Web auprès d’une quinzaine de personnes ». Et on compte sur
les doigts de la main (plus les orteils) le nombre de blogs ayant atteint un statut de
carnet culte sur le Net. L’émergence des carnets web est notamment due à une petite société
informatique nommée « Pyra », dont les trois cofondateurs avaient pris l’habitude de tenir à
jour un blog pour diffuser des nouvelles d’un projet informatique qu’ils menaient. Ils ont
rapidement compris que nombreuses seraient les personnes qui seraient intéressées par leur
petit outil de mise à jour de site, Blogger. Ils l’ont alors mis à disposition sur le Net en
août 1999, avec le succès que l’on connaît. Le succès des blogs vient de la « faible barrière
à l’entrée » : la simplicité du format des blogs rend la publication extrêmement aisée et à
la portée de tous. Mais là où le blog prend tout son intérêt, c’est lorsque, par vos
commentaires et les liens que vous publiez, vous venez à préciser vos centres d’intérêt et à
vous mette en relation avec d’autres bloggueurs aux préoccupations similaires. L’ampleur du
phénomène blog a été révélée au grand jour suite aux attentats du 11 septembre 2001 et à la
multiplication des « bloggueurs de la guerre ». L’avenir semble être maintenant l’entrée des
blogs dans le monde de l’entreprise. On cite des expérimentations de « corporate blogging »
chez DuPont, Intel, Motoral ou encore Nokia. Le CEO de l’éditeur informatique Groove
Networks tient à jour un blog personnel. L’éditeur Macromedia a adopté les blogs pour mettre
en place des canaux de support peu coûteux pour informer et aider les utilisateurs de ses
produits logiciels (cf. un article que j’avais posté ici il y a quelques temps à ce sujet :
cherchez « blog » dans le formulaire de recherche de cette page). Le format des blogs semble
également se prêter, à l’intérieur de l’entreprise, à de nouvelles formes de reporting…

Topic Maps à la rescousse du B2B

L’une des problématiques essentielles de l’interconnexion d’applications
entre entreprises (les applications « B2B ») consiste à garantir que les
acteurs en présence interprètent bien de la même manière la signification
(la sémantique) des données échangées. La technologie
des topic maps pourrait contribuer à résoudre cette problématique.
Une
solution d’usage de ces topic maps pourrait consister à créer des
vocabulaires universels, expliquant la signification de toutes les données
potentiellement utiles dans un dialogue entre entreprises de manière à ce
que toutes les entreprises s’y réfèrent. Mais cette solution n’est pas
réaliste Les topic maps peuvent permettre d’établir une interopérabilité
entre des ontologies (référentiels de méta-données) suffisante pour la
plupart des problèmes rencontrés dans l’échange de données
inter-entreprises. Mais la mise en correspondance de ces ontologies, deux à
deux, quand bien-même elle serait exprimée à l’aide des topic maps, reste
aujourd’hui un travail « manuel » fastidieux et délicat. Heureusement, les
topic maps sont conçues pour se révéler « réutilisables » d’un échange à
l’autre, ce qui permettrait de capitaliser ce travail de mise en
correspondance, de manière à créer des « business maps ».

Googlez vos email

Jon Udell l’a testé pour vous : ZOË est un proxy mail (POP + SMTP) qui indexe tous vos mails et vous offre non seulement des fonctionnalités de recherche plein texte mais surtout des fonctionnalités (simples) de navigation dans les métadonnées de ces mails, principalement à partir des champs Subject, Date et From. Ce type de logiciel repose sur une architecture applicative que j’aimerais voir se répandre malgré son caractère paradoxal : il s’agit d’applications web déployés sur les postes clients avec des serveurs web « légers » ; et surtout, il s’agit d’application s’intégrant dans le travail quotidien de l’utilisateur puisqu’elle se présente sous la forme d’un proxy. Jon Udell regrette que les clients de messagerie ne supportent pas la gestion d’extensions des métadonnées transférables par messagerie.
Sans étendre les fonctionnalités des actuels clients de messagerie, un modèle d’architecture qui permettrait une exploitation plus poussées de métadonnées associées à des emails consisterait à ne pas utiliser de proxy POP comme dans ZOË mais un proxy acceptant du POP ou de l’IMAP comme source de données (serveur de messagerie) et offrant un service IMAP comme interface avec le client de messagerie. Ainsi, cette application offrirait par le biais de l’arborescence de dossiers IMAP une ou plusieurs vues arborescentes d’un graphe de méta-données associées aux emails qui circulent par le biais du proxy. L’interface web de l’application permettrait de pallier aux lacunes du client de messagerie en offrant toutes les fonctionnalités requises pour la gestion des méta-données. Malheureusement, il n’existe pas aujourd’hui, à ma connaissance, de proxy IMAP opensource et encore moins de proxy IMAP offrant des fonctionnalités de filtres (interception des requêtes et réponses) à la manière des filtres d’Apache 2. Mais bon, on peut toujours rêver… Dans tous les cas, ce type d’architecture à base de proxies filtrant (filtrant les usages du mail ici, mais aussi, plus simplement, filtrant les usages du web) semble être un excellent moyen de capturer des métadonnées de manière non perturbante pour l’utilisateur. Ceci constituerait une réponse judicieuse à la difficulté qu’aura le Web Sémantique à atteindre une taille critique : comment produire des méta-données pour alimenter le Web Sémantique ? par annotation manuelle ? par intégration de sources de données existantes ? par structuration automatique de sources non structurées ? ou bien par interception de méta-données comme dans le cas de ces proxies…
Wow, je viens de consommer mon quota annuel de buzzwords en un seul message !

Edition d’ontologies

XML.com fait le point sur la construction d’ontologies. La construction d’ontologies se révèle utile dans des domaines tels que la recherche sur le Web Sémantique, la création de référentiels médicaux, la gestion de ressources d’information publiques, la cartographie de génomes, l’ingénierie en conception concurrente, l’analyse et la gesion des risques et l’automatisation des transactions commerciales entre entreprises.
L’ontologie permet de disposer d’un discours commun pour décrire un domaine donné et qui permet une exploitation automatisée par des règles d’inférence et de traitement logique. Les ontologies se composent habituellement de deux couches : un composant « terminologique » qui définit la structure du domaine à décrire et un composant « assertionnel » (assertional) qui alimente cette structure avec des instances ou individus qui incarnent les définitions terminologiques. On peut décider de stocker les concepts (structure terminologique) et les individus (instanciations des concepts) de manière distinctes mais le fait de traiter une ressource comme un concept ou comme un individu est une décision arbitraire et doit relever d’un choix volontaire lors de la conception de l’ontologie.
Pour bâtir une ontologie, on peut utiliser des langages de programmation logique classique tels que Prolog. Mais, plus souvent, on utilise des modèles et langages spécialisés pour la construction d’ontologies tels que OKBC, KIF et CL). On peut également utiliser des langages plus avancés tels que Loom, DAML+OIL ou le standard qui en émerge auprès du W3C : OWL (Ontology Web Language). Le choix du bon langage de développement dépend notamment du degré de nuance et de sophistication nécessaire pour répondre au besoin fonctionnel. De plus en plus, ces langages tendent à intégrer RDF comme technologie fondamentale pour intégrer les données présentes sur le Web.
Voici les étapes habituelles dans la construction d’une ontologie : acquérir la connaissance du domaine (à l’aide documentation et d’experts du domaine), organiser l’ontologie (à l’aide de méthodologie de conception d’ontologies), alimenter l’ontologie (par des concepts, des relations et des individus), vérifier la cohérence du résultat (cohérence syntaxique, logique et sémantique) et soumettre à la publication (validation par les experts du domaine).
Il existe plusieurs logiciels pour construire des ontologies (composant terminologique seulement ou bien ensemble de l’ontologie). On trouve des produits commerciaux offrant des fonctionnalités d’édition d’ontologie non spécifiques à un domaine, des logiciels d’édition intégrés à des solutions d’entreprises spécialisées et des logiciels d’édition issus du secteur public. Les outils intégrés à des solutions d’entreprise offrent des fonctionnalités de classification et d’analyse automatisées afin d’extraire de l’information à partir de contenus non structurés. Une fonctionnalité attendue mais actuellement non présente dans ces outils consiste à permettre, via une ontologie, de réconcilier des langages et vocabulaires XML spécialisés par domaines commerciaux. Pour le moment, l’interopérabilité est uniquement offerte par des fonctions d’import et d’export en différents langages de sérialisation d’ontologie (par exemple basés sur XML). Rares sont les logiciels d’édition offrant des fonctionnalités de fusion d’ontologies hétérogènes.
Trois logiciels d’édition sont remarquables : Protégé 2000 pour la richesse de ses fonctionnalités et son extensibilité via des plug-ins, Ontolingua et OpenCyc en tant qu’environnement de développement d’ontologies complexes ainsi que pour l’accès, par OpenCyc, à une ontologie globale de référence très complète (Cyc). Les fonctionnalités essentielles attendues pour ce type d’outil sont une visualisation et une manipulation confortables et intuitives des concepts et des relations qui composent l’ontologie. L’approche classique consiste à offrir une combinaison de vues sous formes d’arbres à la manière de l’explorateur de Windows. Une visualisation sous forme de graphe est plus rare. Elle doit alors offrir une fonctionnalité de zoom permettant de manipuler des graphes très étendus. Ce type de zoom peut par exemple prendre la forme d’une visualisateur hyperbolique ou d’un visualisateur « à la treemap » (les noeuds « enfants » d’un point de départ sont visualisés *à l’intérieur* du noeud parent et sont explorés par un zoom progressif pour descendre en profondeur à travers les noeuds…). Enfin, certains logiciels d’édition offrent la possibilité d’ajouter à l’ontologie des axiomes et règles d’inférence permettant d’évaluer cette ontologie dans un environnement de développement.

Zope vs Cocoon, Python vs Java

La société ArielPartners a publié
une étude comparative de Zope et de Cocoon
, deux environnements objets faisant office de serveurs d’applications Web pour les sites Internet et intranet orientés publication de contenu. Leur conclusion présente Zope comme un environnement plus puissant, plus mûr et mieux documenté, avec une avance de une à deux années sur Cocoon et les environnements de publication Java similaires à Cocoon. En particulier, Zope offre des fonctionnalités satisfaisantes de gestion des transactions, de la sécurité et une évolutivité remarquable (scalabilité).
ArielPartners publie également une
comparaison détaillée des langages Python (associé à Zope) et Java (associé notamment à Cocoon)
. Cette comparaison soutient la thèse suivante : il suffit d’adopter Python ET Java pour couvrir l’intégralité des besoins de développement courant en informatique d’entreprise. Python offre les avantages suivants :

  • le code Python est plus concis (3 à 5 fois plus concis qu’en Java) et le codage est plus rapide et facile
  • le langage évolue plus rapidement que Java car Java a acquis plus d’inertie
  • Python impose moins de contraintes pour le codage, au prix d’un plus grand risque d’erreurs lors de l’exécution du code
  • Python est plus facile à apprendre pour les débutants tout en étant satisfaisant pour les experts : sa courbe d’apprentissage est plus douce
  • Zope est un serveur d’application python reconnu.
  • La syntaxe de Python est plus claire et plus lisible
  • Python, comparativement à Java, offre un code plus facilement maintenable.
  • L’interpréteur Python compile le code à sa première exécution et exonère ainsi le développeur de phases de compilation fastidieuses.
  • Python est un choix judicieux pour la majorité des tâches de développement en entreprise.
  • Les domaintes d’excellence de Python sont : le scripting, le prototypage rapide, l’intégration de systèmes (langage « glue »), les applications web, les outils graphiques, les outils de traitement XML.

Les avantages de Java sont les suivants :

  • on compte 3 millions de développeurs Java dans le monde contre un demi million de développeurs Python
  • Le code Java, plus contraint pour le développeur, offre moins de risque de bug
  • Java s’accompagne d’offres mûres et nombreuses en matière de serveurs d’application grâce à J2EE, RMI, Jini et JavaSpaces. Les principaux serveurs d’application sont BEA WebLogic, IBM WebSphere, Sun One Application Server et JBoss (opensource).
  • Java offre des modèles à base de composants adaptés à l’entreprise avec les modèles JavaBeans et EJB.
  • Java s’accompagne d’outils de conception graphique, de documentation et de débuggage très avancés.
  • Java, comparativement à Python, offre un code plus performant.
  • Java se présente comme un choix complémentaire intelligent pour tous les cas …
    • … où Python n’a pas encore fait ses preuves (Aspect-Oriented Programming, recherche sur les technologies SOAP/WSDL/UDDI, utilisation d’outils de modélisation UML avancés)
    • … où les performances brutes sont critiques
    • … où il s’agit de mettre en place des systèmes distribués ou parallélisés à très grande échelle
    • … où la facilité de recrutement de compétences de développement ou la disponibilité d’outils de développement est critique

Web Sémantique et Services Web

Le Web Sémantique et les Services Web tirent-ils le Web dans de directions opposées ? Cet article (http://www.xml.com/lpt/a/2002/07/17/daml-s.html) signale une manière de conjuguer ces deux tendances. L’idée consiste à décrire un service Web en tant que ressource du Web, à l’aide d’un vocabulaire spécifique exploitant certains langages de représentation du Web Sémantique (DAML+OIL). Le résultat est DAML-S, une ontologie générale pour Services Web, qui permet à une application de répondre aux « Quoi ? » et aux « Pourquoi ? » (contrairement aux « Comment ? » auxquels répond déjà WSDL). Les fonctionnalités d’applications exploitant DAML-S seraient la découverte, l’invocation, la coordination (« interopération »), la composition, le contrôle et la supervision de Services Web. DAML-S : un futur standard ou un flop annoncé ? en tout cas sans doute une idée qui mérite réflexion…

Chronologie de l’opensource dans l’administration

Le réseau O’Reilly retrace une chronologie de l’adoption de l’opensource par les gouvernements de différents pays. Voici quelques unes de ces dates :
– Février 2000 : le ministre français de la culture et des communications annonce une opération de migration de 300 de ses serveurs Web, de fichier et de messagerie vers une combinaison de Red Hat, Apache et Zope. La motivation avancée est l’accroissement des besoins de sécurité.
– Mai 2000 : Le gouvernement de l’Etat brésilien de Rio Grande do Sul est le premier gouvernement à adopter une loi rendant obligatoire l’utilisation de logiciels opensource pour les agences gouvernementales et les organismes sous tutelle.
– Mars 2001 : De peur du monopole d’éditeurs étrangers sur le marché des logiciels, le gouvernement chinois annonce qu’il envisage de créer une distribution linux spécifique : Red Flag Linux.
– Août 2001 : Le premier ministre français créé l’Agence pour les Technologies de l’Information et de la Communication dans l’Administration (ATICA) qui a notamment pour mission d’encourager l’utilisation de logiciels libres et de standards ouverts.
– Janvier 2002 : Le gouvernement coréen acquière 120 000 copies d’une suite bureautique opensource coréenne.
– Février 2002 : Le parlement allemand s’engage dans l’acquisition de logiciels opensources dont SuSE Linux et OpenLDAP.
– Avril 2002 : Hewlett-Packard annonce la signature d’un contrat de 25 millions de dollars avec l’US Air Force pour lui fournir un super-calculateur utilisant Linux.
– Mai 2002 : IBM annonce la vente de 75 systèmes informatiques à base d’opensource à diverses agences gouvernementales américaines dont le ministère de la défense et le ministère de l’énergie.
– Juin 2002 : le ministère de l’intérieur allemand engage IBM pour installer linux et d’autres programmes opensource dans une large portion de l’infrastructure informatique de ce ministère de manière à améliorer la sécurité en se libérant d’une « monoculture » informatique.

Le Web Sémantique vu dans Courrier International

Fin août 2002, Courrier International réservait un dossier entier aux « prochaines révolutions d’Internet ». Parmi celles-ci, « l’utopie du réseau intelligent » décrivait ce que devrait être le Web Sémantique : un réseau de données plutôt que de documents, destiné à améliorer le Web tel qu’on le connait plutôt qu’à le remplacer. Tel que décrit par Tim Berners-Lee, le W.S. permettra aux ordinateurs de délivrer des informations beaucoup plus précises car les données sur le Net et, surtout, leurs relations entre elles, seront alors beaucoup plus précises. Demandez aujourd’hui à votre ordinateur : « trouve-moi un endroit pluvieux dans un rayon de 150 kilomètres autour de telle ville ». Un moteur de recherche du Web vous trouvera quelques pages contenant ces mots. Par contre, avec le Web Sémantique, votre ordinateur pourra vous répondre : « J’ai trouvé cet endroit et je peux prouver qu’il y pleut et que c’est bien à 150 kilomètres de cet endroit ».
La principale crainte quant à la réussite du W.S. concerne l’ambition très (trop ?) forte de ce projet. Est-il réaliste ? Le projet ne donnera aucune application concrète si il vise à mettre au point un système censé ordonner les connaissances mondiales. Le Web Sémantique doit être simple et pratique à mettre en place et à développer, comme la première génération de la Toile. » Aujourd’hui, quelques rares logiciels de démonstration du W.S. commencent à voir le jour. Leur utilisation permet de pressentir ce que pourrait être le W.S. à grande échelle. Permettront-ils d’amorcer la pompe de l’enthousiasme comme la première version du Web l’avait fait ?

Installeurs d’applications

A la recherche d’un logiciel (gratuit bien sûr et en français si possible) qui permet d’installer des graticiels de manière conviviale (du style Instalshield), voici ce que l’on trouve : il existe des produits opensource pour « packager » des installations de manière à ce que celles-ci s’effectuent de manière conviviale. Le plus connu semble être l’installer de Nullsoft (que l’on retrouver également ici). En opensource, mais moins répandu, il y a aussi AppServ. En gratuit, célèbre mais pas opensource, il y aussi InnoSetup.
Et voici une liste de liens pour trouver d’autres installers :
http://directory.google.com/Top/Computers/Software/System_Management/Installers/
http://discuss.fogcreek.com/joelonsoftware/default.asp?cmd=show&ixPost=1734
http://home.wanadoo.nl/techlinq/softwareinstallers.html

OWL = « Ontology Web Language »

L’OWL est un langage en cours de définition par le W3C. Ce langage est conçu pour construire des applications capables d’accéder à la compréhension du contenu d’une information du Web plutôt que de se limiter à une présentation « lisible par l’homme » de cette information. L’OWL apporte donc une meilleure lisibilité du Web pour les machines, en ajoutant des vocabulaires aux langages XML, RDF et RDF-S.

Des Weblogs qui rapportent

Cet article esquisse un avenir dans lequel les bloggeurs pourraient vivre du weblogging. L’idée consiste à créer des weblogs d’entreprise pour accompagner une communauté de clients par exemple. Ces carnets web seraient tenus à jour par des professionnels du weblogging, capables de filtrer, de synthétiser et d’écrire. Il s’agirait du moyen idéal pour entretenir, par un contenu riche, pertinent et vivant, un traffic soutenu sur un site d’entreprise.

Ce que le Web Sémantique n’est pas

Le Web Sémantique, ce que c’est, on le sait (plus ou moins). Ce que ce n’est pas, on ne le sait en général pas.
– Par exemple, le WS n’est pas de l’intelligence artificielle : les
applications RDF ne prétendront pas à l’intelligence mais restreindront leur
exploitation de RDF à un usage délibérément limité pour être efficace. Par
contre, l’union de toutes les données RDF à travers les applications Web
sera une source universelle de données d’une richesse extraordinaire.
– De plus, les applications RDF n’auront pas besoin (au moins au début) de
fournir des justifications de leurs raisonnements (« proof generation »).
Elles se contenteront d’avoir à fournir une réponse à une question dans leur
compétence (« proof validation »).
– Le Web Sémantique n’est pas un simple relifting des méthodes de
formalisation des connaissances (« knowldege representation »). De même que le
Web n’est pas un simple relifting de l’hypertexte (tel qu’il existait dans
les aides de logiciels sous Windows par exemple). Le Web Sémantique est à la
formalisation des connaissances ce que le Web est à l’hypertexte : il
s’exempte des hypothèses centralisées de vérité absolue (pas de
contradiction), d’exhaustivité de la connaissance (pas de trous) et de
« prouvabilité » totale et s’intèresse à ce que l’on peut faire avec des
connaissances incomplètes voire contradictoires.
– Le Web Sémantique, même si il n’est pas une modélisation
entités-relations, a beaucoup avoir avec ce mode de représentation.
– Le Web Sémantique n’est pas une nouvelle forme de base de données
relationnelles. Mais l’une des principales forces qui le fait avancer, c’est
l’idée d’exprimer sur le Web la richesse des données des bases
relationnelles de manière à les rendre traitables par toutes les machines
connectées. Le Web Sémantique est un modèle de données spécialement conçu
pour faciliter l’articulation de données provenant de différents modèles de
données. L’une de ses principales fonctions est de permettre l’ajout
d’information se rapportant à diverses bases de données et des traitements
complexes sur les données provenant de tous ces modèles.
– Le Web Sémantique n’est pas un système d’inférence. En effet, il a pour
objet de décrire la réalité dans sa complexité et fait donc très peu
d’hypothèses simplificatrices qui viserait à rendre ces descriptions traitables rapidement par un ordinateur. Par exemple, le Web Sémantique n’a pas de bornes. Comme le Web, on peut le parcourir sans jamais savoir quand il convient de s’arrêter. Heureusement, le Web permet de distinguer des périmètres (sites, racines d’URL…) qui permettent de bâtir des hypothèses réductrices en aval. Mais le contenu du Web Sémantique reste ouvert et donc unificateur. De plus, les systèmes d’inférence reposent généralement sur l’hypothèse que les faits soumis ne sont pas contradictoires. Au contraire, le Web Sémantique supposera que l’analyse des sources des descriptions qu’il contient permettra seul de pouvoir traiter celles-ci de manière utile.

SW and AI, Prolog and RDF

Web Sémantique & Intelligence Artificielle II, le retour ? C’est ce que suppose l’article
http://www.xml.com/lpt/a/2001/04/25/prologrdf/index.html. Comme argumentation est exposée une approche de chargement et de traitement de graphe RDF à l’aide de Prolog. La règle Prolog implémentée est présentée comme une application d’inférence à base de RDF. Les inférences RDF permettraient des formes de traitement, transformations et requêtes similaires à SQL mais « avec moins de travail » et « plus de clarté ». Cet article invite le lecteur à expérimenter sur RDF la puissance des traitements implémentables en Prolog (forward et backward chaining par exemple) voire à implémenter rapidement des systèmes déployables en production à grande échelle.

Jabber candidat à l’IETF

L’IETF est l’organisme de normalisation qui a standardisé TCP et HTTP (entre autres). Et, selon cet article de news.com, la technologie de messagerie instantanée Jabber serait sur le point de faire son entrée parmi les candidats à la standardisation par l’IETF. Jabber dispose aujourd’hui d’un nombre non négligeable d’utilisateurs et de promoteurs et, par son utilisation basée sur XML, apparaît comme crédible en tant que candidat à la standardisation officielle.