La clef du succès pour avoir une équipe efficace, selon Valdis Krebs, expert en réseaux organisationnels, réside dans leur capacité à maximiser leur taux : (quantité de ressources dans l’horizon proche du réseau relationnel de l’équipe) / (nombre de liens directs entre l’équipe et des personnes ou ressources externes). Les équipes efficaces sont donc celles qui savent tirer profit de leurs liens indirects avec les ressources dont elles ont besoin. Les liens indirects permettent une meilleure veille sur l’environnement (repérer des opportunités, des menaces, réagir plus rapidement). Les liens directs, quant à eux, sont nécessaires pour établir des relations de confiance et des transferts de savoir. Ils doivent donc être extrémement bien ciblés et limités car coûteux à établir et, plus encore, à maintenir.
Archives mensuelles : avril 2003
Exemple pratique d’application web enrichie par les technos sémantiques
Les technologies nouvelles du Web Sémantique peuvent être couplées aux technologies bien éprouvées des bases de données relationnelles. Par exemple, l’usage des « topic maps » permet d’enrichir une application à base de données relationnelles sans avoir à étendre son schéma de base de données.
Cette approche consiste à stocker certaines des données de l’application non pas dans un schéma ad hoc (avec des champs, des clefs et des jointures conçues spécifiquement pour traiter ces données) mais dans un schéma « générique » en utilisant des concepts plus abstraits introduits par les topic maps (« topics », « associations », « occurences »). Ainsi, on peut y stocker n’importe quelle donnée, y compris des données qui n’étaient pas prévues au moment de la conception de l’application. Cette approche offre une telle souplesse que l’on pourrait être tenté de stocker TOUTES les données de l’application sous la forme d’un schéma relationnel pour topic maps. Cependant, cela introduit une couche d’abstraction supplémentaire qui implique donc des traitements supplémentaires et donc des perfomances qui ne sont pas comparables à celles que l’on peut obtenir avec un schéma relationnel conçu sur mesure.
C’est pourquoi cette approche présente son intérêt dans le cas où l’on a d’une part des spécifications fonctionnelles stables (et donc un schéma relationnel que l’on peut bâtir de manière durable en offrant un maximum de performances) et d’autre part des spécifications plus floues ou instables (que l’on peut implémenter en privilégiant la flexibilité sur les performances, à l’aide d’un schéma générique pour stocker des métadonnées sémantiques). L’approche sémantique permet ainsi de bâtir des applications web combinant performances (du relationnel) et flexibilité (du sémantique).
Que penser de WSRP ?
WSRP est une spécification proposée par le consortium OASIS. Son objectif est d’améliorer l’interopérabilité des services web produisant du contenu directement consommable par un utilisateur, par opposition aux services web « back-end ». WSRP partage une partie de son contenu avec la spécification WSIA de l’OASIS qui, elle, vise l’interopérabilité des services web interactifs. WSRP est un enjeu commercial pour les éditeurs de portails qui voudraient rendre leurs « portlets » réutilisables d’un produit à l’autre, ce qui est intéressant soit dans le cas de grosses entreprises disposant de plusieurs produits de portail distincts soit dans le cas de sociétés différentes souhaitant « échanger » des portlets.
Ce qu’il faut, selon moi, penser de WSRP : il ne faut pas en attendre grand chose. Cette spécification survient dans un climat d’instabilité des processus de standardisation des services Web et, en particulier, de concurrence entre le W3C (l’organisme de standardisation des technologies du Web) et l’OASIS (consortium d’éditeurs de logiciels).
De plus, les services web sur le modèle RPC SOAP/WSDL/UDDI sont très loin d’avoir fait leurs preuves, au contraire. La seule chance de succès de WSRP réside donc peut-être dans l’importance des investissements qu’auraient effectués certains éditeurs logiciels, qui cherchent maintenant un moyen de les rentabiliser.
Il me semble plus raisonnable et économique de concevoir une interopérabilité des services web, y compris pour les portlets, basée sur les caractéristiques de couplage faible défendues par le modèle architectural REST qui, lui, a fait ses preuves avec le Web depuis plus de dix ans.
69% des entreprises US se passent de SOAP
Je comprends de cette étude du Gartner que seules 31% des entreprises US interrogées utilisent SOAP et seules 3% d’entre elles utilisent WSDL.
Par ailleurs, voici encore un pointeur intéressant au sujet de REST vs RPC (SOAP/WSDL/UDDI) et puis un exemple pratique de mise en oeuvre de service façon REST plutôt qu’avec SOAP.
REST : restons, restez…
On ne le dit jamais assez : vous utilisez sans doute déjà le modèle REST mais sans le savoir ! Alors, sachez le, il faut continuer à RESTer :
- un excellent (court) résumé de ce qu’est REST, avec un exemple
- une présentation de l’interface REST d’un service web réel ; mais ce service web est relativement simpliste (il se contente de donner accès en lecture à des informations) et on ne peut donc pas vraiment voir de différence évidente avec SOAP dans l’interface.
- Et, pour mieux saisir ce qu’est REST, les erreurs à ne pas commettre lors de la conception d’un service Web REST
- Oh, et puis cette page utile : comment construire un service web REST en quelques étapes ?
- Et, enfin, que l’on utilise SOAP ou que l’on se fie au modèle REST, il est bon de savoir que les données récupérées du service Web peuvent être soit simples (chaîne de caractère) soit XML. Et le choix SOAP ou REST ne change rien à l’affaire.
Des produits opensource pour l’EAI
Il existe au moins deux produits
opensource conçus pour l’EAI : Proteus et Babeldoc.
Proteus est constitué de :
- un framework pour développer des applications à base de messages
- un broker de messages construit sur ce framework
- des connecteurs pour diverses sources (ou destinations) de données : bases de données,
files de messages, serveurs FTP, etc. ainsi que, bientôt, serveurs de messagerie
électronique, fichiers plats, pour Tibco Rendezvous et pour WebMethods. - une API documentée
Babeldoc est une application de traitement de documents (similaire à WebMethods mais en
moins avancé) constitué d’une part d’un « pipeline » paramétrable à travers lequel les
documents circulent et d’un système sophistiqué de journalisation. Babeldoc tourne dans un
environnement J2EE (JBoss par exemple) et dispose d’interfaces d’admin via le Web, via un
client lourd ainsi que via ligne de commande. Babeldoc fournit également des connecteurs
pour bases de données, serveurs FTP, serveurs HTTP et services SOAP, ainsi qu’une fonction
de routage basée sur la technologie XPath. La documentation de Babeldoc est en cours
d’amélioration. Babeldoc est actuellement utilisé pour un EAI reliant les banques serbes à
la banque centrale de Serbie.
Sun One Directory Server vs. Microsoft Active Directory
SUN compare son produit d’annuaire « Sun One Directory Server » au produit concurrent
« Microsoft Active Directory » (AD) : AD n’utilise pas un identifiant standard pour désigner
les adresses de messagerie, AD n’utilise pas le standard inetOrgPerson (RFC 2798) pour
représenter les personnes, AD ne permet l’existence que d’un seul schéma par déploiement (un
schéma par « forêt ») et AD impose l’utilisation d’une API propriétaire (et non d’une API LDAP
standard) pour écrire la valeur du SPN (Service Principal Name) d’un objet dans l’annuaire.
De ce fait, AD n’offre pas les garanties d’interopérabilité suffisante pour les entreprises
souhaitant se doter de services d’annuaire LDAP.
Blade servers
Les « blade servers » (littéralement « serveurs en lame ») sont des serveurs modulaires qui partagent un même matériel électronique qui leur fournit l’alimentation électrique (avec redondance) et la connectivité réseau. Par contre, ils ne partagent habituellement pas de disques (et donc a fortiori pas de disques avec redondance). Ce type de serveurs n’est habituellement utile que pour des architectures « haute disponibilité » où la perte de l’un des serveurs n’entraîne pas de perte de disponibilité du service. Cela suppose donc des applications qui ont été développées en ce sens. De plus, les blade servers coûtent plus cher que leurs équivalents classiques. Leur valeur ajoutée résiderait dans l’intégration de leurs services de gestion matérielle et dans leur flexibilité. C’est ce qui se dit.
REST ou SOAP, l’expérience d’Amazon
D’après ce que l’on peut lire sur l’expérience d’Amazon en matière de services Web, bien qu’Amazon publie ses services Web aussi bien sous une interface REST que sous une interface RPC/SOAP, 85% des accès à ces services se font via l’interface REST. Les développeurs Web apprécient la simplicité relative du modèle
REST.
Intégration de données
Lorsqu’il s’agit d’intégrer des sources de données hétérogènes, plusieurs familles de technologies peuvent être mises en oeuvre. Chacune a sa « zone de confort » et des usages particuliers pour lesquels elle a été conçue. Afin de donner une vision globale de ces technologies, j’ai essayé ci-dessous d’en dresser une typologie. Elle vaut ce qu’elle vaut et mériterait à être corrigée et complétée par vos commentaires !
Les parties en présence :
- ETL (Extract-Transform-Load ?) : mis en oeuvre dans des contextes d’informatique décisionnelle ou de gestion de datawarehouses dans lesquels se déversent des données de gestion issues d’ERP,
- EAI (Enterprise Application Integration) : concept général couvrant l’ensemble des problématiques d’intégration de données, mais se traduisant le plus souvent par des technologies de type « bus de messagerie »
- Méta-annuaire (Meta) : tend à évoluer vers des technologies de type EAI/bus de messagerie,
- Web Sémantique (SemWeb) : technologie à vocation universelle et s’appuyant sur des hypothèses de couplage faible (pas besoin d’un accord préalable entre les parties échangeant leurs données), à l’état plutôt expérimental,
Ce que l’on peut en dire :
- Fonction des opérations de traitement (après extraction et transport) : faible = nettoyage (ETL), moyen = routage/aiguillage (EAI), fort = jointure (Méta), très fort mais a posteriori = inférences (SemWeb)
- Fonctions de sécurité : faible (ETL, SemWeb), moyen (Meta), fort (EAI)
- Natude des données : qualitatives dans une logique événementielle (EAI), qualitatives dans une logique relationnelle (SemWeb) ? qualitative dans une logique descriptive (Méta) ? quantitatives (ETL) ?
- Staticité des données, combien d’opération de lecture pour une opération d’écriture : 1 (EAI), 10 (ETL, WebSém.), 100 (méta)
- Fréquence pour 100 opérations : par minute (EAI), par heure (méta-annuaire), par jour (ETL, Web Sémantique)
- Volume de chaque opération : 100 000 enregistrement (ETL), 1 000 enregistrements (SemWeb), 100 enregistrements (Méta), 1 enregistrement (EAI)
Imaginez le Web Sémantique
Allez, un petit effort, projetez-vous en 2009 : Google a surfé la vague du Web Sémantique et a, du coup, appris à comprendre l’information qu’il crawle sur le Web. Il SAIT désormais que Jim se considère comme l’ami de Paul. Il SAIT que le vendeur A propose un modèle de voiture 10% mois cher que le vendeur B. Il SAIT que tel saxophoniste a joué dans tel orchestre dans les années 70. Il SAIT que les chiens ont des pattes, que votre ordinateur a besoin d’une nouvelle carte mère pour pouvoir passer au Pentium 18. Le Web Sémantique, ce n’est plus un fatras de pages et de liens mais un fatras de choses et des relations logiques qui les articule. Toutes ces informations sémantiques (certains disent « ces métadonnées ») sont publiées sur le SemWeb comme le sont les pages du Web d’aujourd’hui. Chacun peut y puiser mais aussi y publier. Et les logiciels du SemWeb permettent de faire émerger le sens de tous ces liens logiques entre les ressources du SemWeb, de confronter des liens contradictoires, de batir des raisonnements à la demande de l’utilisateur, etc. Par exemple, le Google de 2009 vous permet d’explorer ces liens pour trouver de nouvelles ressources et de nouvelles informations selon vos besoins, ou selon le besoin de vos propres logiciels…
(Je vous laisse deviner dans quelle phase du « hype cycle » du Gartner Group le concept du Web Sémantique serait actuellement positionné.)
Plone, une application de Zope
Plone est une application de gestion de contenu batie autour du serveur d’application Zope et du framework de gestion de contenu pour Zope : CMF (Content Management Framework). Cette belle présentation vous en dit plus.
Le Gartner Group et l’IM
Selon le Gartner Group, en 2002, la plupart des entreprises ont massivement adopté la messagerie instantanée (IM) en tant que procédé de communication, « malgré la résistance du département informatique ». Le marché des systèmes d’IM pour l’entreprise commencerait à se consolider vers 2004 et, en 2006, 75% des éditeurs actuels de messagerie instantanée pourraient avoir été rachetés ou avoir disparu. Le Gartner prévoit également qu’en 2003, l’IETF ne parviendra pas à créer de normes « largement acceptées et commercialement déployables » pour l’interopérabilité des systèmes d’IM. Et les entreprises devront se résoudre à choisir parmi des réseaux d’IM concurrents (et non compatibles). Le Gartner envisage que les gens (ou les applications) apprendront à choisir la meilleure façon de communiquer en fonction de l’urgence du message et du mode de travail de l’expéditeur et du destinataire. En attendant et en l’absence de conseils, « les utilisateurs se trouveront rapidement confrontés à une mauvaise utilisation et à la surcharge de la messagerie instantanée »… Et ces mauvais usages « risquent d’être encore pires que la surcharge du courrier électronique ». Les conseils du Gartner pour se préparer à cet avenir : évaluer l’ampleur avec laquelle l’IM grand publique est utilisée dans l’entreprise et à quelles fins, inclure l’IM dans les règles d’usages de l’informatique (chartes utilisateurs), définir des bonnes pratiques…
De beaux jours en perspective pour Jabber.
Servez-Vous?
Besoin d’inspiration pour vous rendre utile près de chez vous ? Envie de faire connaître une initiative sympathique dont vous avez entendu parler ? Allez sur Servez-Vous?, fournisseur officiel de projets du coin…
L’analyse fonctionnelle de la valeur au service du management de l’information
L’analyse de la valeur (voir aussi là, et là), et plus particulièrement l’analyse fonctionnelle dans le cadre de l’analyse de la valeur (voir aussi la célèbre déclinaison de cette méthode selon le cabinet APTE), est une méthodologie particulièrement efficace pour exprimer de manière rationnelle des besoins dans le cadre de projets.
L’analyse de la valeur facilite, du coup, l’évaluation de l’opportunité de ces besoins et, surtout, l’évaluation de l’adéquation d’une solution à ces besoins. Appliquée au domaine du management de l’information, l’analyse de la valeur fait des miracles. Jean MICHEL, de l’ENPC, en témoigne. Ah, ben tiens, je découvre que Jean Michel est vice-président de l’Association Française pour l’Analyse de la Valeur. Pas étonnant !
Opensourcez vos développements
Les logiciels opensource sont de plus en plus utilisés dans les grandes entreprises. 54% des DSI prévoieraient qu’en 2007, leurs principales plate-formes seront opensource.
Comme l’indique cet article du magazine Computerworld, certaines grandes entreprises adoptent même le modèle économique des développements opensource pour réduire les coûts de leur informatique. Après l' »outsourcing », l’ « opensourcing » consiste donc à publier sous licence opensource les développements menés en interne pour améliorer ou corriger un logiciel libre. Cela évite d’avoir à maintenir, en interne, une version spécifique du logiciel et permet donc de partager les coûts de développement avec d’autres entités. Cela permet également à l’entreprise de gagner en légitimité dans les communauté de développement et de pouvoir ainsi influencer de manière significative leurs stratégies de développement. La contribution des entreprises ne consiste pas seulement en code informatique mais également en documentation ou en graphisme, ressources qui font défaut pour de nombreux logiciels libres.
Mozilla en tant que debugger de site Web
Mozilla dispose de fonctionnalités intéressantes pour être utilisé en tant que débuggueur de site Web (JavaScript, gestion des cookies, …). Des experts, sur Slashdot, donnent leurs points de vue sur la question.