Chromatic nous dispense ses bons conseils pour réussir la constitution et l’animation de communautés électroniques par le biais de sites Web. Son premier conseil concerne les finalités du site : quelles sont les finalités de l’animateur ? quel bénéfice un utilisateur tirera-t-il de sa participation à la communauté ? quel intérêt aurait quelqu’un à rejoindre cette communauté ? Construire une communauté sans finalité explicite serait comme créer une entreprise en oubliant qu’il s’agira de trouver des clients prêts à payer. Ensuite, l’article de Chromatic explique les mécanismes de l’effet « réseau » ou « boule de neige » : ce sont les participants satisfaits qui attireront l’essentiel des nouveaux participants. Lorsque ce mécanisme est bien enclenché, la communauté acquière une certaine inertie : ses membres se sont appropriés le site support de la communauté et deviennent un frein à tout changement du site en question. Ce qui caractérise une communauté bien constituée, ce sont notamment ses clins d’oeil culturels internes, ses « private jokes », qui sont autant de signes de reconnaissance entre ses membres. Mais il ne faut pas oublier que dans toute communauté, les gens ne participent que de manière marginale : la plupart lisent et n’écrivent pas, et ceux qui écrivent ne le font qu’occasionnellement. Pour multiplier les membres actifs, il convient d’abaisser les barrières à franchir pour pouvoir contribuer. En particulier, le nombre de membres actifs est inversement proportionnel à l’effort nécessaire pour la première contribution (inscription, …).
Archives pour la catégorie Informatique
Comment choisir un progiciel
GFI Consulting publie un vieil article sur les bonnes (et non moins vieilles) pratiques qui permettent de choisir un progiciel. En particulier, GFI signale que pour être qualifié de progiciel, un logiciel doit non seulement avoir fait l’objet de spécifications formelles pour chacune de ses versions mais doit également faire l’objet d’un effort régulier de commercialisation et de support. Enfin et surtout, il doit être garanti, maintenu et en évolution durable. GFI recommande de ne pas procéder à un choix de progiciel par émission d’un cahier des charges mais par élimination progressive des candidats potentiels dans une démarche plus interactive avec les éditeurs. En effet, aucun progiciel ne répond parfaitement à un cahier des charges spécifique ce qui conduit fréquemment à l’une des situations suivantes : développement spécifique « par dépit », modifications du progiciel par l’éditeur qui aboutissent à en faire un logiciel spécifique, adoption d’un progiciel tellement paramétrable qu’il devient une plate-forme de développement propriétaire au coût de développement/paramétrage comparable à celui d’un développement spécifique ou sélection du progiciel le moins pire par un « consensus mou ». Il ne s’agirait donc pas d’élaborer un cahier des charges détaillé mais seulement une expression générale des besoins fonctionnelles qu’il s’agira de compléter en fonction de la manière dont chaque progiciel étudié y répond. De toutes façon, il convient de retenir que les utilisateurs auront à modifier leurs processus et méthodes de travail pour s’adapter au progiciel (et non l’inverse).
En ce qui concerne la pérennité de l’offre d’un produit par un éditeur, il convient selon GFI de savoir qu’une telle offre n’atteint l’équilibre économique que lorsque le produit a été diffusé à plusieurs dizaines d’exemplaires. GFI considère qu’un progiciel de gestion intégré (ERP) devrait offrir un coût initial d’achat sensiblement inférieur au dixième du coût d’un développement spécifique. Tant que le progiciel n’a pas été commercialisé auprès de 40 clients, après 18 à 30 mois d’existence, sa pérennité économique reste fragile.
De plus, il convient d’estimer non pas le seul coût d’achat mais le coût complet de la solution pour l’ensemble de son cycle de vie, c’est-à-dire jusqu’à son remplacement par une solution impliquant une reprise des données et une nouvelle formation des utilisateurs.
Edition d’ontologies
XML.com fait le point sur la construction d’ontologies. La construction d’ontologies se révèle utile dans des domaines tels que la recherche sur le Web Sémantique, la création de référentiels médicaux, la gestion de ressources d’information publiques, la cartographie de génomes, l’ingénierie en conception concurrente, l’analyse et la gesion des risques et l’automatisation des transactions commerciales entre entreprises.
L’ontologie permet de disposer d’un discours commun pour décrire un domaine donné et qui permet une exploitation automatisée par des règles d’inférence et de traitement logique. Les ontologies se composent habituellement de deux couches : un composant « terminologique » qui définit la structure du domaine à décrire et un composant « assertionnel » (assertional) qui alimente cette structure avec des instances ou individus qui incarnent les définitions terminologiques. On peut décider de stocker les concepts (structure terminologique) et les individus (instanciations des concepts) de manière distinctes mais le fait de traiter une ressource comme un concept ou comme un individu est une décision arbitraire et doit relever d’un choix volontaire lors de la conception de l’ontologie.
Pour bâtir une ontologie, on peut utiliser des langages de programmation logique classique tels que Prolog. Mais, plus souvent, on utilise des modèles et langages spécialisés pour la construction d’ontologies tels que OKBC, KIF et CL). On peut également utiliser des langages plus avancés tels que Loom, DAML+OIL ou le standard qui en émerge auprès du W3C : OWL (Ontology Web Language). Le choix du bon langage de développement dépend notamment du degré de nuance et de sophistication nécessaire pour répondre au besoin fonctionnel. De plus en plus, ces langages tendent à intégrer RDF comme technologie fondamentale pour intégrer les données présentes sur le Web.
Voici les étapes habituelles dans la construction d’une ontologie : acquérir la connaissance du domaine (à l’aide documentation et d’experts du domaine), organiser l’ontologie (à l’aide de méthodologie de conception d’ontologies), alimenter l’ontologie (par des concepts, des relations et des individus), vérifier la cohérence du résultat (cohérence syntaxique, logique et sémantique) et soumettre à la publication (validation par les experts du domaine).
Il existe plusieurs logiciels pour construire des ontologies (composant terminologique seulement ou bien ensemble de l’ontologie). On trouve des produits commerciaux offrant des fonctionnalités d’édition d’ontologie non spécifiques à un domaine, des logiciels d’édition intégrés à des solutions d’entreprises spécialisées et des logiciels d’édition issus du secteur public. Les outils intégrés à des solutions d’entreprise offrent des fonctionnalités de classification et d’analyse automatisées afin d’extraire de l’information à partir de contenus non structurés. Une fonctionnalité attendue mais actuellement non présente dans ces outils consiste à permettre, via une ontologie, de réconcilier des langages et vocabulaires XML spécialisés par domaines commerciaux. Pour le moment, l’interopérabilité est uniquement offerte par des fonctions d’import et d’export en différents langages de sérialisation d’ontologie (par exemple basés sur XML). Rares sont les logiciels d’édition offrant des fonctionnalités de fusion d’ontologies hétérogènes.
Trois logiciels d’édition sont remarquables : Protégé 2000 pour la richesse de ses fonctionnalités et son extensibilité via des plug-ins, Ontolingua et OpenCyc en tant qu’environnement de développement d’ontologies complexes ainsi que pour l’accès, par OpenCyc, à une ontologie globale de référence très complète (Cyc). Les fonctionnalités essentielles attendues pour ce type d’outil sont une visualisation et une manipulation confortables et intuitives des concepts et des relations qui composent l’ontologie. L’approche classique consiste à offrir une combinaison de vues sous formes d’arbres à la manière de l’explorateur de Windows. Une visualisation sous forme de graphe est plus rare. Elle doit alors offrir une fonctionnalité de zoom permettant de manipuler des graphes très étendus. Ce type de zoom peut par exemple prendre la forme d’une visualisateur hyperbolique ou d’un visualisateur « à la treemap » (les noeuds « enfants » d’un point de départ sont visualisés *à l’intérieur* du noeud parent et sont explorés par un zoom progressif pour descendre en profondeur à travers les noeuds…). Enfin, certains logiciels d’édition offrent la possibilité d’ajouter à l’ontologie des axiomes et règles d’inférence permettant d’évaluer cette ontologie dans un environnement de développement.
Zope vs Cocoon, Python vs Java
La société ArielPartners a publié
une étude comparative de Zope et de Cocoon, deux environnements objets faisant office de serveurs d’applications Web pour les sites Internet et intranet orientés publication de contenu. Leur conclusion présente Zope comme un environnement plus puissant, plus mûr et mieux documenté, avec une avance de une à deux années sur Cocoon et les environnements de publication Java similaires à Cocoon. En particulier, Zope offre des fonctionnalités satisfaisantes de gestion des transactions, de la sécurité et une évolutivité remarquable (scalabilité).
ArielPartners publie également une
comparaison détaillée des langages Python (associé à Zope) et Java (associé notamment à Cocoon). Cette comparaison soutient la thèse suivante : il suffit d’adopter Python ET Java pour couvrir l’intégralité des besoins de développement courant en informatique d’entreprise. Python offre les avantages suivants :
- le code Python est plus concis (3 à 5 fois plus concis qu’en Java) et le codage est plus rapide et facile
- le langage évolue plus rapidement que Java car Java a acquis plus d’inertie
- Python impose moins de contraintes pour le codage, au prix d’un plus grand risque d’erreurs lors de l’exécution du code
- Python est plus facile à apprendre pour les débutants tout en étant satisfaisant pour les experts : sa courbe d’apprentissage est plus douce
- Zope est un serveur d’application python reconnu.
- La syntaxe de Python est plus claire et plus lisible
- Python, comparativement à Java, offre un code plus facilement maintenable.
- L’interpréteur Python compile le code à sa première exécution et exonère ainsi le développeur de phases de compilation fastidieuses.
- Python est un choix judicieux pour la majorité des tâches de développement en entreprise.
- Les domaintes d’excellence de Python sont : le scripting, le prototypage rapide, l’intégration de systèmes (langage « glue »), les applications web, les outils graphiques, les outils de traitement XML.
Les avantages de Java sont les suivants :
- on compte 3 millions de développeurs Java dans le monde contre un demi million de développeurs Python
- Le code Java, plus contraint pour le développeur, offre moins de risque de bug
- Java s’accompagne d’offres mûres et nombreuses en matière de serveurs d’application grâce à J2EE, RMI, Jini et JavaSpaces. Les principaux serveurs d’application sont BEA WebLogic, IBM WebSphere, Sun One Application Server et JBoss (opensource).
- Java offre des modèles à base de composants adaptés à l’entreprise avec les modèles JavaBeans et EJB.
- Java s’accompagne d’outils de conception graphique, de documentation et de débuggage très avancés.
- Java, comparativement à Python, offre un code plus performant.
- Java se présente comme un choix complémentaire intelligent pour tous les cas …
- … où Python n’a pas encore fait ses preuves (Aspect-Oriented Programming, recherche sur les technologies SOAP/WSDL/UDDI, utilisation d’outils de modélisation UML avancés)
- … où les performances brutes sont critiques
- … où il s’agit de mettre en place des systèmes distribués ou parallélisés à très grande échelle
- … où la facilité de recrutement de compétences de développement ou la disponibilité d’outils de développement est critique
L’art et la manière de réussir un projet Progiciel
Le CIGREF a réuni dans un document des recettes de bon sens pour réussir un projet
progiciel. Le magazine L&S a repris l’essentiel de ce document dans un article
dont il ressort les points
suivants:
Le coût de licences ne représente que 20% des dépenses totales de ce genre de
projet. Ce type de projet donne habituellement lieu à un appel d’offres, rationnel et
contradictoire. Mais l’organisation d’un appel d’offres engendre des coûts et délais souvent
sous-estimés. Le choix du progiciel doit s’appuyer sur une approche à trois dimensions : par
les besoins fonctionnels, par l’offre du marché et par l’existant dans le système
d’information de l’entreprise. Le choix s’effectue en trois étapes : définition du cahier
des charges pour l’appel d’offre et inventaire de l’existant, identification d’environ 6
progiciels offerts par le marché, réduction à un échantillon de 2 ou 3 candidats puis choix
du progiciel à acheter. Le cahier des charges doit contenir au minimum les principales
règles de gestion et les principes d’organisation exprimant le besoin fonctionnel. Les
critères de choix pour identifier la solution répondant au mieux à ce besoin doivent
comporter toutes les dimensions suivantes : durabilité du fournisseur, durabilité du
progiciel, caractéristiques des données traitées (volumes, formats, interfaces),
caractéristiques informatiques, coûts (pour chaque étape de vie du progiciel), performance,
sécurité, services du fournisseur. Le choix doit s’appuyer sur une comparaison de progiciels
sur la base de jeux d’essai donnés au fournisseur, sur le prototypage des fonctionnalités
spécifiques et les spécifications des adaptations nécessaires. En particulier, la
faisabilité de l’interfaçage du progiciel avec l’architecture du S.I. existant doit être
examinée en détail. En ce qui concerne le degré de flexibilité du progiciel, on remarquera
que plus un progiciel est paramétrable et adaptable aux spécifications fonctionnelles
détaillées, plus le travail de paramétrage et d’adaptation sera long et coûteux. A l’inverse
un progiciel rigide implique des coûts d’adaptation des processus de travail. Afin de
procéder à la comparaison des progiciels candidats, il est judicieux d’élaborer une grille
d’évaluation comme outil de réflexion mais il convient de savoir s’abstraire de tout système
de notation pour prendre une décision ultime de manière responsable. Une grille d’évaluation
peut permettre de constater que, quelque soit, la pondération affectée à chaque critère de
notation, une solution se dégage (ou non) comme préférable auquel cas il convient d’en tirer
des conséquences lors du choix final. Enfin, il ne faut pas s’arrêter à la comparaison des
coûts logiciels dans la mesure où une offre moins complète entraîne des surcoûts de
développements complémentaires.
En ce qui concerne le prototypage, il est particulièrement utile puisque qu’il doit se
focaliser sur les processus métiers considérés comme essentiels ou posant le plus de
problèmes de faisabilité, de compatibilité technique avec l’existant ou de qualité
d’ergonomie. Il permet de prendre en compte les contraintes techniques imposées par le
projet et d’étudier les performances et limites du progiciel en se concentrant sur les 20%
de cas qui couvrent 80% des volumes ou les 20% de cas les plus complexes à traiter.
L’article détaille également les bonnes pratiques pour les phases de paramétrage, de test,
de conduite du changement, de migration et de reprise de données, d’adaptation, de
documentation et de contractualisation. Il insiste en particulier sur l’importance, pour ce
dernier point, de se faire accompagner dans le choix par un juriste et par un acheteur seuls
capables de prévenir les écueils courants pour ce type de projets.
NTFS et FAT32
Ma soeur me demande : « C’est quoi des nfts et des fat32 ? » Je ne suis pas un spécialiste de la question, mais voici ce que je lui ai répondu.
Ce sont des « systèmes de fichiers », i.e. la manière dont une partition d’un disque dur est organisée pour stocker des fichiers. NTFS est le système de fichier de Windows NT. FAT32 est le système de fichier de Windows 95, 98, 98SE et 98ME. Windows NT et Windows 2000 connaissent les deux systèmes de fichier. Windows XP connaît sans doute également les deux mais, moi, je ne fréquente pas Windows XP.
Linux organise ses fichiers selon d’autres systèmes de fichiers. Mais Linux connaît aussi NTFS et FAT32 donc tu peux lire des partitions NTFS et FAT32 depuis un linux.
L’avantage de NTFS sur FAT32 est que ce système permet de contrôler que seuls certains utilisateurs de ton Windows ont le droit de faire certaines actions sur certains fichiers et répertoires. A priori, NTFS est également plus « robuste » que FAT32, i.e. qu’il y a moins de risque de pertes de données en cas de plantage de l’ordinateur. Je ne connais pas les inconvénients de NTFS sur FAT32 si ce n’est qu’une partition organisée en NTFS ne sera pas lisible depuis un Windows qui ne connaît que FAT32.
PC pour le tiers-monde
Un PC wireless à pédales pour le Laos, c’est le Jhai PC.
Et un PC dans un mur pour les enfants des rues, c’est en Inde que ça se passe.
Méta-annuaire pour le Web sémantique
Grâce à des scripts de conversion en RDF de fichiers structurés (.csv ou autres), on peut facilement imaginer publier le contenu d’un annuaire LDAP, via un méta-annuaire, sous la forme d’un ou plusieurs fichiers RDF.
Jeux de rôles éducatifs via l’Internet
Un article de la revue hypermédia « Les Carbets » esquisse une méthode éducative pour lever, auprès de jeunes en échec scolaire, les blocages vis à vis de l’apprentissage. Cette méthode s’appuie sur l’organisation de jeux de rôles exploitant l’Internet, par exemple dans les lieux publics d’accès à l’Internet (cybercentres, télécentres, maisons du savoirs, …). Le fait, pour le joueur, de créer un personnage imaginaire de toutes pièces l’implique fortement. Le « maître de jeu » doit contrôler et de stimuler cet investissement personnel d’un personnage imaginaire. Le plongeon dans l’imaginaire permet de s’abstraire du contexte de l’échec scolaire ou d’un mal-être plus général. La mobilisation d’un moi imaginaire permet de retrouver « un appétit d’apprendre intact ». De plus, les réussites du personnage imaginaire, animées par le maître de jeu, valorise le joueur, ses connaissances et ses compétences individuelles.
La médiation des nouvelles technologies pour ce type de jeu (par le biais du courrier électronique, des forums et du chat) ne limite en rien le pouvoir de fascination exercé par le maître de jeu et les avatars des joueurs. Au contraire, elles offrent au jeu l’accès à l’Internet comme espace de trésors à découvrir et à explorer à condition que chacun des joueurs acquière un degré minimum d’autonomie dans cet environnement d’interaction.
Une fois valorisé dans l’imaginaire et son action médiatisée par les nouvelles technologies, il reste au joueur à vérifier dans la réalité ses compétences et connaissances. Ce retour à la réalité, fixateur de la confiance en soi, est problématique car les joueurs, contrairement à une idée courament répandue, font une distinction très nette entre l’imaginaire et le réel. L’une des solutions pour ancrer les acquis du jeu dans le réel consiste à développer des communautés de joueurs pour échanger des astuces et récits de personnifications réussies. Un autre élément de solution consiste à expliciter les relations éventuelles entre réussites virtuelles et capacités réellement acquises et donc potentiellement exploitables.
Le savoir-faire clef du maître de jeu, au-delà de la maîtrise de l’usage des outils, consiste à savoir établir l’équilibre et la relation entre l’imaginaire ludique et la réalité notamment par l’orientation des joueurs vers des missions associant les valeurs de partage, d’entraide et de créativité.
Une journée dans la vie de Paul Wifi
La « Fondation Internet Nouvelle Génération » propose un brain storming permanent sur le thème des usages des nouvelles technologies : « la fabrique des possibles ». A ce titre, l’un des contributeurs imagine le déroulement d’une journée dans la vie d’un utilisateur des technologies Wifi (réseau informatique sans fil). Un autre scénario d’usages évoque l’intrusion des nouvelles technologies dans nos vies quotidiennes.
Intranets résidentiels et communautés de voisins
La « Fondation Internet Nouvelle Génération » a publié un article sur les intranets résidentiels, la mise en réseau de voisins. Les usages envisagés pour de tels intranets sont nombreux et variés : échanges entre habitants (matériels, savoirs, baby sitting), le prêt de matériel de bricolage, partage du coût d’une connexion permanente à l’Internet, formation des habitants à l’informatique, le renforcement d’une identité résidentielle ou communautaire, partage de fichiers informatiques, télégestion d’un immeuble, échanges de savoir, groupement d’achats, hébergement de sites personnels, télésurveillance, télédomotique et jeu en réseau. Le principal risque pour ce genre de projet consiste à ne pas réussir à animer et à maintenir de riches relations de bon voisinnage sans lesquelles l’intranet résidentiel pert tout son sens et tout son intérêt. C’est le réseau humain et non le réseau électronique qui fait la communauté virtuelle.
Classification des modèles économiques de l’Internet
L’un des groupes de travail de la « Fondation Internet Nouvelle Génération » propose une classification des principaux modèles économiques rencontrés sur l’Internet en fonction de critères tels que la nature du produit ou service cédé, la périodicité de la facturation, le mode de mesure de la consommation, la caractère public ou privé de la consommation, le couplage des produits ou services, les modes de financement du développement ou de l’usage, la mesure de la valorisation du financement, etc.
Sept ans pour comprendre l’intelligence collective
Le Monde rapporte le nouveau projet du philosophe Pierre Lévy à qui l’université d’Ottawa vient d’accorder un programme de recherche de 7 ans dans le champ scientifique de l’étude de la coopération intellectuelle, sur son thème de prédilection : « l’intelligence collective ». « L’intelligence collective est une approche de la société qui considère les groupes humains […] comme des systèmes cognitifs qui créent, innovent et inventent. L’objectif de ce programme de recherche es de modéliser les processus d’intelligence collective pour les tester et les améliorer. » Parmi les sujets qui pourront être abordés, on trouve le « e-learning », les processus d’apprentissage collectif et les expériences de cyberdémocratie locale. Pierre Lévy se fixe également pour objectif, dans ce cadre, de créer un logiciel libre « que pourront s’approprier des communautés pour améliorer leurs processus de coopération intellectuelle ». Le Monde qualifie Pierre Lévy de prospectiviste, de « fondamentaliste d’Internet » voire d’utopiste et souligne que celui-ci aura « sept ans pour confronter ses thèses au terrain et convaincre qu’il a eu raison avant tout le monde ». Pierre Lévy est l’un des inventeurs des « arbres de connaissance » exploités par les logiciels de la société Trivium.
Associations : se mettre en ligne ?
elanceur propose la traduction en français d’un article destiné aux associations et autres organisations à but non lucratif qui s’interrogent sur l’opportunité de créer leur site Web et d’adopter les technologies de l’Internet.
Le graal de la sécurité informatique
En juillet 2002, le Gartner Group résumait ainsi le nec plus ultra de la sécurité informatique :
- des infrastructures à clefs publiques (PKI) pour offrir des signatures électroniques facilement vérifiables,
- des cartes à puce pour garantir que les clefs privées restent privées,
- des outils biométriques fiables pour compléter l’identification individuelle.
Extreme Programming
Le réseau O’Reilly a publié une introduction à la méthodologie de développement « Extreme Programming ».
StarOffice de SUN, un challenger sérieux pour Office de Microsoft
Selon le GartnerGroup, la suite bureautique StarOffice de SUN est non seulement attirante parce que intialement gratuite mais surtout parce que désormais « suffisament bonne » pour la plupart des utilisateurs de bureautique. StarOffice fonctionne sous Windows comme sous Linux ou Solaris. Par contre, la version 6.0 de StarOffice devient payante (entre 25$ et 75$ par utilisateur en fonction du volume, soit bien moins cher que la suite de Microsoft). C’est pourquoi le Gartner Group estime qu’il y a 60% de chances que StarOffice prenne 10% de parts de marché à Office d’ici la fin 2004.
Web Sémantique et Services Web
Le Web Sémantique et les Services Web tirent-ils le Web dans de directions opposées ? Cet article (http://www.xml.com/lpt/a/2002/07/17/daml-s.html) signale une manière de conjuguer ces deux tendances. L’idée consiste à décrire un service Web en tant que ressource du Web, à l’aide d’un vocabulaire spécifique exploitant certains langages de représentation du Web Sémantique (DAML+OIL). Le résultat est DAML-S, une ontologie générale pour Services Web, qui permet à une application de répondre aux « Quoi ? » et aux « Pourquoi ? » (contrairement aux « Comment ? » auxquels répond déjà WSDL). Les fonctionnalités d’applications exploitant DAML-S seraient la découverte, l’invocation, la coordination (« interopération »), la composition, le contrôle et la supervision de Services Web. DAML-S : un futur standard ou un flop annoncé ? en tout cas sans doute une idée qui mérite réflexion…
Palladium : Microsoft et Intel veulent contrôler votre identité
Microsoft et Intel essaient de promouvoir un nouveau dispositif technologique, Palladium, dont l’objet sera de forcer nos ordinateurs, par le biais d’une nouvelle puce électronique, à ne considérer comme « sûr » que des contenus qui auront été électroniquement estampillés comme tels par Microsoft et ses partenaires. Pourtant, comme l’indique Jon Udell, tous les logiciels de messagerie (Mozilla, Outlook, Outlook Express…) possèdent déjà les fonctionnalités requises pour vérifier la validité d’un message électronique et l’identité de son auteur. Alors pourquoi réinventer la roue et ne pas utiliser ces fonctionnalités largement déployées ? Et surtout, pourquoi confier à Microsoft et Intel le contrôle du dispositif de contrôle de la sécurité alors ques les outils d’aujourd’hui permettent de faire presque la même chose en préservant l’autonomie de l’utilisateur ?
Ces fonctionnalités de signature électronique s’appuient aujourd’hui sur l’utilisation de certificats électroniques permettant de signer des messages avec la technologie S/MIME. Il est relativement simple (et surtout gratuit) pour chaque utilisateur d’acquérir un tel certificat. En fait, le problème avec S/MIME semble être que rare sont les utilisateurs qui ont vraiment besoin et envie de signer électroniquement des messages et de vérifier l’identité des signataires des messages reçus. De plus, MS Internet Explorer, contrairement à Mozilla, ne sait pas mettre à jour automatiquement sa liste de révocation de certificats (pour être averti lorsqu’une signature électronique a été dérobée à son propriétaire par exemple). Alors, OK, peut-être que les solutions actuelles ne sont pas complètement au point. OK, la culture de l’Internet valorise plus l’anonymat que le contrôle de l’identité. Mais est-ce une raison suffisante pour abandonner une technologie déjà largement diffusée au profit d’un dispositif de contrôle sécuritaire aux mains de quelques acteurs en situation de quasi-monopole ?
Chronologie de l’opensource dans l’administration
Le réseau O’Reilly retrace une chronologie de l’adoption de l’opensource par les gouvernements de différents pays. Voici quelques unes de ces dates :
– Février 2000 : le ministre français de la culture et des communications annonce une opération de migration de 300 de ses serveurs Web, de fichier et de messagerie vers une combinaison de Red Hat, Apache et Zope. La motivation avancée est l’accroissement des besoins de sécurité.
– Mai 2000 : Le gouvernement de l’Etat brésilien de Rio Grande do Sul est le premier gouvernement à adopter une loi rendant obligatoire l’utilisation de logiciels opensource pour les agences gouvernementales et les organismes sous tutelle.
– Mars 2001 : De peur du monopole d’éditeurs étrangers sur le marché des logiciels, le gouvernement chinois annonce qu’il envisage de créer une distribution linux spécifique : Red Flag Linux.
– Août 2001 : Le premier ministre français créé l’Agence pour les Technologies de l’Information et de la Communication dans l’Administration (ATICA) qui a notamment pour mission d’encourager l’utilisation de logiciels libres et de standards ouverts.
– Janvier 2002 : Le gouvernement coréen acquière 120 000 copies d’une suite bureautique opensource coréenne.
– Février 2002 : Le parlement allemand s’engage dans l’acquisition de logiciels opensources dont SuSE Linux et OpenLDAP.
– Avril 2002 : Hewlett-Packard annonce la signature d’un contrat de 25 millions de dollars avec l’US Air Force pour lui fournir un super-calculateur utilisant Linux.
– Mai 2002 : IBM annonce la vente de 75 systèmes informatiques à base d’opensource à diverses agences gouvernementales américaines dont le ministère de la défense et le ministère de l’énergie.
– Juin 2002 : le ministère de l’intérieur allemand engage IBM pour installer linux et d’autres programmes opensource dans une large portion de l’infrastructure informatique de ce ministère de manière à améliorer la sécurité en se libérant d’une « monoculture » informatique.