Jim Gray, rapporte William Grosso, estime qu’un point d’équilibre économique existe pour la conception de toute architecture informatique distribuée : 10 000 instructions par octet de trafic réseau. Au-délà, il est opportun de distribuer les traitements. En deça de 10 000 instructions par octet, le coût réseau est trop important, et il est économiquement préférable de centraliser les traitements. William Grosso se demande si cela n’implique pas que le modèle économique du Web Sémantique n’est pas viable : le coût du transport des données (RDF…) à aggréger en vue de traitements serait prohibitif et ne pourrait être supporté que par de grosses infrastructures centralisatrices (telles que Google ?) auxquelles les utilisateurs finaux accèderaient plutôt que d’effectuer eux-même une agrégation « locale » et des traitements distribués.
A cela, les commentateurs répondent ceci :
- les applications informatiques, dans le Web Sémantique, n’auront pas forcément besoin de volumes énormes de données : pas besoin de tout savoir sur tout pour pouvoir effectuer des raisonnements
- les données peuvent être agrégées selon des genres de chaînes alimentaires : plutôt que d’agréger directement toute les données utiles, on peut n’aggréger que des données résultats de digestions déjà effectuées par d’autres aggrégateurs (travailler sur de la matière moins brute, déjà transformée)
- le Web Sémantique n’impose pas ni n’interdit de mode d’agrégation (centralisé ou distribué), il donne simplement une normalisation du modèle de données général (celui des triplets RDF)
La sagesse émerge…