Een decennium na de uitvinding van het World Wide Web promoot Tim Berners-Lee het “Semantic Web”. Het internet is tot nu toe een opslagplaats van digitale inhoud. Het heeft een rudimentair voorraadsysteem en zeer ruwe datalocatiediensten. Als een triest resultaat is de meeste inhoud onzichtbaar en ontoegankelijk. Bovendien manipuleert het internet tekenreeksen, geen logische of semantische proposities. Met andere woorden, het Net vergelijkt waarden maar kent de betekenis van de waarden die het aldus manipuleert niet. Het is niet in staat snaren te interpreteren, nieuwe feiten af ​​te leiden, af te leiden, te veroorzaken, af te leiden of anderszins te begrijpen wat het doet. Kortom, het verstaat geen taal. Voer een dubbelzinnige term uit bij elke zoekmachine en deze tekortkomingen worden pijnlijk duidelijk. Dit gebrek aan begrip van de semantische grondslagen van de grondstof (data, informatie) verhindert dat applicaties en databases bronnen delen en elkaar voeden. Het internet is discreet, niet continu. Het lijkt op een archipel, met gebruikers die van eiland naar eiland springen in een hectische zoektocht naar relevantie.

 

Zelfs visionairen als Berners-Lee overwegen geen “intelligent web”. Ze stellen simpelweg voor om gebruikers, makers van inhoud en webontwikkelaars beschrijvende metatags (“naam van hotel”) toe te wijzen aan velden of aan tekenreeksen (“Hilton”). Deze metatags (gerangschikt in semantische en relationele “ontologieën” – lijsten van metatags, hun betekenis en hoe ze zich tot elkaar verhouden) zullen door verschillende toepassingen worden gelezen en stellen hen in staat de bijbehorende tekenreeksen correct te verwerken (plaats het woord ” Hilton “in uw adresboek onder” hotels “). Dit zal het ophalen van informatie efficiënter en betrouwbaarder maken en de opgehaalde informatie zal ongetwijfeld relevanter en vatbaarder zijn voor verwerking op een hoger niveau (statistieken, de ontwikkeling van heuristische regels, enz.). De verschuiving is van HTML (waarvan de tags betrekking hebben op visuele verschijningen en inhoudsindexering) naar talen zoals de DARPA Agent Markup Language, OIL (Ontology Inference Layer of Ontology Interchange Language) of zelfs XML (waarvan de tags zich bezighouden met inhoudstaxonomie, documentstructuur en semantiek). Dit zou het internet dichter bij de klassieke bibliotheekkaartencatalogus brengen.

Zelfs in de huidige, pre-semantische, hyperlinkafhankelijke fase herinnert het internet aan Richard Dawkins ‘baanbrekende werk “The Selfish Gene” (OUP, 1976). Dit zou dubbel zo zijn voor het semantische web.

Dawkins stelde voor om het principe van natuurlijke selectie te generaliseren naar een overlevingswet van de stal. “Een stabiel ding is een verzameling atomen die permanent genoeg of algemeen genoeg is om een ​​naam te verdienen”. Vervolgens beschreef hij de opkomst van “replicators” – moleculen die kopieën van zichzelf creëerden. De replicators die de strijd om schaarse grondstoffen overleefden, werden gekenmerkt door een lange levensduur, vruchtbaarheid en kopieergetrouwheid. Replicators (nu bekend als “genen”) construeerden “overlevingsmachines” (organismen) om ze te beschermen tegen de grillen van een steeds hardere omgeving.