Bohrt man jedoch durch die Marketing-Schicht in die Tiefe und blickt aufs Detail wird schnell klar, dass der aktuelle Stand der Digitalisierung aus vielen isolierten Insellösungen besteht, die Produktionsanlage von Hersteller X kann mit einer ähnlichen Anlage von Hersteller Y nicht kommunizieren auch wenn diese per Netzwerk verbunden sind. Von einer echten Vernetzung aller Komponenten und einer Autonomie der Assets sind wir noch weit entfernt. Aber woran liegt das? An der Technologie kann es nicht liegen, sowohl die Hardware als auch die Software gibt es seit Jahren wenn nicht gar Jahrzehnten. Die Netzwerktechnologien als auch die Kommunikationsprotokolle sind etabliert und standardisiert. Was jedoch fehlt ist die gemeinsame einheitliche maschinenlesbare (Daten-)Sprache. Da jeder Hersteller eigene proprietäre Daten vorhält und damit seine Produkte beschreibt, ist bei herstellerübergreifender Kommunikation von Geräten immer eine Datentransformation bzw. ein Mapping nötig.
Nach der ersten Euphorie der Industrie über die neuen Möglichkeiten der Digitalisierung wie prädiktiv Maintenance, Produktion der „Losgröße 1“ etc. weicht die Goldgräberstimmung langsam einer Erkenntnis: keine Digitalisierung ohne Standardisierung der Daten. Man stelle sich nur mal vor das Bluetooth-Protokoll wäre nicht genormt. Erst wenn jeder Hersteller das gleiche Datenmodell mit demselben Content an der Schnittstelle bereitstellt, kann es eine einfache Vernetzung und den nötigen Datenaustausch geben. Nur so wird die Digitalisierung Fahrt aufnehmen und die erhofften Vorteile bringen.
An diesem (Start-)Punkt der Digitalisierung müssen zwei entscheidende Herausforderungen gemeistert werden. Zum einen muss jedes Asset einen global eineindeutigen Identifier bekommen, zum anderen müssen alle Assets in einem einheitlichen maschinenlesbaren Datenstandard beschrieben werden.