ArticlePDF Available

Abstract

Die Digitalisierung im Engineering verspricht automatisierte Arbeitsabläufe, höhere Geschwindigkeiten und sinkende Kosten bei der Entwicklung von Automatisierungslösungen. Voraussetzung hierfür ist nicht nur die Modularisierung auf Basis einer strukturierten Beschreibungssprache, sondern auch eine einheitliche, aufeinander aufbauende Modellierung, welche einen automatisierbaren Datenaustausch über die Systemgrenzen hinweg ermöglicht. Um eine breite Anwendung zu erzielen, sollte die zugrundeliegende Ontologie auf bestehenden Normen und Standards aufbauen und in Open-Source-Anwendungen zur Verfügung stehen. Für die kollaborative und konsistente Entwicklung einer solchen Ontologie bedarf es eines strukturierten, methodischen Vorgehens sowie einer damit verbundenen Modellierungslandkarte, welche als Orientierung zur standardisierten, arbeitsteiligen Modellierung dient. Ein möglicher Ansatz für das benötigte Vorgehensmodell sowie der zugehörigen Landkarte wird im Rahmen dieses Beitrags vorgestellt und unter Verwendung von AutomationML validiert. Der vorgestellte Ansatz soll eine mögliche Richtung aufzeigen und weitere prozessgesteuerte Modellierungsbestrebungen von Ontologien anregen.
Modellierung
61
https://doi.org/10.30844/I40M_19-1_S61-66
Die Herausforderungen bei der Einführung von
roboterbasierten Automatisierungslösungen
resultieren zum einen aus deren hohen Kom-
plexität, zum anderen aus den steigenden An-
forderungen an die Verfügbarkeit, Qualität und
Sicherheit von industriellen Anwendungen. Eine
erfolgreiche Realisierung von Roboteranwen-
dungen erfordert bisher ein tiefes Fach- und
umfangreiches Erfahrungswissen. Dies stellt ins-
besondere für kleine und mittlere Unternehmen
(KMU) eine große Hürde dar. Aufgrund der gro-
ßen Engineering-Aufwände und der hohen Kos-
ten für Systemintegratoren können aktuell viele
roboterbasierte Automatisierungslösungen nur
bedingt wirtschaftlich dargestellt werden. [1]
Der Lösungsansatz des vom Bundesministerium
für Wirtschaft und Energie (BMWi) geförderten
Forschungsprojekts ROBOTOP besteht darin, be-
währte Automatisierungslösungen, sogenannte
Best Practices, digital und wiederverwendbar zur
Verfügung zu stellen. Mithilfe eines nutzerzent-
rierten, webbasierten 3D-Konfigurators wird der
Anwender, ausgehend von dessen Anforderun-
gen, durch die Konfiguration einer roboterbasier-
ten Automatisierungslösung geführt. Über eine
Hintergrundlogik werden sämtliche benötigten
technischen Komponenten ausgewählt. Diese
können dann von Systemintegratoren oder End-
nutzern in einer standardisierten Form, z. B. dem
neutralen, XML-basierten Daten-
format AutomationML (AML),
heruntergeladen und in andere
Softwaretools zur weiteren Ver-
wendung eingebunden werden.
Somit können Engineering-Auf-
wände reduziert und die Kosten
für roboterbasierte Automatisie-
rungslösungen gesenkt werden.
[2, 3]
Um dieses Ziel zu erreichen, müssen vorhandene
Engineering-Daten aufbereitet und modulari-
siert werden. Hierfür sind zunächst bestehende
Automatisierungslösungen, die Best Practices, zu
identifizieren und standardisiert zu beschreiben.
Voraussetzung hierfür ist eine klare, systemati-
sche Modellierung auf Basis einer einheitlichen
Semantik. Ontologien bilden die Basis für die
Formalisierung der Semantik und lassen sich
gemeinhin als eine explizite, formalsprachliche
Spezifikation einer Konzeptualisierung (Begriffs-
bildung) auffassen [4]. Dadurch ist es möglich,
komplexe Zusammenhänge in maschinenles-
barer und -interpretierbarer Form zu beschrei-
ben. Erst dann sind eine einfache Strukturierung,
Standardisierung und somit Wiederverwendung
von Teillösungen und damit eine skalierbare Kon-
figuration von neuen Automatisierungslösungen
realisierbar. Einzelne Firmen oder Abteilungen
Digitalisierung im Engineering
Ein Ansatz für ein Vorgehensmodell zur durchgehenden, arbeits-
teiligen Modellierung am Beispiel von AutomationML
Eike Schäffer, Universität Erlangen-Nürnberg, Lars Penczek, Universität Bochum, Andreas Mayr,
Jupiter Bakakeu, Universität Erlangen-Nürnberg, Jörg Franke, Universität Erlangen-Nürnberg und
Bernd Kuhlenkötter, Universität Bochum
Die Digitalisierung im Engineering verspricht automatisierte Arbeitsabläufe, hö-
here Geschwindigkeiten und sinkende Kosten bei der Entwicklung von Automa-
tisierungslösungen. Voraussetzung hierfür ist nicht nur die Modularisierung auf
Basis einer strukturierten Beschreibungssprache, sondern auch eine einheitliche,
aufeinander aufbauende Modellierung, welche einen automatisierbaren Daten-
austausch über die Systemgrenzen hinweg ermöglicht. Um eine breite Anwendung
zu erzielen, sollte die zugrundeliegende Ontologie auf bestehenden Normen und
Standards aufbauen und in Open-Source-Anwendungen zur Verfügung stehen.
Für die kollaborative und konsistente Entwicklung einer solchen Ontologie bedarf
es eines strukturierten, methodischen Vorgehens sowie einer damit verbundenen
Modellierungslandkarte, welche als Orientierung zur standardisierten, arbeitsteili-
gen Modellierung dient. Ein möglicher Ansatz für das benötigte Vorgehensmodell
sowie der zugehörigen Landkarte wird im Rahmen dieses Beitrags vorgestellt und
unter Verwendung von AutomationML validiert. Der vorgestellte Ansatz soll eine
mögliche Richtung aufzeigen und weitere prozessgesteuerte Modellierungsbestre-
bungen von Ontologien anregen.
Digitization in Engineering - A Procedure
for the Continuous, Work-sharing Modelling
Using the Example of AutomationML
Digitization in engineering promises automated
workflows, higher speed and lower costs in the
development of automation solutions. The pre-
requisite for this is not only modularization based
on a structured description language, but also
uniform, interdependent modeling that ensures
automated data exchange across system bound-
aries. In order to achieve a broad application, the
underlying ontology should be based on existing
norms and standards and be available in open
source applications. However, the collaborative
and consistent development of such an ontolo-
gy requires a structured, methodical procedure
and an associated modelling map that serves
as an orientation for standardized, work-sharing
modelling. A possible approach for the required
procedure model and the related map will be
presented in this article and validated using Auto-
mationML. The presented approach should point
out a possible direction and stimulate further pro-
cess-controlled modelling efforts of ontologies.
Keywords:
continuous engineering, AutomationML, mod-
ularization, standardization, machine interpreta-
ble, modelling methods
Eike Schäffer, M. Sc., M. Sc. arbeitet als
wissenschaftlicher Mitarbeiter am Lehr-
stuhl für Fertigungsautomatisierung und
Produktionssystematik der Friedrich-
Alexander-Universität Erlangen-Nürnberg.
Lars Niklas Penczek, M. Sc. arbeitet als wis-
senschaftlicher Mitarbeiter am Lehrstuhl
für Produktionssysteme der Ruhr-Univer-
sität Bochum.
Andreas Mayr, M. Sc., M. Sc. arbeitet als
wissenschaftlicher Mitarbeiter am Lehr-
stuhl für Fertigungsautomatisierung und
Produktionssystematik der Friedrich-
Alexander-Universität Erlangen-Nürnberg.
Jupiter Bakakeu, M. Sc. arbeitet als wissen-
schaftlicher Mitarbeiter am Lehrstuhl für
Fertigungsautomatisierung und Produk-
tionssystematik der Friedrich-Alexan-
der-Universität Erlangen-Nürnberg.
Prof. Dr.-Ing. Jörg Franke leitet den Lehr-
stuhl für Fertigungsautomatisierung und
Produktionssystematik der Friedrich-
Alexander-Universität Erlangen-Nürnberg.
Prof. Dr.-Ing. Bernd Kuhlenkötter leitet
den Lehrstuhl für Produktionssysteme der
Ruhr-Universität Bochum.
Eike.Schaeffer@faps.fau.de
www.faps.fau.de
Modellierung
62 Industrie 4.0 Management 35 (2019) 1
verfügen bereits über Insellösungen, z. B. auf
Basis von Excel-Tools oder PLM-Systemen, doch
existiert für die Modellierung bislang keine her-
stellerübergreifende maschinenlesbare Basis-On-
tologie. Dies macht den Austausch über die
Systemgrenzen hinweg sehr aufwändig, da zwi-
schen allen Tools Übersetzer geschrieben werden
müssen. [5, 6]
Herausforderungen eines durchgängi-
gen Engineerings
Neben der horizontalen und vertikalen Integrati-
on stellt das durchgängige Engineering eine der
wesentlichen Charakteristika von Industrie 4.0
dar. Durchgängiges Engineering zeichnet sich
dadurch aus, dass das Erzeugnis eines Enginee-
ring-Arbeitsschrittes möglichst verlustfrei und
mit geringem Aufwand wiederverwendbar ist.
Für die weitere Verwendung sollen möglichst
wenig redundante Arbeitsschritte notwendig
sein. [7]
Voraussetzung hierfür sind die Nutzung eines
wertschöpfungsübergreifenden Informations-
modells, die Erstellung von Werkzeugketten,
die Verwendung eines gemeinsamen Vorge-
hensmodells sowie die Verwendung einer ein-
heitlichen Syntax und Semantik [7]. Aufgrund
der allgemein hohen Anforderungen in der
Anlagenplanung, herstellerspezifischer Interes-
sen und der bisweilen eingeschränkten Unter-
stützung von Seiten des Managements wurden
solche Ansätze bisher jedoch wenig verfolgt [8].
Der Datenaustausch erfolgt derzeit über diver-
se Datenformate, wie beispielsweise CAx-Daten
zur Beschreibung von Geometrien sowie .pdf-,
.docx- oder .pptx-Dateien zur technischen Be-
schreibung und Visualisierung. Je nach Branche
und Anwendungsfall werden unterschiedliche
Datenformate verwendet, wobei gerade die
Letztgenannten primär der visuellen Aufberei-
tung von Inhalten für Menschen dienen. Diese
Inhalte können jedoch nur bedingt von Pro-
grammen interpretiert werden, wodurch der
automatisierte Datenaustausch erschwert wird.
Weitere Probleme ergeben sich bei der nicht
einheitlich verwendeten Semantik und Struk-
tur innerhalb dieser Dokumente. Die Bezeich-
nung bzw. Namensgebung von und innerhalb
der Dokumente wird häufig der Kreativität des
Einzelnen überlassen, was die Lesbarkeit für
fremde Anwender erheblich erschwert. Daher
müssen Mechanismen für eine einheitliche Mo-
dellierung geschaffen werden.
In der Forschung existieren bereits vereinzelt
Ansätze, welche zeigen, dass die Modell-zu-Mo-
dell-Transformation im Engineering unter Ein-
satz einer formalen Semantik, die das Wissen
auf Basis maschinell interpretierbarer Ontolo-
gien abbildet, exemplarisch funktioniert [9].
Anhand von Domänen-Ontologien konnten
beispielsweise Modelle semantisch verarbeitet
und daraus ein Informationsmodell zur Codege-
nerierung für Robotersysteme erstellt werden
[6]. Die Herausforderung der arbeitsteiligen und
einheitlichen Erstellung von Ontologien wur-
den jedoch kaum betrachtet.
Standards für maschinenlesbare und
-interpretierbare Dokumente
Um Dokumente automatisiert verarbeiten zu
können, bedarf es standardisierter, maschinen-
lesbarer und -interpretierbarer Datenformate
wie z. B. die Extensible Markup Language (XML)
oder die Engineering-spezifische Erweiterung
AML. Hieraus lassen sich dann wiederum die für
den Menschen verständlichen Darstellungsfor-
men, z. B. mittels Templates, ableiten. Um die
erweiterte Funktionalität von solchen Formaten
aufzuzeigen, werden exemplarisch einige we-
sentliche Standards des World Wide Web Con-
sortiums (W3C) vorgestellt. Die Struktur dieser
Elemente lässt sich dem sogenannten Semantic
Web Layer Cake [10] entnehmen.
Namenshierarchien und Tags
: Die Auszeich-
nungssprache XML ist konform mit der Stan-
dard Generalized Markup Language (SGML;
ISO 8879:1986) und wird vom W3C empfohlen.
Ursprünglich wurde XML als Datenaustausch-
format für das Internet entwickelt, wird aber
mittlerweile als universelles und software-neu-
trales Datenformat verwendet. In XML lassen
sich unter anderem hierarchische Namensstruk-
turen anlegen, diese klassifizieren und mit Inhalt
versehen [11].
Bild 1: Die drei Stufen hin zur
durchgehenden, arbeitsteili-
gen Modellierung mit Stufe
3 als Handlungsbedarf.
Modellierung
63
https://doi.org/10.30844/I40M_19-1_S61-66
Beziehungen
: Ein weiterer wichtiger Aspekt bei
der Modellierung sind Beziehungen zwischen
Elementen. Das Resource Description Frame-
work (RDF) ist ein Datenmodell, welches sich
aus sogenannten Tripeln, bestehend aus Subjekt
(S), Prädikat (P) und Objekt (O), zusammensetzt.
RDF ermöglicht dadurch die explizite Modellie-
rung von Beziehungen, z. B. „KR 500 (S) ist ein (P)
Roboter (O)“. Die Menge an Tripeln bildet einen
Graphen, worüber RDF auch für den Menschen
intuitiv verständlich dargestellt werden kann. Zur
Interpretation von in RDF formulierten Aussagen
bedarf es eines RDF-Schemas (RDFS), welches
ein gemeinsames Vokabular zur Verfügung stellt.
Mittels RDFS lassen sich bereits einfache Ontolo-
gien formalisieren. [12]
Logische Bewertbarkeit und Konsistenzprüfung
:
Die Web Ontology Language (OWL) ermöglicht
die Angabe zusätzlicher Einschränkungen, wie
z. B. Kardinalität, Werteinschränkungen oder Ei-
genschaften wie Transitivität. OWL basiert auf
einer Beschreibungslogik und bringt somit Argu-
mentationskraft und logische Bewertbarkeit in
semantische Modelle ein. Mittels OWL ist es mög-
lich mehrere zueinander konsistente Dokumente
oder Tools abzuleiten, wie z. B. Excel-Arbeitsmap-
pen oder Web-Front-Ends. [13]
AutomationML als Datenaustauschfor-
mat für das Engineering
Um im Engineering-Prozess den Datenaustausch
der vielen unterschiedlichen Tools zu vereinheit-
lichen wurde 2006 das neutrale, XML-basierte
Datenformat AML entwickelt [14]. AML spei-
chert technische Informationen nach dem ob-
jektorientierten Paradigma und ermöglicht die
Modellierung von realen Anlagenkomponenten
als Datenobjekte. In den Datenobjekten werden
verschiedene Informationen über die Topologie,
Geometrie, Kinematik und Logik sowie das Ver-
halten und die Steuerung von Anlagen berück-
sichtigt. AML kombiniert bestehende Industrie-
datenformate, die für die Speicherung und den
Austausch verschiedener Aspekte von techni-
schen Informationen ausgelegt sind. Kernstück
von AML ist das Datenformat CAEX, das die Da-
tenobjekte sortiert und damit eine hierarchische
Struktur aufbaut. Durch diese Struktur hat AML
eine inhärent verteilte Dokumentenarchitektur.
[8] Die Architektur von AML setzt sich aus den
fünf nachfolgenden Bausteinen zusammen:
•
AttributeType:
Definition von allen Attributen
•
RoleClass:
Repräsentation domänenspezifi-
scher Konzepte
•
InterfaceClass:
Abbilden von Schnittstellen
zwischen Objekten
•
SystemUnitClass:
Modulkatalog aller Objekte
in AML
• InstanceHierarchy: Instanziierung von Objek-
ten, welche mittels der anderen Bausteine
definiert wurden
Der Vorteil eines einheitlichen Datenmodells
liegt u. a. in der systemweiten Portabilität der In-
formationen und an dem geringen Aufwand zur
Einbindung der Informationen aufgrund einer
minimalen Anzahl an Konvertierungen [8]. Dabei
müssen alle in einem AML-Dokument angelegten
Bezeichnungen mit den vorher definierten Kom-
ponenten und Attributen übereinstimmen. Vor-
und nachgelagerte Engineering-Tools, wie z. B.
Datenbanken, CAx-Daten oder Konfigurations-
informationen, sind entsprechend anzupassen.
Da dem Anwender in AML die Möglichkeiten zur
Strukturierung und Benennung gänzlich offen
gehalten sind, ist ein einheitliches Vorgehen bei
der Modellierung von besonderer Bedeutung.
Der Aufbau der Datenobjekte in AML ist daher
immer im ganzheitlichen Kontext festzulegen.
Die drei Stufen hin zur durchgehen-
den, arbeitsteiligen Modellierung
Um die Notwendigkeit eines Vorgehensmodells
zur arbeitsteiligen Entwicklung einer Ontologie
aufzuzeigen und bestehende Basisstandards
wie AML einzuordnen, wurde der Weg hin zur
durchgehenden, konsistenten Modellierung in
drei Stufen unterteilt (siehe Bild 1). Die drei Stu-
fen stellen in abstrahierter Form die historische
Entwicklung der technologischen Befähiger dar.
Ähnlich einer Treppe können die höheren Stufen
erst durch Betreten der unteren Stufen erreicht
werden.
Stufe 1 - Kommunikationsstandards zwischen
und in Computern:
Die erste Stufe umfasst die
etablierten Kommunikationsstandards zwischen
bzw. in Computern. Als Basis für die Datenkom-
munikation in offenen Systemen hat sich bei-
spielsweise mit der ISO 7498 das OSI-Modell
(Open Systems Interconnection) etabliert. Cha-
rakteristisch ist dessen hierarchische Strukturie-
rung in mehrere logische Schichten, welche eine
arbeitsteilige Entwicklung der jeweiligen Dienste
ermöglicht. Das Modell dient bis heute als Grund-
lage zahlreicher Spezifikationen und hat damit
zur Standardisierung sowie arbeitsteiligen Ent-
wicklung von Hardware, Treibern und Protokol-
len beigetragen.
Stufe 2 - Maschinenlesbare und -interpretierbare
Dokumente:
Die nächste logische Stufe ist die
Einführung einer einheitlichen Semantik auf Ba-
sis formaler Beschreibungssprachen, um system-
neutrale, maschinenlesbare und -interpretierba-
re Dokumente zu ermöglichen. Zu diesem Zweck
wurden bereits viele aufeinander aufbauende
Modellierung
64 Industrie 4.0 Management 35 (2019) 1
Beschreibungsstandards geschaffen, etwa die
des Semantic Web Layer Cakes oder AML (siehe
Bild 1, Stufe 2). Die Beschreibungsstandards las-
sen dem Entwickler jedoch sehr viel Freiheit bei
der Modellierung, weshalb ein standardisierter
Aufbau von Modellen allein damit nur bedingt
möglich bzw. gewährleistet wird.
Stufe 3 - Standards und Modulpool (format-
und toolunabhängig):
Um Modelle arbeits-
teilig und konsistent aufzubauen, bedarf es
branchenübergreifender Standards sowie ei-
nes einheitlichen Vorgehensmodells. Damit
muss es möglich sein, alles, von der kleinsten
SI-Einheit bis hin zur komplexen Roboterzelle,
in einer konsistenten Abfolge zu beschreiben.
Das erforderliche Vorgehensmodell unterteilt
sich wiederum in mehrere Ebenen bzw. Layer
(L0 – LX), die miteinander verknüpft sind. Da
die dritte Stufe als solches den Handlungs-
bedarf darstellt, wird das zugrundeliegende
Vorgehensmodell sowie die zugehörige Mo-
dellierungslandkarte nachfolgend im Detail
erläutert.
Vorgehensmodell für die einheitliche,
arbeitsteilige Modellierung
Wie bereits erwähnt lassen die Beschreibungsstan-
dards dem Entwickler sehr viel Freiheit, wodurch
bei der Modellierung ein und desselben Szenarios
durch verschiedene Personen unterschiedliche
Ontologien entstehen. Um die Modellierung zu
vereinheitlichen, wird nachfolgend ein Ansatz für
ein mögliches, strukturiertes Vorgehensmodell auf
Basis einer eigens erstellten Modellierungsland-
karte (Bild 2) beschrieben. Mit Ausnahme der Na-
menskonvention und des Kontexts werden immer
nur die Elemente aus den darunterliegenden Ebe-
nen bzw. Layern verwendet:
Festlegen eines konkreten Use Cases:
Ausge-
hend von einem konkreten Use Case werden
die Anforderungen abgeleitet und festgelegt,
welche Elemente durchgängig beschrieben
werden sollen.
Festlegung einer Namenskonvention (L0):
Die
Grundlage aller Modellierungsebenen stellt
eine einheitliche Namenskonvention dar. Die-
se legt unter anderem fest, in welcher Sprache
(z. B. deutsch, englisch), welches ID-Schema,
in welcher Schreibweise (z. B. groß, klein), mit
welchem Zeichensatz (z. B. ASCII) und unter
Berücksichtigung welcher weiterer Regeln Be-
griffe angelegt werden dürfen.
Sammeln von Standard-Konzepten und Nor-
men (L1):
Um personen- bzw. unternehmens-
neutrale Begrifflichkeiten festzulegen, werden
Modellierungsstandards gesammelt. Hierin
steckt das kondensierte Wissen von Domä-
nenexperten und -branchen. Standards wie
z. B. No. 20 (UNECE), VDI 2860 oder IEC 81346
dienen als Referenz und zum Nachweis einer
standardkonformen Modellierung. Der Verweis
auf diese sollte in der nächst höheren Ebene im
Wörterbuch hinterlegt werden, um die Qualität
der Modelle auch im Nachgang nachvollziehen
zu können. Generell wird die Verwendung des
eCl@ss-Standards empfohlen.
Verdichten und Aufbereiten der Standard-Kon-
zepte und Normen (L2):
Die für den Modellie-
rungsprozess möglichen Attribute, Begriffe für
Objekte, Datentypen und SI-Einheiten werden
in Form maschinenlesbarer Wörterbüchern
kondensiert. In einzelnen Sub-Wörterbücher
können dann bestimmte Kategorien bzw. Kon-
zepte gesammelt werden. Übersetzungen von
globalen Standards in Unternehmensstandards,
fachdisziplin-spezifische Namensgebungen
oder verschiedenen Sprachen können hier
ebenso hinterlegt werden.
Anlegen des Kontextes (L3):
Ein Kontext er-
möglicht es, Attribute, Objekte oder Klassifika-
tionen später je nach Benutzerrolle zu filtern.
Insbesondere die Klassifikation ist sehr stark
vom Kontext bzw. der jeweiligen Sicht-
weise abhängig. So kann die Klassifikation
von ein und denselben Objekten aus Sicht
des Marketings, der Entwicklung oder der
Instandhaltung sehr unterschiedlich sein,
da für jede Benutzerrolle unterschiedliche
Informationen wichtiger bzw. überhaupt
relevant sind. Um das Dilemma zu vermei-
den, vorab alle möglichen Kontexte bzw.
Nutzerrollen kennen zu müssen, kann
der Kontext mittels Hashtags dynamisch
erweitert werden. So wird im Zweifelsfall
einfach diejenige Klassifikation ausge-
wählt, welche hinsichtlich der Hashtags
die höchste Übereinstimmung hat.
Bild 2: Modellierungs-
landkarte (Stufe 3) als
Orientierung für die stan-
dardisierte, arbeitsteilige
Modellierung von Onto-
logien.
Modellierung
65
https://doi.org/10.30844/I40M_19-1_S61-66
Bestimmung von Klassifikationen zur Strukturie-
rung (L4):
Um Struktur zu schaffen, können At-
tribute oder andere höhere Konzepte wie z. B.
Objekte klassifiziert werden, z. B. in Ober- und
Unterbegriffe. Hierbei dürfen nur Begriffe aus
den Wörterbüchern verwendet werden. Da
Klassifikationen kontextabhängig sind, ist der
Kontext in Form von Hashtags aus dem Objekt-
pool, z. B. #Maschinenbau, #Robotik, #Grobpla-
nung, mit anzugeben. Der Kontext kann durch
eine beliebige Anzahl an Hashtags konkreti-
siert werden und dient später der Auswahl ge-
eigneter Klassifikationen sowie der Bewertung
von deren Relevanz für eine bestimmte Aufga-
be. Das Vorgehen ermöglicht es, beliebig viele
Klassifikationen anzulegen bzw. zu verwen-
den. Hierdurch ist es unter anderem möglich,
Front-Ends für verschiedenste Benutzerrollen
automatisiert auszuleiten, wobei jeder Benut-
zerrolle nur die relevantesten Informationen
angezeigt werden.
Anlegen von Attributen (L5):
Attribute setzten
sich aus der Konstellation „Begriffsattribut (z. B.
Gewicht) + Datentyp (z. B. double) + SI-Einheit
(z. B. kg)“ zusammen. Die jeweiligen Elemente
sind dem darunterliegenden Wörterbuch zu
entnehmen. Sollten Elemente fehlen müssen
diese von Ebene L1 ausgehend neu angelegt
werden. Diese Vorgehensweise stellt sicher, dass
für gleiche Attribute wie z. B. Gewicht bei jedem
höheren Element exakt dieselbe Begrifflichkeit
sowie der gleiche Datentyp und die gleiche
SI-Einheit verwendet werden. Die Attribute kön-
nen damit eindeutig anhand einer ID interpre-
tiert und müssen nicht unbenannt werden, z. B.
von „G“ in „Gew“. Somit müssen sich Modellierer
auf einer höheren Ebene keine Gedanken über
das Anlegen von standardisierten Attributen
bzw. die Wahl der Begrifflichkeiten machen.
Anlegen von Objekten (L6):
Durch die Aggre-
gation von Attributen (0-n) und Objekten (0-n)
werden neue Objekte angelegt. Um Objekte
eindeutig zuordnen zu können, wird diesen
analog zu den Klassifikationen und Attribu-
ten ein Kontext zugeordnet. Objekte verfügen
über verschiedene Attribute, etwa Gewicht
oder Preis, sowie gegebenen falls auch über
andere Objekte. Die Begrifflichkeiten und Attri-
bute dürfen wie zuvor nur den darunterliegen-
den Elementen entnommen werden.
Überführung in Basis-Module (L7):
Für spezielle
Anwendungsfälle wie z. B. Schnittstellen oder
(Roboter-)Komponenten werden Objekte zu
konkreteren Modulen bzw. Objekten aggre-
giert. Hierbei dürfen wieder nur Objekte und
Attribute aus den darunterliegenden Ebenen
verwendet werden.
Umsetzung (L8)
: Im vorerst letzten Layer werden
die bisher abstrakten Lösungen, z. B. Schemata
mit abstrakten Robotern, in Form von konkreten
Instanzen, z. B. einer realen Roboterzelle inklusive
der Seriennummer der Einzelteile, implementiert.
Eine kontinuierliche anwendungsbezogene Wei-
terentwicklung ist durch zusätzliche Use Cases
möglich. Dabei werden die Elemente des neuen
Use Cases zunächst gemäß eines Top-Down-An-
satzes anhand von Basis-Modulen erstellt. Falls
Basiselemente fehlen, ist das Modell im Sinne
eines Bottom-Up-Ansatzes von Ebene L1 ausge-
hend zu erweitern.
Einmal erstellte Ontologien können gespei-
chert und in Form von Bibliotheken in verschie-
dene Modellierungstools importiert werden.
Die vorgestellte Vorgehensweise und damit
einhergehende Modellierungslandkarte kann
also dazu dienen, unternehmensübergreifen-
de Open-Source-Ontologien zu erstellen, wel-
che den Aufbau von semantisch konsistenten
Modellen bzw. Bibliotheken ermöglichen.
Validierung mittels AutomationML-Im-
plementierung
Das hier beschriebene Vorgehensmodell für eine
standardisierte, arbeitsteilige Modellierung von
Ontologien wurde innerhalb des BMWi-Projekts
ROBOTOP beim Anlegen einer einheitlichen Be-
schreibung von Roboterzellen im Datenformat
AML validiert. Hierbei diente das in Bild 2 be-
schriebene Landkartenmodell als Orientierung.
Nach dem Festlegen der Namenskonventi-
on (L0) wurden zunächst die Begrifflichkei-
ten durch den eCl@ss Standard definiert (L1).
Diese Begriffe wurden anschließend in einem
Wörterbuch zusammengefasst (L2), welches
als Grundlage für alle weiteren Benennungen
der Objekte und Attribute im Modell dient. Es
folgte das Anlegen von Kontexten (L3) und
Klassifikationen (L4).
Die Attribute wurden im Rahmen der Attribute-
TypeLib definiert (L5), woraus diese anschließend
per Drag-and-Drop bei allen Objekten verwendet
werden können. Des Weiteren wurden den Attri-
buten Datentypen, Einheiten und ein Kontext
zugeordnet. Die Einheiten wurden in der Ebene
L1 gemäß der No. 20 (UNECE) [15] definiert. Die
Kontexte wurden bereits in Ebene L3 festgelegt
und ermöglichen es, einen semantischen Zusam-
menhang zwischen den betreffenden Objekten
und Attributen herzustellen.
Nach den Attributen wurden auch die Objekte
festgelegt (L6). Zu den Objekten zählen alle Kom-
Literatur
[1] Eisele, R.: Konzeption und
Wirtschaftlichkeit rechnerin-
tegrierter Planungssysteme,
Zugl.: Erlangen-Nürnberg,
Univ., Diss., 1990. München
1990.
[2] Schäffer, E.; Bartelt, M.; Pow-
nuk, T.; Schulz, J.-P.; Kuhlenköt-
ter, B.; Franke, J.: Configurators
as the basis for the transfer of
knowledge and standardized
communication in the con-
text of robotics. In: Procedia
CIRP 72 (2018), S. 310–15.
[3] Schäffer, E.; Pownuk, T.; Wal-
berer, J.; Fischer, A.; Schulz, J.-
P.; Kleinschnitz, M.; Bartelt, M.;
Kuhlenkötter, B.; Franke, J.: Sys-
tem architecture and concep-
tion of a standardized robot
configurator based on micro-
services. In: Schüppstuhl, T.;
Tracht, K.; Franke, J. (Hrsg.): Ta-
gungsband des 3. Kongresses
Montage Handhabung Indus-
trieroboter. Berlin, Heidel
berg 2018.
[4] Gruber, T. R.: A translation ap-
proach to portable ontology
specifications. In: Knowledge
Acquisition 5 (1993) 2, S. 199–
220.
[5] Schäffer, E.; Leibinger, H.;
Stamm, A.; Brossog, M.; Fran-
ke, J.: Configuration based
process and knowledge man-
agement by structuring the
software landscape of global
operating industrial enter-
prises with Microservices. In:
Procedia Manufacturing 24
(2018), S. 86–93.
[6] Hua, Y.; Mende, M.; Hein, B.:
Modulare und Wandlungs-
fähige Robotersysteme.
Modellbasierte Softwareent-
wicklung basierend auf Auto-
mationML und ontologischer
Semantik. In: Industrie 4.0 Ma-
nagement 2017 (2017) 33, S.
33–37.
Modellierung
66 Industrie 4.0 Management 35 (2019) 1
ponente, die auf der ROBTOP-Plattform genutzt
werden, und alle Prozesse, die eine Roboterzelle
ausführen können. Jedem dieser Objekte können
mehrere Attribute, Schnittstellen und Rollen zu-
gewiesen werden.
Die Objekte werden allesamt in der SystemUnit-
ClassLib angelegt, welche quasi einen Modulka-
talog aller Objekte in AML repräsentiert (L7). Die
übergeordnete Struktur der SystemUnitClassLib,
InstanceHiearchy und RoleClassLib wurde ent-
sprechend der Prozess-Produkt-Ressourcen-Me-
thode (PPR-Methode) aufgebaut. Diese Methode
wird in der DIN EN 62714–1 [16] beschrieben und
ist insbesondere für die Strukturierung komple-
xer anlagenplanungstechnischer Daten geeig-
net.
Neben der strukturellen Einordnung der Objekte
sind noch die bereits erwähnten Schnittstellen
und Rollen zu definieren. Eine Rollenklasse re-
präsentiert ein domänenspezifisches Konzept
und wird in der RolleClassLib definiert. Hierbei
wurden auf die in AML vordefinierte Automation
MLBaseRoleClassLib zurückgegriffen. Darüber hi-
naus wurden weitere spezifische Rollen angelegt.
Um nun die Schnittstellen zwischen den Objek-
ten abbilden zu können, wurden diese in der
InterfaceClass definiert. Diese Schnittstellen be-
schreiben abstrahierte Verbindungen, wie z. B.
eine Kommunikationsschnittstelle oder eine Ad-
apterplatte, und wurden nach dem Konzept von
Pimmler und Eppinger [17] angelegt. Dieses Kon-
zept beschreibt ein definiertes Schema, beste-
hend aus den vier Untergruppen „Information“,
„Physics“, „Energy“ und „Material“.
Nachdem die Definition der Attribute, Objek-
te und Schnittstellen in AML abgeschlossen ist,
müssen die Objekte noch zu einer Best-Practice-
Lösung zusammengefügt werden (L8). Dazu
wurden die in der SystemUnitClass definierten
Objekte innerhalb der InstanceHirearchy per
Drag-and-Drop implementiert. Die Grundstruk-
tur ist dabei an den Aufbau der SystemUnitClass
angelehnt und ebenfalls an der PPR-Methode
orientiert.
Zusammenfassung
Um ein durchgängiges und arbeitsteiliges En-
gineering zu ermöglichen, ist neben einer struk-
turierten Beschreibungssprache auch eine ein-
heitliche, aufeinander aufbauende Modellierung
nötig. Voraussetzung hierfür ist eine einheitliche
Semantik auf Basis einer klar definierten Ontolo-
gie. Erst dann sind eine einfache Wiederverwen-
dung und damit eine skalierbare Konfiguration
von neuen Automatisierungslösungen möglich.
Derzeit existiert jedoch keine herstellerübergrei-
fende, maschinenlesbare Basis-Ontologie um
Modelle über die Systemgrenzen hinweg verfüg-
bar zu machen.
Aus diesem Grund wurde im Rahmen dieses
Beitrags eine Vorgehensweise zur durchgängi-
gen und arbeitsteiligen Entwicklung einer On-
tologie beschrieben. Zur Beschreibung dieses
Vorgehens wurde eine Modellierungslandkarte
vorgestellt, welche anhand von mehreren Ebe-
nen bzw. Layern das Vorgehen einer arbeitstei-
ligen Entwicklung von konsistenten Ontologien
ermöglicht. Nach dem Festlegen des Use Cases
werden zunächst eine einheitliche Namenskon-
vention definiert (L0) sowie relevante Modellie-
rungsstandards gesammelt (L1). Auf Basis der
zusammengetragenen Standard-Konzepte und
Normen wird anschließend ein Wörterbuch kon-
densiert (L2). Um eine kontextabhängige Klassifi-
zierung der im Wörterbuch enthaltenen Begriffe
zu ermöglichen, werden Tags erstellt (L3) und die
Begriffe in eine hierarchische Struktur überführt
(L4). Im Anschluss werden Attribute (L5) und Ob-
jekte (L6) angelegt. Diese können daraufhin zu
Basis-Modulen aggregiert werden (L7), welche
wiederum in konkrete Lösungen übergehen kön-
nen (L8).
Die Validierung des Vorgehensmodells erfolgte
anhand der Modellierung verschiedener Robo-
terzellen auf Basis von AML. Wie zuvor beschrie-
ben wurde bei der Benennung und Strukturie-
rung des Modells von vorhandenen Standards
Gebrauch gemacht. Durch die Verwendung der
Modellierungslandkarte konnte innerhalb kür-
zester Zeit eine fundierte, konsistente Ontologie
erstellt werden. Das beschriebene Vorgehens-
modell stellt somit ein herstellerunabhängiges
Vorgehen zur arbeitsteiligen Entwicklung von
Ontologien dar und hat durchaus das Potenzial,
künftig in ein Standardvorgehen für die Modellie-
rung im Engineering überzugehen.
Schlüsselwörter:
Durchgängiges Engineering, AutomationML,
Modularisierung, Standardisierung, maschinen-
interpretierbar, Modellierungsmethoden
Das Forschungs- und Entwicklungsprojekt ROBO-
TOP wird vom Bundesministerium für Wirtschaft
und Energie (BMWi) gefördert. Es ist Teil des Tech-
nologieprogramms „PAICE Digitale Technologien
für die Wirtschaft“ und wird vom DLR-Projektträger
„Informationstechnologien / Elektromobilität“ aus
Köln geleitet.
[7] VDI/VDE-Gesellschaft Mess-
und Automatisierungstech-
nik: Statusreport: Durchgän-
giges Engineering in Industrie
4.0-Wertschöpfungsketten
2016.
[8] Drath, R.: Datenaustausch
in der Anlagenplanung mit
AutomationML. Integration
von CAEX, PLCopen XML und
COLLADA. Berlin Heidelberg
2010.
[9] Biffl, S.; Sabou, M.: Semantic
Web Technologies for Intel-
ligent Engineering Applica-
tions. Cham 2016.
[10] Bratt, S.: Semantic Web,
and Other Technologies to
Watch. URL: https://www.
w3.org/2007/Talks/0130-sb-
W3CTechSemWeb/#(24).
Abrufdatum 22.11.2018.
[11] Bray, T.; Paoli, J.; C. M., S.-M.;
Maler, E.; Yergeau, F.; Cowan, J.:
Extensible Markup Language
(XML) - Second Edition. Rec-
ommendation 16.08.2006, 2.
Auflage 2006.
[12] Berners-Lee, T.; Hendler, J.;
Lassila, O.: The Semantic Web.
In: Scientific American (2001)
284, S. 34–43.
[13] W3C OWL Working Group:
OWL 2 Web Ontology Lan-
guage. Document Overview
(Second Edition) 2012.
[14] AutomationML e. V: Stan-
dardized data exchange in
the engineering process
of production systems.
URL: https://www.automa-
tionml.org/o.red/uploads/
dateien/1544706233-auto-
mationml.pdf. Abrufdatum
22.11.2018.
[15] United Nations Economic
Commission for Europe (UN-
ECE): Recommendation No.
20. Codes for Units of Measu-
re used in International Trade
2009.
[16] Deutsche Institut für Nor-
mung e. V. (DIN): Daten-
austauschformat für Pla-
nungsdaten industrieller
Automatisierungssysteme
- Automation markup langu-
age. Teil 1: Architektur und
allgemeine Festlegungen DIN
EN 62714-2:2015-11.
[17] Pimmler, T. U.; Eppinger, S.
D.: Integration analysis of
product decompositions. In:
American Society of Mechan-
ical Engineers, Design Engi-
neering Division (Publication)
DE 68 (1994), S. 343–51.
... In general, the path towards continuous, consistent modelling can be divided into three stages, representing the historical development of technology enablers in an abstracted way (Fig. 10). Similar to a staircase, the higher stages can only be reached by completing the lower stages [32]. The first stage comprises the established communication standards between or within computers and is only listed here for the sake of completeness (cf. ...
... Standards and module pool (format-and toolindependent) Fig. 10. Three stages towards the collaborative development of semantically consistent data models with the last one divided into several layers (L) [32] To reach this final stage, a modelling map that enables the development of semantically consistent models in interdisciplinary teams is introduced in [32], consisting of several layers (L) according to Fig. 10. After defining the business case, a uniform naming convention should be defined first (L0) and relevant modelling standards collected (L1). ...
... Standards and module pool (format-and toolindependent) Fig. 10. Three stages towards the collaborative development of semantically consistent data models with the last one divided into several layers (L) [32] To reach this final stage, a modelling map that enables the development of semantically consistent models in interdisciplinary teams is introduced in [32], consisting of several layers (L) according to Fig. 10. After defining the business case, a uniform naming convention should be defined first (L0) and relevant modelling standards collected (L1). ...
Article
Full-text available
Robot-centric automation solutions (RAS) promise greater efficiency and consistent quality in production, relieving workers of physically demanding and dangerous tasks, especially in the times of COVID-19. Nevertheless, due to their relatively high complexity and implementation costs, RAS are only used to a limited extent by small and medium-sized manufacturing companies. As a rule, the high costs of RAS arise from custom engineering efforts, which take up to 70 percent of the acquisition costs. For this reason, it is necessary to optimise the engineering of RAS. However, software tools such as configurators have been used primarily for the individualisation of products, such as automobiles or clothing, based on variants predefined by the manufacturer, and less for the engineering of automation solutions. The development of knowledge-based systems, in particular knowledge-based engineering configurators (EC), is usually performed by few proficient experts with high development effort. One of the primary challenges in the knowledge acquisition is that several experts possess partial aspects of knowledge in an inhomogeneous, implicit form. Furthermore, there is a lack of efficient development methods for EC. By reusing knowledge elements from previous development projects, a sustainable increase in efficiency is possible. In order to enable an efficient development process of EC, we introduce a structuring model consisting of four knowledge domains (KD): knowledge about specific business cases (KD1), Best Practices as case-specific solution knowledge (KD2), logical expert knowledge (KD3) as well as semantically consistent data models for interoperability of different IT systems (KD4). As the four KD are independent, their development can be agilely divided among several teams or companies. Finally, the agile development approach is validated individually for each KD as well as comprehensively within the scope of the ROBOTOP platform for planning RAS.
... To reduce the number of combination options and to secure the functionality of the configured target RAS, a BP based approach is ideal for KBEC. Due to the existing uncertainty and in order to specify the architecture based on concrete empirical values, various sub-prototypes were created [15,[18][19][20]24]. Through the prototypes a large interdependency becomes obvious, e.g. the BP preparation is necessary for the click-prototype and the click-prototype to validate BP in the overall context [24,26]. ...
... In order to develop consistent back-end semantics as a general data model for the individual microservices, a modeling methodology based on a division of labor was introduced as well [20]. This was implemented using the AutomationML Editor, but can be applied to all modeling tools based on potent modeling languages. ...
Article
Full-text available
Automation solutions in production represent a sensible and long-term cost-effective alternative to manual work, especially for physically strenuous or dangerous activities. However, especially for small companies, automation solutions are associated with a considerable initial complexity and a high effort in planning and implementation. The ROBOTOP project, a consortium of industrial companies and research institutes has therefore developed a flexible web platform for the simplified, modular planning and configuration of robot-based automation solutions for frequent tasks. In this paper, an overview of the project’s scientific findings and the resulting platform is given. Therefore, challenges due to the scope of knowledge-based engineering configurators like the acquisition of necessary data, its description, and the graphical representation are outlined. Insights are given into the platform’s functions and its technical separation into different Microservices such as Best Practice selection, configuration, simulation, AML-data-exchange and spec-sheet generator with the focus on the configuration. Finally, the user experience and potentials are highlighted.
... While AML provides an inherently distributed document architecture, it does not specify a machinereadable base ontology to make models available across system boundaries. In [23] a structured approach of modeling with AML for BP in the field of robotic systems is shown. ...
Article
Full-text available
Robot-centric automation solutions (RAS) promise more efficiency and quality in production as well as more economic stability and security through local production, especially in the times of COVID-19. Nevertheless, due to their high complexity and costs, RAS are only used to a limited extent by small and medium-sized manufacturing companies. As a rule, the high costs of RAS arise from individual engineering, which takes up to 70 percent of the acquisition costs. For this reason, it is necessary to optimise the engineering of RAS. Among other things, better software and less costly top-down engineering methods are needed for this kind of enhancement. Pure optimisation via more advanced simulation tools is not sufficient. Configurators in particular offer the possibility of automatically arranging individual solutions from existing experience. Up to now, however, configurators have been used primarily for the individualisation of products, such as automobiles or clothing, on the basis of the variants predefined by the manufacturer, and less for the engineering of automation solutions. To make top-down configuration and simulation functions easily available to small medium enterprises, a web platform is a convenient solution. Due to the high complexity within the engineering domain, it is reasonable to build this kind of web platform with different services from specialised companies, e.g. by using microservices (MS). Conceivable roles could be as following. The web platform operator (WPO) offers an industry-specific, turnkey complete web platform. The WPO combines, integrates and orchestrates various modules and MS like configuration, simulation, data exchange and other. The MS can be provided by MS providers. In particular, since data interoperability and exchange are very important for engineering, an AutomationML (AML) MS is used to implement both. AML particularly supports the generic exchange of data based on industrial standards. To provide a general solution, a MS and AML-based web platform reference architecture was developed. These concepts and MS architecture are validated via a prototypical implementation and utilisation of the web platform within the scope of the ROBOTOP research project. Thus, the potential for increasing efficiency in engineering for RAS could be demonstrated using this top-down approach.
... Towards the future improvement within VR interaction development, Best Practice based configuration planning and the preparation of engineering data such as 3D objects is becoming increasingly important [35]. Therefore, exploration of more efficient and reusable approaches for function and data reuse is beneficial e.g. using microservice architectures [29,36] for example through a data-microservice or VR microservice. ...
Article
Full-text available
The term Virtual Reality (VR), is very well known in the consumer goods and entertainment sector. The visual presentation of the VR environment is typically achieved via stereoscopic head-mounted displays (HMD), and the interaction via a 3D position detection of HMD and additional input devices such as controllers for active user input. While the variety of applications in the entertainment industry is constantly growing and the technological possibilities become more extensive, this trend has marginally established itself in the industry. Even though powerful and affordable VR hardware is available, VR applications are often associated more with gaming than professional industrial applications. In addition, only few interaction mechanisms such as 3D viewing, moving, teleporting and rarely direct interaction capabilities are used in the most industrial VR solutions. The reason for this is often a lack of understanding and structure of use cases and the added value that VR applications and interactions create for companies and their customers. This unnecessarily limits the applicability of new VR applications for the industry. For a better structuring of VR use cases and required 3D objects for targeted user interaction, we introduce seven Levels of Detail. Along these, one VR use case setup is created, to provide examples for classical concept planning and a new knowledge-based process based on engineering Best Practices. For each, we derive adequate prototypical implemented demonstrator stations and necessary interaction mechanisms for VR development. To highlight further VR possibilities, we extend the examples by adding a second use case setup for VR planning and virtual commissioning of industrial human-robot collaboration solutions based on body and hand tracking. Hence, the contribution provides a structured compilation of potential and useful industrial VR planning use case setups and for these relevant interaction mechanisms in combination with concretely implemented examples.
... For future research, process bottlenecks could be visualized and optimized using a heat map provided by the Camunda Enterprise Edition. In addition, consistent data models for the PDA as well as methods for their consistent development should be established, optionally combined with Au-tomationML for the engineering domain [30]. Supplementary, the use of the PDA is conceivable in the area of manufacturing as well, e.g. for connecting, scheduling or routing manufacturing operations as a service. ...
Article
Full-text available
Digitization within the framework of Industry 4.0 is considered the biggest and fastest driver of change in history of manufacturing industry. While the size of a company is becoming less essential, the ability to adapt quickly to changing market conditions and new technologies is more important than ever. This trend particularly applies to the companies’ software landscapes, where individual sub-processes and services must be orchestrated, seamlessly integrated, and iteratively renewed according to the ever-increasing user requirements. However, inflexible, closed monolithic software applications as well as self-programmed stand-alone tools that are difficult to integrate are still predominant in the engineering domain. A complete reimplementation of existing, proprietary engineering tools and their integration into monolithic applications of large software providers is often not economically feasible, especially for small and medium-sized machinery and plant manufacturers. In this context, the so-called Process-Driven Approach (PDA) offers a sustainable and tool-neutral opportunity for process and tool orchestration, enabling an easy integration of individual software applications by consistent utilization of the separation of concerns principle. The PDA, originating from business informatics, is mainly based on the standardized and machine-executable visual modeling language Business Process Model and Notation (BPMN). Using the semantic enhancements found in version 2.0, BPMN is not just used to model the business processes but also to model and execute the integration processes between different systems. After the PDA has already been successfully applied to large-scale projects in business informatics, it is now being transferred to the engineering domain. As shown in this paper, PDA allows to orchestrate the different processes in engineering and to integrate the underlying software tools, such as e-mail or spreadsheet applications, engineering tools, or custom microservices, using standardized interfaces like REST API. In doing so, engineering processes can be made more transparent, monitored, and optimized by means of appropriate key figures. The concept is validated by a prototypical implementation of a minimum functional PDA architecture for the engineering domain.
... In recent research, Schäffer et al. [25] have already proposed a method for the division of labor in KA, especially suited for KBEC. For unifying the underlying semantics, they introduce a procedure for the collaborative development of an ontology, validated based on AutomationML [26]. ...
Article
Full-text available
The high complexity of today’s automation solutions often raises integration costs to an uneconomic level, particularly for small and medium-sized enterprises. Analyzing the total costs of automation solutions, engineering efforts account for the largest share. However, potentials for time and cost savings as well as quality improvements by reusing existing engineering knowledge are usually not exploited in industrial practice. In this context, knowledge-based configurators are the most popular expert systems and present an opportunity to automate the creation of customer-specific automation solutions. Especially for efficient knowledge reuse, constraint-based configurators seem suitable. However, existing methods for developing configurators focus on product configurators rather than on knowledge-based engineering configurators (KBEC). In addition, the necessary knowledge acquisition (KA) is still one of the major challenges in developing KBECs. Open fields of action include the definition of the optimal functional scope as well as the identification, prioritization, and selection of suitable knowledge sources. Another prerequisite represents the transparency of existing engineering processes and interests of all affected stakeholders. Therefore, this paper introduces a six-step approach enabling the development of use-oriented KBECs with the minimum required functional scope to reduce efforts for KA and thus overall development costs. Finally, the strategic approach is validated using the example of a KBEC for the concept planning of robot-based automation solutions.
... In addition to the generation of adapter plates, the web service is so generically structured that it can also be used for the generation of various geometries in the sense of a micro service architecture. Overall it is currently used to generate simple workpieces on the ROBOTOP platform [9][10]. Furthermore, optimization potential was seen in the geometry of the adapter plates of low stressed areas, which are to be generated in the future on the basis of the finite element structure synthesis. ...
... While an ontology-based tool such as the aforementioned Visio add-in offers many possibilities, it is quite complex to create and maintain. Among others, there is a lack of concrete procedures for modeling the underlying ontology [26]. Especially for small and medium-sized companies, semantic wikis are thus recommended for a first start in knowledge management [23]. ...
Conference Paper
The interest in artificial intelligence (AI) and its use in industrial production is growing steadily. The increasingly known machine learning, however, is only one of several AI technologies emerging from basic research. Another subarea of AI represent the so-called semantic technologies, which play a decisive role especially in knowledge management. They allow knowledge to be structured and processed in such a way that it can be used for targeted support in complex, knowledge-intensive tasks. Especially during the design of production systems, such technologies have the potential to reduce planning efforts by providing existing expert knowledge. For electric motor manufactures, designing a proper production system remains a challenge due to low standards and numerous alternative manufacturing processes. Accordingly, this paper provides an overview of semantic technologies and outlines their fundamental potential in the conceptual design of production systems. Finally, a pragmatic approach is presented to improve the future knowledge work at electric motor manufacturers.
Book
Full-text available
Der Markt für roboterzentrierte Automatisierungslösungen (RA) ist ein globaler Wachstumsmarkt. Aufgrund der hohen Kosten und Komplexität von RA bleiben häufig kleine und mittlere Unternehmen (KMU) hinter diesem Trend zurück. Gegenstand und Zielstellung der Promotion ist die Schaffung von effizienten sowie skalierbaren Engineering-Konzepten und -Lösungen für die Planung von RA auf Basis von Webtechnologien. Hierfür wurden das Konzept des Engineering-Konfigurators, eine microservicebasierte Webplattform-Referenzarchitektur sowie eine für Engineering-Konfiguratoren benötigte Entwicklungsmethode basierend auf drei Teilmethoden (W1-W3) eingeführt. Über nutzerzentrierte Entwicklungsansätze, eine modulare Architektur für RA sowie Ansätze aus der wissensbasierten Konfiguration (Teilbereich aus der künstlichen Intelligenz (KI)) werden der Vertrieb, die Planung und das Engineering von RA einem breiteren Publikum zugänglich gemacht. Validiert wurden die Konzepte und Methoden im Rahmen der Webplattform ROBOTOP sowie anhand diverser 3D-Web-, AR (Augmented Reality)- und VR (Virtual Reality)-Mehrbenutzer-Demonstratoren. Die Konzepte und Methoden befähigen somit auch eine effiziente Digitalisierung bzw. Prozessautomatisierung des Engineerings von RA durch die eingeführten, strukturierenden Methoden zur Wissenserfassung, -modellierung sowie -implementierung und unterstützen dabei die Vision des digitalen Zwillings im Kontext von Industrie 4.0.
Book
This is the first book to explore how Semantic Web technologies (SWTs) can be used to create intelligent engineering applications (IEAs). Technology-specific chapters reflect the state of the art in relevant SWTs and offer guidelines on how they can be applied in multi-disciplinary engineering settings characteristic of engineering production systems. In addition, a selection of case studies from various engineering domains demonstrate how SWTs can be used to create IEAs that enable, for example, defect detection or constraint checking. Part I “Background and Requirements of Industrie 4.0 for Semantic Web Solutions” provides the background information needed to understand the book and addresses questions concerning the semantic challenges and requirements of Industrie 4.0, and which key SWT capabilities may be suitable for implementing engineering applications. In turn, Part II “Semantic Web-Enabled Data Integration in Multi-Disciplinary Engineering” focuses on how SWTs can be used for data integration in heterogeneous, multi-disciplinary engineering settings typically encountered in the creation of flexible production systems. Part III “Creating Intelligent Applications for Multi-Disciplinary Engineering” demonstrates how the integrated engineering data can be used to support the creation of IEAs, while Part IV “Related and Emerging Trends in the Use of Semantic Web in Engineering” presents an overview of the broader spectrum of approaches that make use of SWTs to support engineering settings. A final chapter then rounds out the book with an assessment of the strengths, weaknesses and compatibilities of SWTs and an outlook on future opportunities for applying SWTs to create IEAs in flexible industrial production systems. This book seeks to build a bridge between two communities: industrial production on one hand and Semantic Web on the other. Accordingly, stakeholders from both communities should find this book useful in their work. Semantic Web researchers will gain a better understanding of the challenges and requirements of the industrial production domain, offering them guidance in the development of new technologies and solutions for this important application area. In turn, engineers and managers from engineering domains will arrive at a firmer grasp of the benefits and limitations of using SWTs, helping them to select and adopt appropriate SWTs more effectively. In addition, researchers and students interested in industrial production-related issues will gain valuable insights into how and to what extent SWTs can help to address those issues.
Article
The Extensible Markup Language (XML) is a subset of SGML that is completely described in this document. Its goal is to enable generic SGML to be served, received, and processed on the Web in the way that is now possible with HTML. XML has been designed for ease of implementation and for interoperability with both SGML and HTML.
Datenaustausch in der Anlagenplanung mit AutomationML. Integration von CAEX, PLCopen XML und COLLADA
  • R Drath
Drath, R.: Datenaustausch in der Anlagenplanung mit AutomationML. Integration von CAEX, PLCopen XML und COLLADA. Berlin Heidelberg 2010.
Semantic Web, and Other Technologies to Watch
  • S Bratt
Bratt, S.: Semantic Web, and Other Technologies to Watch. URL: https://www. w3.org/2007/Talks/0130-sb-W3C TechSemWeb/#(24).
V: Standardized data exchange in the engineering process of production systems
  • Automationml E
AutomationML e. V: Standardized data exchange in the engineering process of production systems. URL: https://www.automationml.org/o.red/uploads/ dateien/1544706233-automationml.pdf. Abrufdatum 22.11.2018.