Conference PaperPDF Available

Vergleich von haptischen Steuerungsvarianten zur manuellen Bedienung von Robotersystemen

Authors:

Abstract

Die vorliegende Arbeit beschäftigt sich mit der manuellen Bedienung von Robotersystemen bei der Teach-In-Programmierung und deren Weiterentwicklung hinsichtlich intuitiver und haptischer Steuerungskonzepte. Hierfür werden verschiedene Geräte zur Steuerung eines kleinen Deltaroboters verwendet und bezüglich ihrer Bedieneigenschaften untersucht. Des Weiteren wird aufgezeigt, wie ein haptisches Vibrationsfeedback mittels dieser Bedienmethoden implementiert werden kann. Ziel dieser ersten Variantenstudie ist die Bewertung der Grundkonzepte dieser Geräte in Bezug auf Ergonomie, Systemgrenzen und Fähigkeit zur Ansteuerung von Raumkoordinaten für die Teach-In-Programmierung. Die Ergebnisse stellen die Grundlage für weitere Untersuchungen dar, welche zeigen sollen, inwieweit eine Implementierung der ausgewählten Steuerungskonzepte für einen handelsübliches Roboter möglich ist und welche Vorteile daraus für kollaborierende und hybride Robotersysteme entstehen.
Vergleich von haptischen Steuerungsvarianten zur manuellen Be-
dienung von Robotersystemen
Comparison of haptic control mechanisms for manual manipulation of
robotic systems
Philipp Wabnitz, M.Sc., Dr.-Ing. Andreas Heine, Univ.-Prof. Dr.-Ing. Maik Berger
philipp.wabnitz@mb.tu-chemnitz.de, andreas.heine@mb.tu-chemnitz.de, maik.berger@mb.tu-chemnitz.de
Technische Universität Chemnitz, Professur Montage- und Handhabungstechnik, 09107 Chemnitz, Deutschland
Kurzfassung
Die vorliegende Arbeit beschäftigt sich mit der manuellen Bedienung von Robotersystemen bei der Teach-In-
Programmierung und deren Weiterentwicklung hinsichtlich intuitiver und haptischer Steuerungskonzepte. Hierfür wer-
den verschiedene Geräte zur Steuerung eines kleinen Deltaroboters verwendet und bezüglich ihrer Bedieneigenschaften
untersucht. Des Weiteren wird aufgezeigt, wie ein haptisches Vibrationsfeedback mittels dieser Bedienmethoden im-
plementiert werden kann. Ziel dieser ersten Variantenstudie ist die Bewertung der Grundkonzepte dieser Geräte in Be-
zug auf Ergonomie, Systemgrenzen und Fähigkeit zur Ansteuerung von Raumkoordinaten für die Teach-In-
Programmierung. Die Ergebnisse stellen die Grundlage für weitere Untersuchungen dar, welche zeigen sollen, inwie-
weit eine Implementierung der ausgewählten Steuerungskonzepte für einen handelsübliches Roboter möglich ist und
welche Vorteile daraus für kollaborierende und hybride Robotersysteme entstehen.
Abstract
This thesis deals with the manual operation of robot systems during teach-in programming and their further development
with regard to intuitive and haptic control concepts. Various devices are used to control a small Delta robot and their op-
erating characteristics are investigated. Furthermore, it is shown how a haptic vibration feedback can be implemented by
means of these operating methods. The aim of this first variant study is to evaluate the basic concepts of these devices
with regard to ergonomics, system boundaries and the ability to control spatial coordinates for teach-in programming.
The results are the basis for further investigations, which should show to what extent an implementation of the selected
control concepts for a commercial robot is possible and which advantages arise from it for collaborating and hybrid robot
systems.
1 Einleitung
Aufgrund wirtschaftlicher Bedürfnisse und Vorteile hin-
sichtlich Flexibilität und Zeitersparnis haben sich Robo-
tersysteme in vielen Bereichen der Montage- und Hand-
habungstechnik bewährt. Für diverse Einsatzszenarien
gibt es eine Vielzahl an Modellen und dafür wiederrum
einen enormen Umfang an Greifersystemen und Periphe-
rie. Damit wird ein hoher Grad an Automatisierung von
Arbeitsabläufen erreicht.
Bei der Programmierung dieser Systeme sind jedoch nach
wie vor programmiertechnische Kenntnisse und Erfah-
rungswissen vonnöten. Deshalb werden an Robotersyste-
me weiterhin Anforderungen an eine leichte Anwendbar-
keit und eine kurze Einarbeitungszeit für Programmierer
gestellt, welche im täglichen Einsatz Fehler vermeiden
sowie Zeit und somit Kosten einsparen.
Zum einen wird es durch die Entwicklung heutiger Robo-
terarbeitsplätze hin zur kollaborierenden Robotik und dem
Einsatz neuartiger hybrider Systeme notwendig, neue
Steuerungskonzepte zu evaluieren, welche für diese Sze-
narien Vorteile bringen [1][3]. Zum anderen ist bei jeder
Mensch-Maschine-Interaktion die Ergonomie von grer
Bedeutung, was sich insbesondere in der kollaborierenden
Robotik zeigt [4]. Die Haptik des Robotersystems spielt
hierbei eine zentrale Rolle, denn neben dem subjektiven
Befinden bei der Benutzung des Systems können hapti-
sche Sinneseindrücke zur Vermittlung von Informationen
genutzt und damit die Steuerung eines komplexen Robo-
tersystems vereinfacht werden. In diesem Bereich haben
sich sogenannte Feedbacksysteme bereits bewährt, welche
es erlauben haptische Informationen nicht nur wahrzu-
nehmen, sondern auch an das System zurückzugeben.
Bei der manuellen Bedienung und insbesondere bei der
Teach-In-Programmierung von Robotersystemen ist es
notwendig den Tool-Center-Point (TCP) in Absolutwer-
ten vorzugeben oder inkrementell zu verändern, um be-
stimmte Posen anzusteuern. Hierbei werden Handbedien-
geräte eingesetzt, welche zur Einstellung von Parametern
die Eingabe über einen Touchscreen oder mechanische
Eingabeeinheiten wie Schalter oder Drehräder unterstüt-
zen. Um eine intuitive und ergonomische Handhabung zu
ermöglichen, können in Kombination mit solchen Robo-
terbediengeräten weitere Steuerungssysteme eingesetzt
werden wie beispielsweise sogenannte 6D-Mouse-
Eingabeelemente. [5]
2 Stand der Technik
Die Programmierung eines Roboters wird nach Weber in
Offline- und Online-Programmierung unterteilt. Während
die Offline-Programmierung eine Programmierumgebung
mit Simulationstools benötigt, geschieht die Online-
Programmierung direkt am Roboter selbst. Eine Variante
der Online-Programmierung stellt die sogenannte Teach-
In-Programmierung dar. Diese Art der Steuerung von Ro-
botersystemen erfolgt vielfach mit sogenannten Pro-
grammierhandgeräten (Teach-Panels), welche es erlauben
mit einem gewissen räumlichen Abstand Positionierbe-
fehle zu geben und unter Sichtkontrolle ausführen zu las-
sen. Diese Panels werden in verschiedenen Varianten ein-
gesetzt zum Beispiel in Form eines Touchpanels, bei
denen Eingaben mittels Touchscreen getätigt werden (sie-
he Bild 1). [5]
Bild 1 Teach-Pendant des UR5 der Fa. Universal Robots
Die haptische Wahrnehmung des Menschen geschieht
mithilfe von Sensorzellen in der Haut und im Bewe-
gungsapparat. Diese Zellen lassen sich nach den Reizen,
die sie aufnehmen unterteilen in Merkelzellen, Meissner-,
Ruffini- und Vater-Pacini-Körperchen sowie Muskelspin-
deln. [6] Technisch betrachtet lässt sich die Haptik jedoch
auch anders unterteilen und zwar in Kinästhetik und Tak-
tilität. Nach Kern et al. (2014) beschreibt die Kinästhetik
die Wahrnehmung der Gelenkpositionen im Raum, der
Ausrichtung aller Gliedmaßen, der Orientierung des Kör-
pers und des Muskeltonus. Die Taktilität hingegen fasst
Empfindungen von Temperatur, Schmerz und Berührung
zusammen, wozu auch die Wahrnehmung von Vibratio-
nen gehört. An der Mensch-Maschine-Schnittstelle wer-
den diese Reize genutzt, um eine bidirektionale Interakti-
on zwischen dem Nutzer und einem virtuellen Objekt o-
der einem Teleoperator zu ermöglichen (siehe Bild 2). [7]
Dieser Beitrag befasst sich vorrangig mit der Vibrotaktili-
tät und dessen Nutzbarmachung, welche in der Literatur
bereits umfangreich untersucht wurde [8], [9]. Die Wahr-
nehmung von taktilen Reizen während der Interaktion
führt zu intuitiveren Benutzereingaben, da somit bei-
spielsweise die Einhaltung von Parametergrenzwerten
nicht nur visuell oder auditiv, sondern auch haptisch
wahrgenommen werden kann. [10][12]
Im Hinblick auf neue Bedienkonzepte sind aber auch kin-
ästhetische Eingabemöglichkeiten von Interesse, da sie
das Erlernen der Steuerung durch den Einsatz von Gesten
auf bekannte Bewegungen reduzieren und somit vereinfa-
chen. [13][15] Versuche haptische Feedbacksysteme bei
der Steuerung von Robotersystemen und Greifern einzu-
setzen sind bereits vielfach in der Literatur beschrieben.
[17][20]
Bild 2 Bidirektionale Interaktion bei haptischen Interfaces
nach Kern et al. und Srinivasan/Basdogan [7], [16]
3 Robotersystem
Aufgrund der genannten Forschungsgegenstände musste
ein Roboter gehlt werden, welcher die Anforderungen
an einen Einsatz in einem hybriden und kollaborierenden
Robotersystem erfüllt. Da in Folgeuntersuchungen der
Schwerpunkt auf der Verwendung in einer Hybridstruktur
liegt und der Roboter dabei an einem UR5 der Fa. Uni-
versal Robots befestigt wird, fiel die Wahl auf eine Delta-
kinematik. Hierbei erlauben die drei Achsen eine Positio-
nierung des TCP im Raum jedoch keine Änderung der
Orientierung.
Das kostengünstige, leichte und trotzdem den Belastun-
gen gerechte Design de konzipierten Deltakinematik wird
durch eine parametrische Konstruktion mit entsprechend
wenigen Einzelteilen erreicht (siehe Bild 3). Die meisten
Bauteile sind mittels FDM (Fused Deposition Modeling)
gedruckt und alle weiteren Kauf- und DIN-Teile sind dem
Modellbau-Bereich entnommen. Dieser kompakte Delta-
roboter setzt sich aus einer zweiteiligen Basis, den Ser-
voarmen, den Koppelstangen und der Endeffektorauf-
nahme zusammen und erfüllt aufgrund seines Gewichts
von 700 g und der hohen Dynamik aufgrund der einge-
setzten Servomotoren die an ihn gestellten Anforderun-
gen.
Bild 3 Konstruktion des Deltaroboters. (a) Abmessungen, (b)
Rendering, (c) virtuelles Modell und (d) reales Modell
Bild 4 zeigt das Systemschema der Mensch-Roboter-
Interaktion. Das eingesetzte Bediengerät gibt eine neue
TCP-Position vor, welche in einem handelsüblichen
Computer über die inverse Kinematik des Deltaroboters
in eine Pose umgerechnet wird. Die dabei ermittelten
Winkel werden daraufhin durch die Graupner
DES707BBMG Servomotoren angefahren, wobei die Po-
sitionsregelung in diesen integriert ist. Ein am Endeffek-
tor befestigter DF9-40-5kg Drucksensor misst die Belas-
tung bei Kontakt mit dem Untergrund oder einem Objekt
und diese wird anschließend in Form von Vibrationen an
den Nutzer zurückgegeben.
Bild 4 Systemschema für die TCP-Steuerung mit Vibrations-
feedback
Zur Steuerung kommen Komponenten des Elektronik-
baukastensystems der Fa. Tinkerforge zum Einsatz (siehe
Bild 5). Die Kommunikation mit dem Computer über-
nimmt dabei ein Masterbrick, welcher ebenfalls als
Schnittstelle zu einem Anlaog-In-Bricklet dient, mit dem
der Spannungsabfall über dem Drucksensor gemessen
wird. Zur Steuerung der Servomotoren wird ein Servo-
brick verwendet, welcher die Positionsvorgaben mittels
Pulsweitenmodulation (PWM) an die angeschlossenen
Servomotoren weitergibt.
Bild 5 Steuerungskomponenten der Fa. Tinkerforge
Die Vibrationsrückmeldung erfolgt je nach Steuerungs-
konzept auf unterschiedliche Weise. Für die Bediengeräte,
welche selbst keine eingebauten Vibrationsmotoren ent-
halten, wird ein Vibrationsarmband entsprechend dem
von Sklar und Sarter (1999) beschriebenem Tactor
verwendet (siehe Bild 6) [21]. Hierbei kommt ein 3V DC
Münzen-Vibrationsmotor zum Einsatz, welcher mit einem
IRF520 (Mosfet) Breakout-Board mittels PWM in seiner
Vibrationsstärke reguliert wird (siehe Tabelle 1). Die be-
nötigte Versorgungsspannung des IRF520 und die PWM-
Signale werden aus einem zweiten Servobrick bezogen.
Bild 6 Vibrationsarmband. (a) Einsatz mit optischem Tra-
ckingsystem der Fa. Leap Motion und (b) Aufbau
Tabelle 1 Zusammenhang von Drucksensor-Belastung, gemes-
sener Spannung, geregelter PWM und angelegter Be-
triebsspannung des Vibrationsmotors (Zwischenwerte
werden linear interpoliert)
Belastung
[N/mm2]
Gemessene
Spannung [mV]
PWM
[µs]
Betriebsspannung
[mV]
0…0.1
22 ± 3
0
0
0.11
1300
100
40
0.22
3300
10000
4000
4 Steuerungskonzepte
Grundsätzlich lässt sich der Delta-Roboter mit einer simp-
len Syntax programmieren. Ein Wegpunkt bzw. eine Pose
wird mit dem MOVE-Befehl angesteuert. Soll die aktuelle
Position mit einem MOVE-Befehl im Programm hinter-
legt werden, wird die „Set Point“-Funktion aufgerufen.
Für eine Rückkehr zur Nullposition ist eine „Zero“-
Funktion implementiert. Der WAIT-Befehl lässt das Ro-
boterprogramm eine bestimmte Zeitspanne in Sekunden
warten und ein angeschlossenes Werkzeug kann mittels
SET-TOOL-Befehl geschaltet werden.
4.1 Tastatur und Maus
Die händische Eingabe an einem handelsüblichen Compu-
ter mit Maus und Tastatur erlaubt eine direkte und inkre-
mentelle Vorgabe des TCP. Mit der Tastatur kann die
TCP-Position in Zahlenwerten angegeben oder mit den
Pfeiltasten in Schritten angepasst werden. Die Maus stellt
ein zusätzliches Hilfsmittel dar, bei dem der TCP in der
XY-Ebene positioniert werden kann (siehe Bild 7). Das
Vibrationsfeedback erfolgt hierbei mit dem Vibrations-
armband.
4.2 Touchscreen
Die Eingabe über den Touchscreen unterscheidet sich nur
unwesentlich von der Eingabe mit Maus und Tastatur.
Hierbei entfällt lediglich die Schnittstellenperipherie. Ein
Betätigen der Buttons mit dem Finger ermöglicht eine in-
tuitive Bedienung, ohne dabei Tasten für bestimmte Akti-
onen konfigurieren zu müssen. Das Vibrationsfeedback
wird ebenfalls mit dem Vibrationsarmband umgesetzt,
jedoch wären auch Touchdisplays möglich, welche bereits
Vibrationsmotoren implementiert haben.
Bild 7 Oberfläche zur Steuerung mittels Maus und Tastatur
als auch für die Touchscreenbedienung
4.3 Controller
Die manuelle Eingabe kann wie bei der bereits erwähnten
6D-Mouse mit einem Steuerknüppel (Stick) erfolgen.
Dessen Auslenkung wird dann in inkrementelle Schritte
in Richtung der dafür definierten Achse des Bezugskoor-
dinatensystems umgesetzt. Um alle drei Achsen des Del-
ta-Roboters zu bedienen, sind mindestens ein Dreiachs-
Stick oder zwei Zweiachs-Sticks erforderlich. Deshalb
und aufgrund seiner hohen Kompatibilität mit diversen
Computersystemen wurde der Xbox360 Controller der Fa.
Microsoft ausgewählt. Die Ansteuerung der einzelnen
Achsen ist in Bild 8 zu sehen. Vorteilhaft ist hierbei, dass
die Geschwindigkeit, mit der der TCP inkrementell ver-
ändert wird, proportional zur Auslenkung gesteigert oder
verringert werden kann. Dies erlaubt bei großen Auslen-
kungen des Sticks eine schnelle Verfahrbewegung und bei
kleineren Auslenkungen eine präzisere Ansteuerung von
Punkten. Des Weiteren besitzt dieser Controllertyp zwei
integrierte Vibrationsmotoren mit unterschiedlichen
Schwungmassen, womit verschiedene Vibrationen er-
zeugt werden können.
Bild 8 Xbox360 Controller der Fa. Microsoft
4.4 Leap Motion
Um eine intuitive Steuerung mittels Handgesten zu er-
möglichen, werden vorrangig optische Trackingsysteme
eingesetzt. Eines davon, welches speziell für die Erfas-
sung der Handpose entwickelt wurde, ist die sogenannte
Leap Motion der Fa. Leap Motion. Diese besteht aus drei
Infrarot-LEDs, dessen Reflexionen mit zwei Infrarot-
Kameras erfasst werden. Der Aufbau und die Funktions-
weise sind hinreichend bei Weichert et al. (2013) und Ma-
rin et al. (2014) beschrieben [22], [23]. Alle gelieferten
Hand- und Knöchel-Positionen beziehen sich auf den Mit-
telpunkt des Leap Motion Controllers, der zwischen den
beiden IR-Kameras liegt, direkt über dem zweiten IR-
Sender (siehe Bild 9). Deshalb wird zur direkten Eingabe
des TCP der Ortsvektor des Handmittelpunktes in den
Arbeitsraum des Delta-Roboters skaliert übertragen und
mit einem Verfahrbefehl als Soll-Position angesteuert.
Ein solches System wurde beispielweise bereits von Bas-
sily et al. (2014) umgesetzt [24].
Da die Leap Motion auch Informationen über die Finger-
posen liefert, können bestimmte Gesten wie bspw. das
Schließen und Öffnen der Hand erkannt werden [23].
Diese werden beim Teach-In-Prozess in „Set Point-
Befehle umgesetzt. Das Vibrationsfeedback erfolgt über
das Vibrationsarmband.
Bild 9 Leap Motion der Fa. Leap Motion (Darstellung nicht
maßstabsgerecht)
4.5 Robot Glove
Eine weitere Variante eine Handgestensteuerung zu er-
möglichen bietet der Robot Glove der Fa. Lobot. Dieser
kostengünstige Handschuh basiert auf einem Arduino
kompatiblen Board, welches einen Inertialsensor (IMU),
ein Gyroskop, ein Bluetooth-Modul und ein Potentiome-
ter je Finger vereint und somit die Grundvoraussetzungen
für die Übertragung der Handpose auf ein Robotersystem
erfüllt (siehe Bild 10). Die Eingabe von Verfahrbefehlen
kann hierbei sowohl über die Beschleunigungswerte der
IMU oder durch die Orientierung des Gyroskops erfolgen.
Das Vibrationsfeedback wird hierbei ebenfalls über das
Armband bereitgestellt, jedoch wäre es möglich der Fin-
gerbewegung mit zusätzlichen Motoren entgegenzuwir-
ken und somit ein kinästhetisches Feedback zu implemen-
tieren.
Bild 10 Robot Glove der Fa. Lobot
5 Versuchsdurchführung
Um einen Vergleich der vorgestellten Konzepte zu er-
möglichen, wird mit jedem Bediengerät ein vordefinierter
Teaching-Prozess durchgeführt (siehe Bild 11). Hierbei
sollen drei Testpunkte angefahren werden bis ein Kontakt
zwischen Werkzeug und Objekt zu Stande kommt, bei
dem eine Mindestbelastung von 0.15 N/mm2 erreicht
wird. Da die Andruckkraft entlang der Z-Achse des Delta-
roboters ausgeübt werden soll, müssen Zwischenposen
angefahren werden, bei denen der TCP über den Test-
punkten liegt. Des Weiteren ist auf Kollisionsfreiheit zu
achten. Die Versuche werden für jedes Bediengerät zehn
Mal durchgeführt, wobei die benötigte Zeit gemessen und
anschließend über alle Versuche gemittelt wird, um ent-
standene Lern- und Trainingseffekte mit einzubeziehen.
Bild 11 Versuchsaufbau mit einigen Eingabegeräten
Für eine Bewertung des Komforts bzw. die Quantifizie-
rung der dabei auftretenden Beanspruchungen eines Be-
diensystems können neben objektiven Verfahren wie
bspw. EMG, EKG und Gelenkwinkelmessungen auch
subjektive Verfahren Verwendung finden. Eine subjektive
Beurteilung des Komforts erfolgt am einfachsten durch
den Einsatz von Fragebögen oder Interviews mit Proban-
den, wobei die Borg-Skala ein simples und gleichzeitig
vielseitiges Belastungsbewertungsverfahren darstellt. Eine
etablierte Variante, die für diese Untersuchung Anwen-
dung findet, ist die für den Gesamtkörper verwendete
RPE-Skala, welche aus 15 Anstrengungswerten von 6
(sehr, sehr locker) bis 20 (sehr, sehr anstrengend) be-
steht. [25]
6 Ergebnisse
Die über alle Versuche ermittelten Zeiten sind in Tabelle
2 zusammen mit den Bewertungen des Komforts aufgelis-
tet. Im Folgenden soll auf einzelne Punkte bei den Unter-
suchungen eingegangen werden.
Tabelle 2 Vergleich nach benötigter Zeit und subjektiv bewerte-
ter Ergonomie nach Borg (Werte gemittelt über alle
Versuche)
Zeit
[mm:ss]
Ergonomie
[Borgskala]
02:20
10
02:51
9
01:22
9
00:48
7
-
14
Inkrementelle Eingaben mit der Tastatur können lediglich
in der eingestellten Schrittweite getätigt werden. Eine
Anpassung der Verfahrgeschwindigkeit je nach Positio-
nierungssituation ist somit nicht möglich. Dasselbe gilt
für die Bedienung mittels Touchscreen, wobei dies durch
den Einsatz von Drucksensitivitätsstufen erreicht werden
könnte. Des Weiteren war die haptische Rückmeldung
eines Tastendrucks beim Tippen auf den Bildschirm nicht
gegeben, wodurch Nicht- oder Fehleingaben stattfanden.
Hier zeigt sich der Vorteil einer physischen und somit
haptisch erfahrbaren Eingabeschnittstelle.
Die Präzision und Wiederholgenauigkeit des Leap Motion
Sensors wurden durch Weichert et al. (2013) und Guna et
al. (2014) untersucht und bereits kritisiert [22], [26]. Der
relativ kleine Erkennungsraum (120°) und auftretende
Probleme bei Verschmutzungen sind ebenfalls wahr-
nehmbare Störfaktoren, die einem alltäglichen Einsatz im
Wege stehen. Befindet sich die Hand in einer ungünstigen
Lage, z. B. zum Teil hinter einem Gegenstand, so wird
deren Position nicht zuverlässig erkannt. Diesen Proble-
men des optischen Trackings kann mit Systemen aus
mehreren Sensoreinheiten entgegengewirkt werden, was
bspw. Jin et al. (2016) untersucht haben [27]. Nichtsdes-
totrotz bietet die Leap Motion eine schnelle und kallibrie-
rungsarme glichkeit die Handpose kontaktlos tracken
zu lassen.
Ursprünglich sollte der in der Robot Glove verbaute Ber-
schleunigungssensor Verwendung finden. Aufgrund der
hohen Messabweichungen und der entstehenden Drift bei
Inertialsensoren ist eine Umsetzung in Bewegungsbefehle
nicht ausreichend genau möglich. Abhilfe schaffen könnte
hierbei ein System, welches auf sensor fusion basiert und
optische Messungen mit den Daten der IMU kombiniert.
[28][30] Die Nutzung des Gyroskops als inkrementelle
Steuerungseinheit ist kontraintuitiv und führte zu keiner
ausreichend genauen Positionierung des TCP im Testfeld,
weswegen keine Zeiten ermittelt werden konnten. Diese
Sensordaten könnten stattdessen in weiteren Untersu-
chungen für die Anpassung der Orientierung bspw. bei
einem Hexapoden verwendet werden.
Aufgrund der intuitiven Bedienung und der regelbaren
Geschwindigkeit bei unterschiedlichen Positionierungssi-
tuationen fallen Zeiten und subjektive Bewertungen des
Komforts beim Xbox360 Controller und der Leap Motion
deutlich besser aus als bei den anderen Geräten. Diese
Steuerungskonzepte haben demnach ein großes Potential
die etablierte Touchscreen- oder Tasteneingabe bei der
TCP-Positionierung zu ergänzen.
7 Zusammenfassung
Es wurden verschiedene Bediengeräte für die absolute
Eingabe und inkrementelle Veränderung des TCP eines
Roboters für die Teach-In-Programmierung verglichen.
Diese wurden hinsichtlich ihrer Bedieneigenschaften ge-
genübergestellt und in einem Testszenario im Bezug auf
Ausführungsgeschwindigkeit und Komfort untersucht. Es
konnte gezeigt werden, dass die haptische Interaktion im
Allgemeinen und die vibrotaktile Wahrnehmung im Spezi-
ellen durchaus Vorteile bei der Steuerung eines Roboter-
systems bieten.
Optische Trackingsysteme wie die Leap Motion haben ein
großes Potential eine Ergänzung zu einem klassischen Be-
dienpanel zu werden. Die Positionierung mit der Hand ist
intuitiv und schnell. Probleme hinsichtlich Robustheit und
Genauigkeit der Gestenerkennung müssten jedoch noch
adressiert werden.
Das implementierte Vibrationsfeedback erlaubte bei allen
Steuerungsarten eine schnelle Rückmeldung über einen
Kontakt mit einem Objekt. Die dabei verwendeten kosten-
günstigen Drucksensoren bieten für Greifsysteme aufgrund
ihrer Größe und der benötigten Auswerteelektronik viele
Möglichkeiten ein haptisches Feedback zu implementie-
ren.
Weitere Untersuchungen sind nötig, um diese anfänglichen
Ergebnisse zu verifizieren. Hierbei stellen sich auch Fra-
gen wie beispielsweise die gemessenen Zeiten mit umfang-
reicheren Teach-In-Aufgaben skalieren und wie Nutzer die
Ergonomie nach einer längeren Anwendung bewerten. Op-
tische Tracker und haptische Handschuhe könnten neue
Möglichkeiten der Interaktion mit einem Roboter eröffnen
und die Bedienung intuitiver und komfortabler gestalten.
8 Literatur
[1] B. Matthias, „Die Zukunft der Mensch-Roboter Kol-
laboration in der industriellen Montage“, S. 13.
[2] T. Bauernhansl, M. Ten Hompel, und B. Vogel-
Heuser, Hrsg., „Mensch-Maschine-Interaktion“, in
Industrie 4.0 in Produktion, Automatisierung und
Logistik: Anwendung, Technologien, Migration,
Wiesbaden: Springer Vieweg, 2014, S. 509523.
[3] S. Wischmann, „Arbeitssystemgestaltung im Span-
nungsfeld zwischen Organisation und Mensch
Technik-Interaktion das Beispiel Robotik“, in Zu-
kunft der Arbeit in Industrie 4.0, A. Botthof und E.
A. Hartmann, Hrsg. Berlin, Heidelberg: Springer
Berlin Heidelberg, 2015, S. 149160.
[4] M.-A. Weber und S. Stowasser, „Ergonomische Ar-
beitsplatzgestaltung unter Einsatz kollaborierender
Robotersysteme: Eine praxisorientierte Einführung“,
Z. Für Arbeitswissenschaft, Bd. 72, Nr. 4, S. 229
238, Dez. 2018.
[5] W. Weber, „Roboterprogrammierung“, in Industrie-
roboter: Methoden der Steuerung und Regelung, 3.
Aufl., München: Carl Hanser Verlag GmbH & Co.
KG, 2017, S. 106122.
[6] M. Grunwald, Hrsg., „Anatomy of receptors“, in
Human haptic perception: basics and applications,
Basel: Birkhäuser, 2008, S. 8592.
[7] Hatzfeld und Kern, „Motivation and Application of
Haptic Systems“, in Engineering haptic devices,
New York: Springer, 2014, S. 328.
[8] A. M. Okamura, J. T. Dennerlein, und R. D. Howe,
„Vibration feedback models for virtual environ-
ments“, in Proceedings. 1998 IEEE International
Conference on Robotics and Automation (Cat.
No.98CH36146), Leuven, Belgium, 1998, Bd. 1, S.
674679.
[9] A. M. Okamura, M. R. Cutkosky, und J. T. Denner-
lein, „Reality-based models for vibration feedback in
virtual environments“, IEEEASME Trans. Mechat-
ron., Bd. 6, Nr. 3, S. 245252, Sep. 2001.
[10] M. A. Goodrich und A. C. Schultz, „Human-Robot
Interaction: A Survey“, Found. Trends® Hum.-
Comput. Interact., Bd. 1, Nr. 3, S. 203275, 2007.
[11] J. Tegin und J. Wikander, „Tactile sensing in intelli-
gent robotic manipulation a review“, Ind. Robot
Int. J., Bd. 32, Nr. 1, S. 6470, Feb. 2005.
[12] P. Galambos, „Vibrotactile Feedback for Haptics and
Telemanipulation: Survey, Concept and Experi-
ment“, Acta Polytech. Hung., Bd. 9, Nr. 1, S. 25,
2012.
[13] A. Corradini und H.-M. Gross, „Camera-based gestu-
re recognition for robot control“, in Proceedings of
the IEEE-INNS-ENNS International Joint Con-
ference on Neural Networks. IJCNN 2000. Neural
Computing: New Challenges and Perspectives for
the New Millennium, Como, Italy, 2000, S. 133138
Bd.4.
[14] K. Qian, J. Niu, und H. Yang, „Developing a Gesture
Based Remote Human-Robot Interaction System U-
sing Kinect“, Int. J. Smart Home, Bd. 7, Nr. 4, S. 6,
2013.
[15] O. Rogalla, M. Ehrenmann, R. Zollner, R. Becher,
und R. Dillmann, „Using gesture and speech control
for commanding a robot assistant“, in Proceedings.
11th IEEE International Workshop on Robot and
Human Interactive Communication, Berlin, Germa-
ny, 2002, S. 454459.
[16] M. A. Srinivasan und C. Basdogan, „Haptics in vir-
tual environments: Taxonomy, research status, and
challenges“, Comput. Graph., Bd. 21, Nr. 4, S. 393
404, Juli 1997.
[17] J. T. Dennerlein, P. A. Millman, und R. D. Howe,
„Vibrotactile Feedback for Industrial Telemanipula-
tors“, S. 7.
[18] D. S. Pamungkas und K. Ward, „Tele-operation of a
robot arm with electro tactile feedback“, in 2013 IE-
EE/ASME International Conference on Advanced In-
telligent Mechatronics, Wollongong, NSW, 2013, S.
704709.
[19] A. Ajoudani u. a., „Exploring Teleimpedance and
Tactile Feedback for Intuitive Control of the Pisa/IIT
SoftHand“, IEEE Trans. Haptics, Bd. 7, Nr. 2, S.
203215, Apr. 2014.
[20] S. Scheggi, F. Morbidi, und D. Prattichizzo, „Hu-
man-Robot Formation Control via Visual and
Vibrotactile Haptic Feedback“, IEEE Trans. Haptics,
Bd. 7, Nr. 4, S. 499511, Okt. 2014.
[21] A. E. Sklar und N. B. Sarter, „Good Vibrations: Tac-
tile Feedback in Support of Attention Allocation and
Human-Automation Coordination in Event-Driven
Domains“, Hum. Factors J. Hum. Factors Ergon.
Soc., Bd. 41, Nr. 4, S. 543552, Dez. 1999.
[22] F. Weichert, D. Bachmann, B. Rudak, und D. Fisse-
ler, „Analysis of the Accuracy and Robustness of the
Leap Motion Controller“, Sensors, Bd. 13, Nr. 5, S.
63806393, Mai 2013.
[23] G. Marin, F. Dominio, und P. Zanuttigh, „Hand ge-
sture recognition with leap motion and kinect de-
vices“, in 2014 IEEE International Conference on
Image Processing (ICIP), Paris, France, 2014, S.
15651569.
[24] D. Bassily, C. Georgoulas, J. Güttler, T. Linner, T.
Bock, und T. München, „Intuitive and Adaptive Ro-
botic Arm Manipulation using the Leap Motion Con-
troller“, S. 7, 2014.
[25] G. A. Borg, „Psychophysical bases of perceived
exertion“, Med. Sci. Sports Exerc., Bd. 14, Nr. 5, S.
377381, 1982.
[26] J. Guna, G. Jakus, M. Pogačnik, S. Tomažič, und J.
Sodnik, „An Analysis of the Precision and Reliability
of the Leap Motion Sensor and Its Suitability for Sta-
tic and Dynamic Tracking“, Sensors, Bd. 14, Nr. 2,
S. 37023720, Feb. 2014.
[27] H. Jin, Q. Chen, Z. Chen, Y. Hu, und J. Zhang,
„Multi-LeapMotion sensor based demonstration for
robotic refine tabletop object manipulation task“,
CAAI Trans. Intell. Technol., Bd. 1, Nr. 1, S. 104
113, Jan. 2016.
[28] J. Hol, T. Schon, F. Gustafsson, und P. Slycke, „Sen-
sor Fusion for Augmented Reality“, in 2006 9th In-
ternational Conference on Information Fusion, Flo-
rence, 2006, S. 16.
[29] A. Martinelli, „Vision and IMU Data Fusion:
Closed-Form Solutions for Attitude, Speed, Absolute
Scale, and Bias Determination“, IEEE Trans. Robot.,
Bd. 28, Nr. 1, S. 4460, Feb. 2012.
[30] E. Arkenbout, J. de Winter, und P. Breedveld, „Ro-
bust Hand Motion Tracking through Data Fusion of
5DT Data Glove and Nimble VR Kinect Camera
Measurements“, Sensors, Bd. 15, Nr. 12, S. 31644
31671, Dez. 2015.
Vergleich von haptischen Steuerungsvarianten zur manuellen Bedienung von
Robotersystemen
Wabnitz, Philipp; Heine, Andreas; Berger, Maik
In: IFToMM D-A-CH Konferenz / Fünfte IFToMM D-A-CH Konferenz 2019
Dieser Text wird über DuEPublico, dem Dokumenten- und Publikationsserver der Universität
Duisburg-Essen, zur Verfügung gestellt.
Die hier veröffentlichte Version der E-Publikation kann von einer eventuell ebenfalls
veröffentlichten Verlagsversion abweichen.
DOI: https://doi.org/10.17185/duepublico/48198
URN: urn:nbn:de:hbz:464-20190222-110045-5
Link: https://duepublico.uni-duisburg-essen.de:443/servlets/DocumentServlet?id=48198
Lizenz:
Sofern nicht im Inhalt ausdrücklich anders gekennzeichnet, liegen alle Nutzungsrechte bei den Urhebern bzw.
Herausgebern. Nutzung - ausgenommen anwendbare Schrankenregelungen des Urheberrechts - nur mit deren
Genehmigung.
ResearchGate has not been able to resolve any citations for this publication.
Article
Full-text available
Zusammenfassung Kollaborierende Robotersysteme werden der Industrie 4.0 zugeordnet und bieten neue Möglichkeiten zur Gestaltung von Arbeit. Unternehmen erhoffen sich durch sie eine Steigerung ihrer Produktivität, für Beschäftigte bedeuten sie eine Möglichkeit zur Verbesserung der Ergonomie von Arbeitsplätzen. In diesem Beitrag werden Anforderungen an die Arbeitsorganisation für Tätigkeiten mit kollaborierenden Robotern aufgeführt und die Notwendigkeit einer sicheren Arbeitsplatzgestaltung diskutiert. In diesem Rahmen wird ein Schwerpunkt auf Einsatzmöglichkeiten zur Verbesserung der Ergonomie gelegt und diese mit ausgewählten Praxisbeispielen aus der deutschen Metall- und Elektroindustrie verdeutlicht. Der Artikel verfolgt damit die Zielstellung, die Thematik praxisgerecht aufzubereiten für Anwender, welche die Einführung kollaborierender Roboter planen und somit einen Überblick über arbeitswissenschaftliche Sichtweisen benötigen. Hierfür wird ein Vorgehensmodell vorgestellt, anhand dessen die Prüfung auf MRK-Eignung erfolgen kann. Praktische Relevanz. Der Einsatz kollaborierender Robotersysteme ist vor allem für Arbeitsplätze mit ausreichend großen Stückzahlen bei gleichzeitig hohem manuellen Handarbeitsaufkommen von Interesse. Diese Arbeitsplätze finden sich vielseitig in Industrie und Handwerk, wodurch sich die zunehmende Verbreitung der Mensch-Roboter-Kollaboration in den letzten Jahren und die erwartete zunehmende Bedeutung in der Zukunft erklären lassen. Häufig sind jedoch Interessenten bzw. Anwender in den Unternehmen nicht ausreichend informiert, welche sicherheitsrelevanten Anforderungen zu erfüllen sind und welche Möglichkeiten es darauf aufbauend gibt, die Ergonomie im Sinne ihrer Arbeitnehmer zu verbessern. Der Artikel liefert einen Beitrag zur Deckung dieser Informationslücke und zeigt anschaulich, welche Chancen kollaborierende Robotersysteme für die Arbeitsgestaltung bieten.
Chapter
Full-text available
Die fortschreitende Automatisierung in der Produktion und Fertigung der zurückliegenden Jahrzehnte wurde unter anderem durch den vehementen Einsatz von Industrierobotern vorangetrieben. Dabei existiert heute weitestgehend eine saubere Trennung, beispielsweise durch entsprechende Sicherheitszäune zwischen robotischen und menschlichen Arbeitsplätzen. Eine direkte Interaktion während der Arbeitsprozesse soll bewusst nicht stattfinden. Diese Trennung symbolisiert durchaus auch das Pardigma der industriellen Automatisierung. Gesamte Arbeitsschritte, wie das Schweißen oder Lackieren von Autoteilen, werden vollautomatisiert und die manuelle Arbeit komplett entfernt. Die Arbeiter besetzen die Automatisierunglücken, d. h. diejenigen Arbeitsprozesse, die entweder aufgrund ihrer Komplexität technologisch oder aufgrund der großen Variantenvielfalt der zu bearbeiten Werkstücke wirtschaftlich nicht zu automatisieren sind. Dass Roboter und Arbeiter nicht nur nebeneinander co-existieren, sondern auch physisch miteinander, d. h. kooperativ, interagieren können, wird mit Hilfe von Beispielen aufgezeigt. Anhand dieser Beispiele wird deutlich, dass neue technologische Entwicklungen das gesamte Spektrum von Mensch–Roboter-Interaktionen abdecken können, vom einfachen Instruieren über das physische Interagieren hin zu einer echten Kooperation
Article
Full-text available
In some complicated tabletop object manipulation task for robotic system, demonstration based control is an efficient way to enhance the stability of execution. In this paper, we use a new optical hand tracking sensor, LeapMotion, to perform a non-contact demonstration for robotic systems. A Multi-LeapMotion hand tracking system is developed. The setup of the two sensors is analyzed to gain a optimal way for efficiently use the informations from the two sensors. Meanwhile, the coordinate systems of the Mult-LeapMotion hand tracking device and the robotic demonstration system are developed. With the recognition to the element actions and the delay calibration, the fusion principles are developed to get the improved and corrected gesture recognition. The gesture recognition and scenario experiments are carried out, and indicate the improvement of the proposed Multi-LeapMotion hand tracking system in tabletop object manipulation task for robotic demonstration.
Article
Full-text available
Gesture based natural human-robot interface is an important function of robot teleoperation system. Such interface not only enables users to manipulate a remote robot by demonstration, but also ensures user-friendly interaction and software reusability in developing a networked robot system. In this paper, an application of gesture-based remote human-robot interaction is proposed using a Kinect sensor. The gesture recognition method combines depth information with traditional Camshift tracking algorithm by using Kinect and employs HMM in dynamic gesture classification. A Client/Server structured robot teleoperation application system is developed, which provides a favorable function of remotely controlling a dual-arm robot by gestural commands. Experiment results validate the practicability and effectiveness of the application system.
Article
Full-text available
Haptic displays are emerging as effective interaction aids for improving the realism of virtual worlds. Being able to touch, feel, and manipulate objects in virtual environments has a large number of exciting applications. The underlying technology, both in terms of electromechanical hardware and computer software, is becoming mature and has opened up novel and interesting research areas. In this paper, we clarify the terminology of human and machine haptics and provide a brief overview of the progress recently achieved in these fields, based on our investigations as well as other studies. We describe the major advances in a new discipline, Computer Haptics (analogous to computer graphics), that is concerned with the techniques and processes associated with generating and displaying haptic stimuli to the human user. We also summarize the issues and some of our results in integrating haptics into multimodal and distributed virtual environments, and speculate on the challenges for the future.
Conference Paper
Full-text available
Die industrielle Montage ist durch Konkurrenzdruck und die dadurch erwachsende Notwendigkeit der wirtschaftlichen Optimierung in ständigem Wandel. Wenn bei Produkten die manuellen Montagekosten einen wesentlichen Posten in der Kostenstruktur ausmachen, werden Fertigungen z.B. in Regionen mit günstigeren Lohnkosten verlegt. Bislang hat sich aber für manche Produktgruppen, wie beispielsweise 3C Erzeugnisse (Computer, Communication, Consumer Electronics) für die Montage noch keine Automatisierung durchsetzen können. Die heutigen Anforderungen an Flexibilität der Produktion, durch sinkende Losgrößen und steigende Variantenvielfalt machen eine Investition in Automatisierung unrentabel. Dauernde Umstellung der Produktion ist mit gängigen Automatisierungsparadigmen, auch mit der konventionellen Industrierobotik, nicht wirtschaftlich vereinbar. Durch die Entwicklung von kleineren, sogenannten „kollaborierenden“ Robotern, die unter gewissen Voraussetzungen für den Einsatz in gemischter Umgebung mit Menschen geeignet sind, ändert sich dieses Bild und neue Möglichkeiten kommen auf. Diese neuartigen Roboter sind gekennzeichnet durch konstruktive oder sicherheitstechnisch geregelte Harmlosigkeit, d.h. im Kontaktfall können sie dem Werker keine Verletzungen zufügen. Der Betrieb ohne trennende Schutzeinrichtungen ist möglich und ist ein wesentlicher Beitrag zur Wirtschaftlichkeit und Flexibilität dieser neuen Art von skalierbarer Automatisierung. Dieser Beitrag beschreibt Ansätze zu geeigneten Robotern für die direkte Mensch-Roboter-Kollaboration in der industriellen Montage von Kleingeräten. Das Sicherheitskonzept des ABB Dual-Arm Concept Robot wird beschrieben und in den Kontext der Robotersicherheitsnorm, ISO 10218-1, sowie die gegenwärtig entstehende Ergänzung, ISO/TS 15066, gestellt. Die biomechanischen Kriterien, anhand derer eine kollaborierende Applikation ausgelegt werden kann, sind der Gegenstand heutiger Forschungen im Bereich der Arbeitsmedizin. Doch mehr als nur die Sicherheit der Werker spielt bei zukünftigem Erfolg oder Misserfolg von kollaborierenden Robotern in der Kleinteilmontage eine Rolle. Die Fertigung muss natürlich produktiv sein, was auf einigen weiteren Faktoren gründet. Am wichtigsten dürfte dabei die Akzeptanz der neuartigen Roboter durch die menschlichen Werker sein. Es muss positiv belegt sein, in einer gemischten Mensch-Roboter Fertigungsumgebung zu arbeiten. Die Ergonomie der Arbeitsplätze, sowie auch die Ergonomie des Roboterverhaltens selber spielen hierbei voraussichtlich eine wichtige Rolle. Des Weiteren müssen ungewollte Abschaltungen, beispielsweise als Reaktion auf ein zwar harmloses, aber die Produktion unterbrechendes Kontaktereignis nach Möglichkeit vermieden werden. Schließlich muss bei der Auslegung der teilautomatisierten Produktion klar sein, welche Montageschritte besser von einem Roboter und welche besser von einem Menschen ausgeführt werden sollen. Dafür werden quantitative Kriterien und simulationsähnliche Werkzeuge notwendig sein, denn bei häufiger Umstellung muss der erste Wurf gut genug sein. Es bleibt für eine kontinuierliche Optimierung keine Zeit – die Betriebsdauer einer Produktion in einer Konfiguration wird dafür zu gering sein. In diesem Spannungsfeld stellen sich eine Reihe interessanter neuer Forschungsfragen, die im Beitrag beschrieben warden und den Ausblick auf die weiteren Entwicklungen darstellen.
Article
In this paper we present a new visuo-haptic interaction mechanism for human-robot formation control. The formation setup consists of a human leader and multiple follower robots. The mobile robots are equipped only with RGB-D cameras, and they should maintain a desired distance and orientation to the leader at all times. Mechanical limitations common to all the robots limit the possible trajectories that the human can take. In this regard, vibrotactile feedback provided by a haptic bracelet guides the human along trajectories that are feasible for the team by warning her/him when the formation constraints are being violated. Psychophysical tests on the bracelet together with real-world experiments conducted with a team of Pioneer robots show the effectiveness of the proposed visuo-haptic paradigm for the coordination of mixed human-robot teams.
Article
This paper proposes a teleimpedance controller with tactile feedback for more intuitive control of the Pisa/IIT SoftHand. With the aim to realize a robust, efficient and low-cost hand prosthesis design, the SoftHand is developed based on the motor control principle of synergies, through which the immense complexity of the hand is simplified into distinct motor patterns. Due to the built-in flexibility of the hand joints, as the SoftHand grasps, it follows a synergistic path while allowing grasping of objects of various shapes using only a single motor. The DC motor of the hand incorporates a novel teleimpedance control in which the user’s postural and stiffness synergy references are tracked in real-time. In addition, for intuitive control of the hand, two tactile interfaces are developed. The first interface (mechanotactile) exploits a disturbance observer which estimates the interaction forces in contact with the grasped object. Estimated interaction forces are then converted and applied to the upper arm of the user via a custom made pressure cuff. The second interface employs vibrotactile feedback based on surface irregularities and acceleration signals and is used to provide the user with information about the surface properties of the object as well as detection of object slippage while grasping. Grasp robustness and intuitiveness of hand control were evaluated in two sets of experiments. Results suggest that incorporating the aforementioned haptic feedback strategies, together with user-driven compliance of the hand, facilitate execution of safe and stable grasps, while suggesting that a low-cost, robust hand employing hardware-based synergies might be a good alternative to traditional myoelectric prostheses.
Conference Paper
Tactile feedback from a remotely controlled robotic arm can facilitate certain tasks by enabling the user to experience tactile or force sensations from the robot's interaction with the environment. However, equipping both the robot and the user with tactile sensing and feedback systems can be complex, expensive, restrictive and application specific. This paper introduces a new tele-operation haptic feedback method involving electro-tactile feedback. This feedback system is inexpensive, easy to setup and versatile in that it can provide the user with a diverse range of tactile sensations and is suitable for a variety of tasks. We demonstrate the potential of our electro-tactile feedback system by providing experimental results showing how electro-tactile feedback from a tele-operated robotic arm equipped with range sensors can help with avoiding obstacles in cluttered workspace. We also show how interactive tasks, like placing a peg in a hole, can be facilitated with electro-tactile feedback from force sensors.