Roboter als Werkzeuge für die Werkstatt
Roboter sind noch meist Werkzeuge der großindustriellen Serienfertigung. Vor allem die aufwendige und wenig ergonomische Programmierung, die geringe Ausstattung mit Sensoren und die mangelnde Flexibilität gegenüber einer sich ändernden Umgebung erschweren ihre Anwendung in kleineren Werkstätten und bei Service-Unternehmen. Doch die Wirtschaft ist im Wandel begriffen: Große Unternehmen geben Kompetenzen an kleine und mittlere ab, neben der Fertigung von Waren wächst der Dienstleistungsbereich zu einem immer wichtigeren Wirtschaftszweig heran. Weil die menschliche Arbeitskraft sehr teuer – und auch nicht für jede Umgebung geeignet – ist, suchen Automatisierungsexperten deshalb nach neuen Konzepten. Diese enthalten meistens moderne Regelungs- und Bildverarbeitungstechniken wie Fuzzy Logic, einige orientieren sich aber auch etwa an Insekten, um Robotern Autonomie zu verleihen.
Mechanische Abbilder des Menschen als Arbeiter in Fabriken und Werkstätten waren ein langgehegter Traum. Der tschechische Schriftsteller Karel Capek (1890 bis 1938) erfand aus dem tschechischen Wort für Fronarbeit robota 1920 den Begriff des Roboters für sein Theaterstück "R.U.R." (Rossum's Universal Robots). Männliche wie weibliche Exemplare sollten, laut Regieanweisung, unermüdlich arbeiten, ohne zu schwitzen oder zu stöhnen, gleichförmig und mit starrem Blick.
Maschinenmenschen bevölkern inzwischen zwar die Science-fiction-Welt und tauchen immer wieder in manchen Experimentalstudien auf. Aber die Industrieroboter in Fabriken und Werkstätten sind lediglich periodisch ganz bestimmte Tätigkeiten ausübende, schnelle und präzise Handhabungswerkzeuge, im Unterschied zu rein automatischen Vorrichtungen programmierbar und mit mehr Freiheitsgraden der Bewegung ausgestattet.
Elektronische Steuerung
Die Steuerung einer kombinierten Hand-Arm-Bewegung ist so komplex, daß es der Entwicklung der Mikrocomputer bedurfte, bis eine entsprechende Elektronik wirtschaftlich wurde. Industrieroboter als Bewegungsautomaten in Produktionsstätten gibt es darum erst seit 20 Jahren.
Die ersten Steuerungen waren wie die damaligen Prozeßrechner in Bit-Slice-Technik aufgebaut (dabei wurden die Bits eines Datenwortes in mehreren Rechenbausteinen verarbeitet) oder mit den 4-Bit-Prozessoren der ersten Mikroprozessor-Generation ausgestattet (diese Angabe bezieht sich auf die Datenbreite der zentralen Prozessoreinheit). Heute gibt es Mehrprozessor-Steuerungen in 32-Bit- oder 64-Bit-Technik.
Besonders hohe Rechenleistung erfordert die schnelle Berechnung von Stellsignalen für die Antriebsmotoren, um Teilbewegungen in den Gelenken von Hand und Arm des Roboters aufeinander abzustimmen und so die Bewegung des Werkzeugs zu steuern (Bild 1). Der Regelfall ist, daß entsprechend den sechs Freiheitsgraden der Bewegung – drei für die Position und drei für die Orientierung – sechs Antriebe (Roboter-Achsen) so zu betätigen sind, daß zum Beispiel gerade Strecken (Liniensegmente) oder Kreisbögen im Arbeitsraum des Roboters abgefahren und in beliebiger Folge aneinandergefügt werden können. Die Bewegung soll meistens harmonisch, also ruckfrei, von einem Bahnsegment in das andere überwechseln. Dazu wählt die Steuerung Geschwindigkeiten und Beschleunigungen so, daß vorgegebene Verrundungsradien an den Übergangsstellen genau eingehalten werden.
Die Gelenkwinkelwerte (Bild 2 links) müssen dafür mit sieben- bis achtstelliger Genauigkeit im Takt von wenigen Millisekunden bestimmt werden. Die Bahn (Trajektorie) des sogenannten Endeffektors, einer Roboterhand oder eines Werkzeugs, wird von der Steuerung als Folge von Raumvektoren in einem ortsfesten Koordinatensystem (Weltkoordinaten) ermittelt und fortlaufend in die aktuellen Gelenkwinkel des Roboters umgerechnet.
Mit der Angabe von Raumvektoren ist die Stellung des Roboters allerdings noch nicht eindeutig festgelegt (Bild 2 rechts): Er kann dem Werkzeug ein und dieselbe Position und Orientierung durch mehrere Achsstellungen geben. Zur eindeutigen Beschreibung verwendet man deshalb steuerungsintern spezielle Koordinatensysteme und Vorschriften, etwa hinsichtlich der erlaubten Reihenfolge von Drehungen.
Teach-in-Programmierung
Für die meisten Anwendungen erstellt und programmiert man die Bewegungsabfolge vor Ort in der Roboter-Arbeitszelle, indem der Programmierer das Gerät zunächst manuell von Bahnpunkt zu Bahnpunkt steuert und ein Rechner sich diese Bewegungen merkt (Bild 3 links); man spricht dann von Teach-in-Programmierung. Um Kollisionen der Hand oder des Arms mit anderen Objekten in der Zelle zu vermeiden, müssen sämtliche peripheren Geräte wie Schweißanlagen und Fördereinrichtungen schon installiert sein.
Doch in dieser Phase ist das System nur ein extrem teurer Programmier-Arbeitsplatz, denn die Maschinen fallen derweil für die Produktion aus. Zudem beläuft sich der Zeitaufwand im günstigsten Fall von Programmoptimierungen auf wenige Stunden, immerhin auf mehrere Tage, wenn Teilaufgaben sich sehr ähneln oder Programme für vergleichbare Tätigkeiten nur zu modifizieren sind, und sogar auf mehrere Wochen bei der Neueinrichtung von Arbeitszellen. Deshalb setzt man Roboter vor allem in der Großserienfertigung wie beispielsweise in Lackierkammern oder für das Schweißen von Karosserieblechen ein, denn dann fallen in der folgenden Nutzungszeit von rund zehn Jahren nur noch geringfügige Anpassungen an.
Off-line-Programmierung
Um Stillstandszeiten zu reduzieren, versucht man seit Jahren, zumindest Teilaufgaben off-line – also fern vom Roboter-Arbeitsplatz – auf einem Personal Computer oder einer Workstation zu entwickeln. Häufig erstellt man ein textuelles Programmgerippe, das beispielsweise alle Befehle für das Schalten der Greifer und der Werkzeuge enthält, jedoch noch keine Zahlenangaben für die Bewegungsoperationen liefert. Diese werden erst anschließend in einer Teach-in-Phase manuell festgelegt.
Bei vollständiger Off-line-Programmierung simuliert man hingegen Zelle samt Inventar und Bearbeitungsprozeß auf einer Hochleistungs-Workstation (Bild 3 rechts). Die beabsichtigte Tätigkeit des Roboters wird dabei virtuell am Bildschirm durchgespielt und optimiert, bis das Programm der Bewegungen komplett ist und in der realen Zelle automatisch ablaufen kann. Allerdings ist die Abbildung der wirklichen Szene und des realen Roboters auf dem Simulationsrechner noch recht ungenau und eine korrekte Werkstück- und Aufgabenbeschreibung schwierig.
Steuerung mit Sensoren
Meßfühler und eine in die Roboter-steuerung integrierte Wissensbasis mit einem Expertensystem könnten theoretisch die Bewegungs- und Prozeßführung weitgehend übernehmen. Davon ist die industrielle Wirklichkeit aber noch sehr weit entfernt; fraglich ist zudem, ob das Konzept sich je gänzlich realisieren ließe und ob das erstrebenswert wäre.
Wohl gibt es bereits Roboter, die durch berührende und bildverarbeitende Systeme Werkstücke, deren Fehler sowie Hindernisse und anderes mehr erkennen. Sie gelten demnach im technischen Sprachgebrauch bereits als "intelligent" (Bild 4); im Sinne von erkennend, gescheit und erfahren sind sie das aber nicht. Im Regelfall sind solche Sensorsysteme auf sehr spezifische Einsätze in der Serienfertigung beschränkt und nur geeignet, Abweichungen vom programmierten Normalfall selbsttätig zu erfassen und zu korrigieren.
Für Einzelfälle gibt es allerdings eine Vielzahl effizienter Lösungen mit Sensoren. Ein Beispiel sind Meßtaster, die vor Arbeitsbeginn aktuelle Abweichungen beim Aufspannen des Werkstücks ermitteln, um den Bewegungsablauf des Roboters automatisch zu korrigieren. Beim Laser-Schneiden wiederum muß der Brennpunkt des Strahls stets der aktuellen Werkstückoberfläche folgen; das erreicht man mit einem kapazitiven oder pneumatischen Abstandssensor in der Spitze des Strahlwerkzeugs (Bild 5): Anhand des Meßsignals wird die Roboterbahn permanent so nachkorrigiert, daß der Abstand konstant bleibt.
Sensoren können im Werkzeug, ihm vorlaufend, ortsfest oder mit eigenem Bewegungsarm angebracht werden. Die ersten drei Varianten schränken die Anwendung ein.
Meßgeräte, die sich im Werkzeug befinden und physikalische Größen wie etwa Kräfte am Berührpunkt von Werkzeug und Werkstück erfassen, melden das Ereignis meist zu spät – es sei denn, die Arbeitsgeschwindigkeit würde niedrig angesetzt, oder man nähme große Fertigungstoleranzen in Kauf. Beides wäre wirtschaftlich ruinös.
Sensoren, die dem Werkzeug in Bewegungsrichtung vorgesetzt sind, geben zwar rechtzeitig Korrektursignale, sind aber nur für relativ einfache Werkstücke ohne innenliegende Ecken und mit nur leichten Krümmungen geeignet. Bei stark gekrümmten Bahnverläufen verlieren sie das Beobachtungsfeld, und bei Innenecken sind Kollisionen mit dem Werkstück unvermeidlich.
Ortsfeste Sensoren schließlich haben entweder ein großes Blickfeld mit sehr geringer Ortsauflösung oder umgekehrt bei hoher Detailerkennung ein sehr beschränktes. Außerdem liegen dabei immer wieder Bereiche der Arbeitszelle vom Sensor aus gesehen hinter dem Roboterarm oder dem Werkstück.
Eine universell brauchbare Variante wäre also eigentlich nur ein bildverarbeitendes Sensorsystem mit eigener Kinematik, das dem Bearbeitungsprozeß selbständig folgt. Solche Systeme stehen aber dem industriellen Anwender noch nicht zur Verfügung und wären derzeit auch kaum ökonomisch. Deswegen ist es um die intelligente Industrieroboter-Führung mittels Sensoren recht still geworden. Anders verhält es sich in der Forschung; hier ist autonome Robotik nach wie vor ein wichtiges Arbeitsgebiet.
Roboter für die Werkstattarbeit
Ein wichtiger Aspekt bei der Programmentwicklung ist die Mensch-Maschine-Kommunikation; sie erfolgt in den meisten Fällen über ein Display per Text, oft in englischer Sprache und nur selten mittels selbsterklärender Bildsymbole (sogenannter Icons). Die Steuerpulte für das Teach-in (Programmier-Handgeräte) gleichen aber eher einer Schreibmaschinentastatur als einem Gerät, das werker- und aufgabengerecht benutzt werden kann. Wenn man den Roboter manuell steuert, muß man ihn aber im Auge behalten und kann nicht unter häufigem Blickwechsel Tasten bedienen. Ein Handrad zur Bewegungssteuerung, vergleichbar dem Lenkrad im Auto, wäre darum besser geeignet.
Es fehlt bei heutigen Geräten zudem an geeigneten optischen, akustischen und haptischen (ertastbaren) Rückmeldesignalen. Wenn die Roboterbewegung schwer geht, sollte dies dem Werker vermittelt werden, und zwar nicht nur durch Zahlen auf einem Display, sondern etwa durch ein schwerer drehbares Steuerhandrad. Generell wäre es wünschenswert, den Menschen den Aufgaben und seinen Sinnen gemäß anzusprechen. So könnten Prozeßrückmeldungen in künstlicher Sprache gegeben werden, indem Sensorsignale Sprachmodule aktivieren, die aktuelle Probleme mitteilen, ohne daß man sich vom Geschehen abwenden müßte.
Solche technischen Mittel sind im Prinzip vorhanden. Die ergonomische Gestaltung von Hard- und Software, Thema auch des vom Bundesforschungsministerium geförderten Projekts "Verbesserte, benutzerorientierte Roboterprogrammierung", läßt allerdings noch stark zu wünschen übrig. Damit die Roboter-steuerungen den Ansprüchen in der Werkstatt gerecht werden, müssen beispielsweise die Nutzer bei der Entwicklung von Schnittstellen frühzeitig einbezogen werden. Bei dem Forschungsprojekt wurden darum repräsentative Testgruppen gebildet und auch Minderheiten, etwa ältere Mitarbeiter und Frauen, berücksichtigt. Ein Kriterienkatalog half, bei ihrer Befragung und Beobachtung zu konkreten Verbesserungsvorschlägen zu kommen.
Der Grundgedanke dabei war, daß die Interaktionen der Menschen mit den Maschinen in der jeweiligen Arbeitsumgebung nicht nach den Aspekten Nutzer, Aufgaben und Werkzeuge getrennt betrachtet werden sollten. Hard- und Software sind vielmehr so aufeinander abzustimmen, daß sie als Ganzes ergonomisch, also menschen- und aufgabengerecht gestaltet sind. Dann erkennen spätere Nutzer auch die Bedeutung ihrer Tätigkeit, erhalten Rückmeldungen über den eigenen Arbeitsfortschritt und werden dadurch besser motiviert.
Erst Roboter mit solchen Mensch-Maschine-Schnittstellen werden sich in mittelständischen Unternehmen und kleineren Werkstätten durchsetzen. Diese wären dann auch dafür gerüstet, daß ihnen als Arbeitsunterlage nicht mehr Konstruktionszeichnungen vom Brett mit Drauf- und Seitenansicht zugehen, sondern Datensätze über den Netzanschluß, so daß das Werkstück volumen- und flächenmodelliert sowie farbschattiert sogleich auf dem Bildschirm der Work- station erscheint. Diese graphische Repräsentation kann der Werker auf Herstellverfahren begutachten, geeignete Produktionsmaschinen aussuchen, Werkzeuge festlegen und den Bearbeitungsprozeß zunächst virtuell durchführen und optimieren; aufgrund seines meist besseren Prozeßwissens nähme er in Abstimmung mit den Konstrukteuren auch Veränderungen am Werkstück vor.
Dabei wird er sich nicht einer textuellen, sondern bildhaften Eingabetechnik bedienen, die sich mit seinen Erfahrungen weitgehend deckt. Er muß keine syntaktischen Regeln mehr lernen, sondern handelt seinem Beruf entsprechend. Beispielsweise hat er nicht mehr zu bedenken, eine Frässpindel per Programmbefehl einzuschalten, bevor die Arbeitsbewegung startet, denn in der Simulation sieht er unmittelbar, daß keine Späne entstehen, die Spindel also nicht geschaltet ist.
So verliert das Formale, das heute im Umgang mit Robotern noch dominiert, an Bedeutung. Fachkenntnisse, Geschicklichkeit und Fingerspitzengefühl werden wieder wichtig; die Verantwortlichkeit des Anwenders wächst mit der Qualifikation, und die einzelne Werkstatt gewinnt Autonomie – dort muß letztlich entschieden werden, welche Tätigkeiten der Roboter zu leisten hat und welche besser manuell ausgeführt werden.
Aus: Spektrum der Wissenschaft 3 / 1995, Seite 96
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben