Wie können Automatisierer KI-Modelle intuitiv entwickeln und in die Steuerung integrieren? Wie lässt sich überschüssige Energie im Antriebsverbund wieder...
Wo liegt das Teil genau? An welcher Stelle fasst man es am besten an? Ist für die Aufnahme ausreichend Platz oder liegt ein anderes Teil im Weg? All diese Informationen benötigt ein Roboter, um ein Teil von einem Förderband oder einem Vibrationsförderer aufzunehmen. Geliefert bekommt er sie von einem bildverarbeitenden Vision-Sensor. Das Problem dabei: Sensor und Roboter arbeiten mit verschiedenen Koordinatensystemen und Maßeinheiten. Der Ursprung (0,0) der Sensorkoodinaten liegt beispielsweise in
der Bildmitte oder in der oberen linken Bildecke und Längenangaben werden in Bildpixeln ausgegeben; der Roboter hingegen benötigt alle Angaben in Millimetern und bezogen auf einen realen Ort in der Welt, zum Beispiel seinen Fußpunkt.
Zur Konfiguration einer Pick-and-Place-Anwendung gehört somit zwingend eine Koordinatentransformation von Bild- in Roboterkoordinaten. Diese bedeutete bisher einen nicht unerheblichen Programmieraufwand, denn neben der Teileposition müssen in der Robotersteuerung auch Faktoren wie die perspektivische Bildverzerrung aufgrund eines schrägen Sensor-Blickwinkels sowie die, vor allem bei kleinen Brennweiten auftretende, signifikante Kissenverzeichnung des Sensorobjektivs berücksichtigt werden – eine mathematisch anspruchsvolle und entsprechend zeitaufwändige Aufgabe.
Kalibrierung im Sensor statt
Programmierung in der Steuerung
Bei der Einrichtung einer Pick-and-Place-Anwendung bei einem süddeutschen Automobilzulieferer wurde nun erstmals ein anderer Weg beschritten. Anstatt die Koordinatentransformation in der Steuerung des eingesetzten Sechsachs-Roboters vorzunehmen, wurde sie in den Sensor verlagert. Zum Einsatz kommt dabei ein Vision-Sensor der Reihe Visor des Herstellers Sensopart,
der über eine entsprechende Kalibrierfunktion verfügt. Damit ließ sich der Einrichtungsaufwand auf ein Minimum reduzieren, da die sonst händisch zu erstellenden Routinen bereits im Sensor vorkonfiguriert sind und lediglich an den konkreten Einsatzfall angepasst werden müssen. Dies geschieht in der Visor-Konfigurationssoftware mit Hilfe einer sogenannten Punktepaarliste. Dabei handelt es sich um eine Liste korrespondierender Punkte in Bild- und Roboterkoordinaten. Ein Punktepaar in der Liste wird erzeugt, indem der Roboter ein geeignetes Kalibrierteil – zum Beispiel ein rotationssymmetrisches, gut zu greifendes Teil – an einer beliebigen Position im Sichtfeld des Sensors ablegt. Die Position des Roboters wird aus der Robotersteuerung übernommen und in die Spalte der Weltkoordinaten der Punktepaarliste eingetragen. Danach wird die entsprechende Position im Sensorbild mit Hilfe einer grafischen Snap-Funktion ermittelt und in der Spalte der Bildkoordinaten den Roboterkoordinaten zugeordnet.
Automatische
Kompensation und einfache Anpassungen
Damit ist ein Punktepaar bestimmt. Dieser Ablauf wird nun noch mindestens fünfmal wiederholt, sodass am Ende wenigstens sechs Punktepaare in der Liste stehen. Sobald diese Mindestanzahl erfasst ist, errechnet der Sensor die Koordinatentransformation und kompensiert zugleich eine perspektivische Verzerrung und Objektivverzeichnung. Jede weitere Teileposition wird dem Roboter nun in seinem eigenen Koordinatensystem übermittelt, sodass er die Teile ohne weitere Umrechnung direkt greifen kann.
Der beschriebene Kalibriervorgang kann auch mittels Schnittstellenkommandos, etwa via Ethernet, Profinet oder EtherNet/IP, von
der Robotersteuerung aus automatisiert ausgeführt werden. Die Punktepaarliste wird dabei „im Dialog“ zwischen Roboter und Sensor automatisch gefüllt. Dies ist sehr praktisch bei einem Umbau oder einer Nachjustage von Anwendungen, beispielsweise wenn nach einer Erstkalibrierung durch den Integrator eine Rekalibrierung durch den Maschinenbediener vorgenommen werden soll.
Sollten sich die realen Teile geometrisch vom Kalibrierteil unterscheiden oder Teileformen häufiger wechseln, lässt sich die Kalibrierung auch auf einfache Weise anpassen: Dafür kann ein vertikaler Versatz – z-Versatz, positiv oder negativ – zwischen Kalibrier- und Messebene berücksichtigt werden. Außerdem ist eine Greifpunktkorrektur (Offset) möglich, falls das Teil nicht mittig, sondern zum Beispiel an einem seitlichen Anfasser gegriffen werden soll. In solchen Fällen kann mit einer weiteren Funktion der verfügbare Freiraum rund um das zu greifende Teil überprüft werden. Übereinander oder zu eng aneinander liegende Teile werden vom Sensor dann gar nicht erst an den Roboter gemeldet.
Hoher Effizienzgewinn bei der Sensor-Einrichtung
Die Intelligenz von Vision-Sensoren hat in den letzten Jahren stetig zugenommen, sodass sie dem Anwender immer mehr komplexe Aufgaben abnehmen können. Die Kalibrierfunktion der Visor-Reihe ist hierfür ein gutes Beispiel: Sie vermindert den Einrichtungsaufwand von Pick-and-Place-Anwendungen erheblich und der Programmieraufwand in der Robotersteuerung oder SPS kann komplett entfallen. Die Routine für die Koordinatentransformation einschließlich Korrekturfunktionen ist dafür bereits im Sensor hinterlegt und muss nur noch einmalig mit einem einfachen Teach-in-Vorgang an die reale Anwendung angepasst werden. Damit ergeben sich sowohl für Anwender als auch für Integratoren signifikante Effizienzvorteile. ik
Weitere Informationen zu den Vision-Sensoren und -Systemen von Sensopart: