Sensor-Fusion und -Integration

Sensorik liefert den Rohstoff für IoT und die Fabrik der Zukunft

Anzeige
Schaut man in die einschlägige Online-Enzyklopädie, bekommt man eine erste Definition: Bei integrierter Sensorik handelt es sich um eine Technik, mithilfe von Sensoren Veränderungen an Systemen zu messen bzw. zu kontrollieren. Sensorik ist überall im Einsatz: im Automobil, in der Medizintechnik aber auch in der Prozess- oder Industrieautomation. Das Spektrum reicht dabei von einfachen, binär schaltenden Komponenten bis hin zu komplexen Mess- und Analysesystemen. Dabei hat die moderne Mikroelektronik die Leistungsfähigkeit der Sensorik massiv gesteigert.

Andreas Gees, stellvertretender Chefredakteur KEM Konstruktion

Inhaltsverzeichnis

1. Integrierte Sensorik in Fahrzeugen
2. Kameras für PKW und LKW sowie für Land-, Bau- und Bergbaumaschinen
3. Sensorfusion in der Produktion
4. Bildverarbeitung im Industrieumfeld
5. Bildaufnahme unmittelbar mit der Bildverarbeitung vereint
6. Sensor-Integration als Zukunftsthema

 

Als Sensordatenfusion wird darüber hinaus die Verknüpfung der Ausgabedaten mehrerer Sensoren bezeichnet. Ziel ist fast immer die Gewinnung von Informationen besserer Qualität. Der Nutzen hängt jedoch immer von der eigentlichen Applikation ab: So können beispielsweise bei der Flugsicherung die Daten zweier Radaranlagen zur Erfassung eines größeren Detektionsbereiches fusioniert werden. Eine andere Anwendung der Sensordatenfusion besteht beispielsweise in der Kombination von Kamera- und Radardaten, um Objekte zu klassifizieren und die Detektionsleistung des Sensorsystems zu erhöhen.

Die Auswahl geeigneter Sensoren erfolgt immer auf der Basis der Anforderungen der Applikation. Dabei stehen neben der Genauigkeit des Sensorsystems und der eingesetzten Technologie auch die Kosten im Vordergrund. Mithilfe mehrerer Sensoren lässt sich die Zuverlässigkeit eines Gesamtsystems steigern. Darüber hinaus ist es einfacher, den Ausfall eines Sensors zu erkennen. Arbeiten mehrere Sensoren nach unterschiedlichen Messprinzipien, lässt sich auch die Detektionswahrscheinlichkeit steigern. Dann werden auch solche Fehler vom Gesamtsystem erkannt, die einzelne Sensoren aufgrund ihrer Technlogie oder von Umweltbedingungen nicht erkennen würden. Systeme werden intrinsisch sicher. Die Verwendung mehrerer Sensoren vergrößert außerdem den Erkennungsbereich des Gesamtsystems und erlaubt den Ausschluss mehrdeutiger Ergebnisse.

Integrierte Sensorik in Fahrzeugen

Ein besonders anschauliches Beispiel für integrierte Sensorik stellt die Entwicklung von Fahrerassistenz-Systemen für autonome Fahrzeuge dar. Automobil- und Nutzfahrzeughersteller, aber auch die Spezialisten für mobile Arbeitsmaschinen und Transportsysteme arbeiten weltweit an autonomen Lösungen. Selbstfahrende Autos, die lenken, beschleunigen oder bremsen können, werden durch moderne Fahrerassistenzsysteme erst möglich. Sie sollen den Komfort, Sicherheit aber auch die Wirtschaftlichkeit von Fahrzeugen aller Art verbessern. Die Vernetzung solcher Fahrzeuge mit ihrer Umwelt sorgt für die Mobilität der Zukunft. Das alles ist jedoch nicht ohne leistungsfähige bzw. integrierte Sensorik möglich.

Kameras, optische Sensoren und Radar-/Lidar-Systeme sind die Basis für moderne Fahrzeugtechnik. So sind die Rückfahrhilfe, Abstandstempomat oder Verkehrsschilderkennung nur mit Hilfe moderner Sensoren möglich. Gerade der Einsatz in Fahrzeugen stellt jedoch hohe Anforderungen an Betriebssicherheit und Zuverlässigkeit. Im Fahrzeugen ist die Sensorik Vibrationen, Schmutz, Feuchtigkeit sowie Hitze oder Kälte ausgesetzt. Um eine hohe Zuverlässigkeit autonomer Fahrzeuge zu erreichen, müssen die Sensortechnologien kombiniert werden. Diese Sensorfusion erlaubt es, Reichweite, Präzision und Zuverlässigkeit solcher Assistenzsysteme zu steigern. First Sensor als Sensorspzialist beliefert OEMs, Integratoren und Nachrüster auf verschiedenen Stufen der Wertschöpfungskette von Komponenten bis zu Modulen und kompletten Systemen.

Kameras für PKW und LKW sowie für Land-, Bau- und Bergbaumaschinen

Das Unternehmen entwickelt und produziert Kameras für PKW und LKW sowie für Land-, Bau- und Bergbaumaschinen. Mit integrierter digitaler Elektronik ist es möglich, die erzeugten Bilder über geeignete Softwarealgorithmen direkt in der Kamera zu analysieren und mit den Daten aus den Radar- oder Lidar-Systemen zu fusionieren. Zur Abstandsmessung und Erzeugung dreidimensionaler Bilder der Umgebung werden immer häufiger Lidar-Systeme in Fahrzeuge und mobile Maschinen integriert. Ein gepulster Laserstrahl misst die Laufzeit des Signals vom Objekt zurück zum Detektor. Damit entsteht letztendlich ein direktes Bild der Umgebung des Fahrzeugs.

„Schon in teilautonomen Fahrzeugen erkennen intelligente Kameras Geschwindigkeitsbegrenzungen oder Hindernisse auf der Straße. Sie helfen dabei, die Spur zu halten und Unfälle, die durch den toten Winkel entstehen können, zu vermeiden. Schon heute tragen wir auf diese Weise zu mehr Verkehrssicherheit bei”, erklärt CEO Dr. Dirk Rothweiler auf der Internetseite des Unternehmens. Im Zusammenspiel von Radar und der Lidar-Technologie werden die vernetzten Systeme in Zukunft auch das vollautonome Fahren ermöglichen.

Sensorfusion in der Produktion

Laut Rahman Jamal von National Instruments ist auch die smarte Fabrik ohne Sensor-Fusion nicht denkbar. Zur Steuerung von Prozessen erfassen Sensoren viele einzelne Parameter wie Temperatur, Position oder Bewegung. Oft ergibt sich jedoch erst aus der Kombination der Informationen unterschiedlicher Sensoren und Technologien ein umfassendes Bild. „Unter Sensor-Fusion bzw. Sensordaten-Fusion verstehen wir die Verknüpfung von Daten unterschiedlicher Sensoren, mit dem Ziel, fundiertere Entscheidungen zu treffen“, erläutert dazu Rahman Jamal, Global Technology & Marketing Director von National Instruments. „Bewertet man die Sensordaten unterschiedlicher Quellen einzeln und trifft daraufhin Entscheidungen, können diese unsicherer sein. Werden die einzelnen Quellen von vorneherein miteinander verknüpft und synchronisiert, lassen sich weit sicherere Informationen gewinnen.“ Oft sind die Messergebnisse eines Sensors nicht eindeutig. „Aus diesem Grund werden unter anderem Multisensorsysteme entwickelt, die mehrere Größen im System erfassen“, erklärt Jamal weiter. „Dabei handelt es sich um Netzwerke von Sensoren oder um integrierte Lösungen, die die Messung unterschiedlicher Messgrößen über ein einziges Sensorsystem erlauben. Das treibt die Sensor-Fusion voran, die eine kombinierte intelligente Signalverarbeitung mehrerer Messgrößen eines Multisensorsystems beschreibt.“

Gerade bei komplexen Prozessen in der Produktion haben sich solche Ansätze bereits bewährt. Ein Beispiel für die Kombination zweier Sensortechnologie zur Optimierung der Prozessergebnisse stellt der Messkopt von Micro-Epsilon dar, der zur automatischen Dickenmessung bei der Reifenproduktion eingesetzt wird. Laut Achim Sonntag, Leiter Anlagen/Systeme bei Micro-Epsilon Messtechnik in Ortenburg, führt diese Kombination zu einer deutlich höheren Genauigkeit. Das Thickness-Control-System wurde speziell für die Dickenmessung in der Reifenprofuktion direkt am Kalander entwickelt. In einem Messkopf wurden dazu zwei verschiedenen Sensor-Technologien integriert. Ein induktiver Sensor auf Wirbelstrombasis bestimmt den Abstand zur Oberfläche der Kalanderwalze mit hoher Genauigkeit. Ein optischer Laser-Triangulations-Sensor misst den Abstand zur Oberfläche der Gummibahn. Aus der Differenz der beiden Messwerte lässt sich die Dicke der Gummibahn präzise berechnen.

Der Wirbelstromsensor wird deswegen zur Ermittlung des Abstands vom Messkopf zur Walze verwendet, da er sozusagen durch den Gummi hindurch misst. Dies ist moglich, da nur metallische Objekte als Messobjekt herangezogen werden. Der Abstand zur Oberfläche der Gummibahn wird mit einem Laser-Triangulationssensor bestimmt. Optische Messmethoden liefern üblicherweise sehr genaue Ergebnisse, stoßen bei matten und dunklen Oberflachen aber an ihre Grenzen.

Bildverarbeitung im Industrieumfeld

Die industrielle Bildverarbeitung ist ein Beispiel dafür, wie die Mikroelektronik zu einer rasanten Entwicklung im Bereich der Industrie-Sensorik geführt hat. Sie gilt als eine der Schlüsseltechnologien zur Automatisierung von Produktionsprozessen und ist somit eine Grundvoraussetzung für Entwicklungen rund um Industrie 4.0. Sogenannte Embedded-Vision-Systeme liegen im Trend. Mit ihnen versuchen die Hersteller, Prozesssoren und Kameras besonders kostengünstig und für eine ganz bestimmte Anwendung herzustellen. Die Sensor-Integration kann hier maßgeblich zur Steigerung der Performance führen.

Um den stetig wachsenden Anforderungen an Machine-Vision mit minimaler Latenz gerecht zu werden, sind Innovationen unumgänglich. Daher arbeitet das Fraunhofer IIS/EAS in Dresden an Software-programmierbaren Bildsensoren, sogenannten Vision-Systems-on-Chip, basierend auf einer neuartigen Verarbeitungsarchitektur. Das Vision-System-on-Chip ist Kern einer modularen Systemlösung bestehend aus leistungsfähiger Kamerahardware und flexiblen Algorithmen; die Software spielt also auch hier zunehmend eine bedeutende Rolle.

Bildaufnahme unmittelbar mit der Bildverarbeitung vereint

„Unser Ansatz vereint die Bildaufnahme unmittelbar mit der Bildverarbeitung. Rechenintensive Verarbeitungsschritte zur Merkmalsextraktion werden softwaregesteuert direkt im Vision-System-on-Chip ausgeführt. So können die ausgegebenen Daten auf das relevante Minimum reduziert werden. Die integrierten Komponenten unserer Software Defined Smart Camera ermöglichen es, neben der Wahl der eigentlichen Bildverarbeitungsalgorithmen auch Parameter wie Genauigkeit, Auflösung und Abtastrate individuell an die jeweiligen Anforderungen anzupassen“, meint Dr. Jens Döge, Gruppenleiter Integrierte Bilderfassung & -verarbeitung beim Fraunhofer IIS in Dresden.

Um beim Beispiel Bildverarbeitung zu bleiben, Heiko Seitz von IDS Imaging sieht die wachsende Bedeutung integrierter Sensorik und der App-basierenden Lösungen: „Durch unser App-basiertes Funktionsprinzip sind Kameras zukünftig so wandlungsfähig wie Smartphones. Digitale Industriekameras erreichen damit eine neue Evolutionsstufe.“ Laut IDS können Anwender bestimmen, wie durch Vision-Apps Bildverarbeitungsaufgabe schnell und flexibel ausgeführt werden sollen. Aber auch maßgeschneiderte Lösungen sollen damit einfach realisierbar sein. Per App-Entwicklungskit können Anwendern individuelle Vision-Apps in wenigen Schritten selbst erstellen, auf den Kameras installieren und ausführen. Je nach App liefert die Kamera Ergebnisse oder Signale direkt an Maschinensteuerungen oder unterstützt PC-basierte Anwendungen mit vorverarbeiteten Daten. Hardwareseitig wird die Kameraplattform beim Hersteller durch einen zur Laufzeit programmierbaren FPGA unterstützt, eine von IDS entwickelte KI-Vision-App verwandelt diesen parallel arbeitenden FPGA in einen KI-Prozessor, der bereits bekannte Architekturen künstlicher neuronaler Netze ausführen kann. Solche Neuronalen Netze interpretieren mittlerweile komplexe Bildinhalte mit kaum erreichter Genauigkeit und bieten Lösungen, die sich durch die manuelle Programmierung mit grundlegenden Algorithmen bisher selbst mit hohem Aufwand nicht realisieren ließen. Anomalien erkennen, Früchte klassifizieren, Oberflächen prüfen, Leiterplatten und deren Bestückung verifizieren und vieles mehr; Sensor-Integration und Software machen es möglich.

Sensor-Integration als Zukunftsthema

Bei jeder Applikation stellt sich die Frage nach der optimalen Technologie. Der Sensorhersteller Sick bietet ein breites Portfolio von kompakten, einfach zu integrierenden Sensoren über konfigurierbare Stand-alone-Lösungen bis hin zu flexibel programmierbaren Hochgeschwindigkeits-Bildverarbeitungskameras für die Qualitätskontrolle in schnellen Prozesse. „Unsere große Auswahl an 2D- und 3D-Vision-Sensoren basiert auf jahrzehntelanger Erfahrung im Bereich der Vision-Technologie. Unsere Geräte sind die Basis für zukunftsweisende Lösungen zur Positionierung, Erfassung, Inspektion und Qualitätskontrolle“, erläutert Bernhard Müller, Senior Vice President Industry 4.0 bei Sick.

„Bis vor einigen Jahren haben Hersteller versucht, Sensoren für jede Anforderung zu entwickeln. Heute löst man die immer individueller werdenden Aufgabenstellungen durch neue Sensor-Software-Konzepte. Sick hat in diesem Feld mit dem Eco-System Sick AppSpace eine Plattform geschaffen, auf der anpassungsfähige Lösungen für Automatisierungsanwendungen ermöglicht werden können“, erklärte Bernhard Müller. Jetzt ist der Sensorhersteller einen Schritt weiter in Richtung Industrie 4.0 gegangen und bietet eine Lösung, die auf Basis von Deep-Learning-Algorithmen arbeitet.

Mit Sick AppSpace und den programmierbaren Sensoren hat das Unternehmen den Anwendern ein Tool für Edge-Computing-Lösungen und Sensor-Fusion an die Hand gegeben. Die Sensor Integration Machines verbinden die intelligenten Sensoren des Herstellers zu leistungsfähigen Multi-Sensor-Systemen. Sie erweitern und skalieren das Portfolio hinsichtlich der Rechenleistung und der Anzahl der Sensoranschlüsse. Jeweils ausgestattet mit Ethernet-Schnittstellen mit Kommunikationsprotokollen OPC-UA und MQTT stehen mit den Geräten Lösungen für das Edge-Computing zur Verfügung, die die intelligente Datenvernetzung in digitalen Fabriken ermöglichen. Umfangreiche Sensordaten können damit zu einer Punktwolke fusioniert, ausgewertet und archiviert werden. „Damit ergeben sich völlig neue Applikationen und ein riesiges Kreativitätspotenzial, das dem Maschinenbau sowie Integratoren weitere Lösungsmöglichkeiten eröffnet“, führt Bernhard Müller aus.

www.eas.iis.fraunhofer.de

www.first-sensor.com

de.ids-imaging.com

www.micro-epsilon.de

www.ni.com/de

Weitere Informationen zum Thema

http://hier.pro/izcWT


Dr. Dirk Rothweiler, CEO First Sensor
Bild: First Sensor

„Um eine hohe Zuverlässigkeit autonomer Fahrzeuge zu erreichen, müssen die Sensortechnologien kombiniert werden.“


Rahman Jamal, Business and Technology Fellow, Marketing at National Instruments
Bild: National Instruments

„Die smarte Fabrik ist ohne Sensor-Fusion nicht denkbar.“


Dr. Jens Döge, integrierte Bilderfassung & -verarbeitung, Fraunhofer IIS
Bild: Fraunhofer IIS

„Unsere Software Defined Smart Camera ermöglicht es, neben den Bildverarbeitungsalgorithmen auch Parameter anzupassen.“


Heiko Seitz, technischer Redakteur, IDS Imaging
Bild: IDS Imaging

„Durch unser app-
basiertes Funktionsprinzip sind Kameras zukünftig so wandlungs-
fähig wie Smartphones“


Bernhard Müller, Senior Vice President Industry 4.0, Sick
Bild: Sick

„Ausgestattet mit Ethernet-Schnittstellen und den Kommunikationsprotokollen OPC-UA und MQTT stehen Lösungen für das Edge-Computing zur Verfügung.“

Anzeige

Emerson: Pneumatik 4.0

Smartenance

Pneumatik 4.0 bei Emerson im Überblick

Video aktuell

Greiferintegration leicht gemacht: Die Zimmer Group zeigt, wie es geht.

Aktuelle Ausgabe

Newsletter

Jetzt unseren Newsletter abonnieren

Top-Thema Spannvorrichtungen

Spannvorrichtungen

Alles über Spannvorrichtungen und welches Einsparungspotenzial sie bieten

Top-Thema Schaltschränke

Alle Infos über den Schaltschrankbau mit seinen Komponenten, Geräten und deren Verdrahtung

Kalender

Aktuelle Termine für Konstrukteure

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Anzeige
Anzeige

Industrie.de Infoservice

Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de