Um schneller und effizienter reagieren zu können, benötigen Anwender Daten in Echtzeit. © Gantner Instruments GmbH
Nicht jeder Trend ist gekommen, um zu bleiben. Das gilt auch in der Messtechnik. Die Spezialisten von Gantner Instruments haben drei Trends ausgemacht, die ihrer Meinung nach ...
... die Arbeitsweisen künftig nachhaltig verändern werden.
Das Prüfen und Testen von Komponenten ist ein agiles Geschäft. Die zu prüfenden Strukturen und Systeme, sei es in der Automobilbranche, Luft- und Raumfahrt, im Energiesektor oder im Tiefbau, entwickeln sich schnell weiter und Datenerfassungssysteme müssen mit dieser Entwicklung Schritt halten. Gleichzeitig ist nicht jeder heiße Trend gekommen, um zu bleiben.
Gantner Instruments GmbH hat die drei wichtigsten Trends in der Messtechnik identifiziert, die ganz bestimmt nicht wieder verschwinden und sowohl den Testaufbau als auch die Arbeitsweise nachhaltig verändern werden.
1. Geschwindigkeit
Je schneller man misst, desto mehr Daten und desto höher die Auflösung. Die Hochgeschwindigkeitsmessung ist ein aufkommender Trend, nicht nur in der Automobilindustrie, sondern auch auf dem wachsenden Markt der elektrischen Antriebe. Ob es sich um die Prüfung von Elektroantrieben, Elektroantriebssträngen oder Batterien handelt – elektrische Parameter müssen immer schneller und mit maximaler Signalqualität geprüft werden.
Wer mit der Hochgeschwindigkeitsmessung vertraut ist, der kennt auch die große Herausforderung, die damit einhergeht: die Datenlawine. Je schneller gemessen wird, desto höher ist die Datenmenge, die verarbeitet und in aussagekräftige Erkenntnisse umgesetzt werden muss.
Der Trend geht daher zu Datenerfassungslösungen, die große Volumen an Daten analysieren, managen und speichern können und die zudem flexibel an unterschiedliche Testsituationen angepasst werden können.
2. Intelligente Datenverarbeitung
Um schneller und effizienter reagieren zu können, benötigen Anwender Daten in Echtzeit. Je nach Art der Messung, der Dauer und der Abtastfrequenz kommt daher eine überwältigende Datenmenge auf sie zu. Die Herausforderung besteht nicht nur darin, die Daten zu sammeln, sondern diese auch zuverlässig zu speichern und zu analysieren. Um dieses Ziel zu erreichen, benötigt man eine Lösung, die eine schnellere und effizientere Handhabung großer Datenströme bietet. Eine Möglichkeit, mit der ein intelligentes Daten-Backend arbeiten kann, ist zum Beispiel die Unterscheidung zwischen heißen und kalten Daten und die unterschiedliche Behandlung dieser Datentypen. Rohdaten und Daten, auf die weniger häufig zugegriffen wird und die nur für die Validierung oder Testnachbearbeitung benötigt werden („kalte Daten“), werden in einer verteilten Streaming-Plattform gespeichert, die äußerst effizient skaliert. Wenn neue Variablen aus Hunderttausenden von Abtastwerten pro Sekunde und aus Hunderten von Kanälen gleichzeitig gespeichert, verarbeitet und berechnet werden müssen, wird diese verteilte Streaming-Architektur ihre Stärke und Leistungsfähigkeit zeigen.
Sogenannte „heiße Daten“, also Messdaten, auf die für die Analyse sofort zugegriffen werden muss, werden in einer lokalen Zeitreihendatenbank bereitgestellt. Diese Datenbank speichert die Daten sicher in redundanten, fehlertoleranten Clustern. Alle Messdaten werden automatisch gesichert. Eine flexible Datenaggregation stellt sicher, dass die Messdaten kontinuierlich mit vordefinierten Abtastraten von der Streaming-Plattform zur Datenbank verarbeitet werden.
Die gleichen Daten können jedoch mit einer höheren Abtastrate wiedergegeben und gespeichert werden, falls eine detaillierte Analyse für ein unerwartetes Ereignis oder einen Probenausfall erforderlich ist. Dieser Ansatz minimiert die Investitionskosten für die IT- und Speicherinfrastruktur im Testlabor, während die notwendige Rechenleistung für testkritische Datenanalyseaufgaben erhalten bleibt.
Unabhängig von der genauen Lösung, um ein reibungsloses Surfen auf jeder Datenlawine zu gewährleisten, sind Anwender auf ein intelligentes Daten-Backend angewiesen, das Dienste für die Konnektivität enthält und für hochleistungsfähige Edge-Computing-Dienste anpassbar und skalierbar ist.
Als angenehmen Nebeneffekt bietet ein verteiltes und skalierbares Daten-Backend noch mehr Kontrolle über das Preis-Leistungs-Verhältnis, da man von überall auf der Welt auf den Testaufbau und die Daten zugreifen kann. Ingenieurteams auf dem Globus verteilt oder der größte Kunde benötigt schnell Unterstützung, egal in welcher Zeitzone: Beides kein Problem mit einem skalierbaren Daten-Backend!
3. Modularität
Apropos Preis-Leistungs-Verhältnis – dieser Trend ist der heilige Gral. Laufende Kosten niedrig halten und gleichzeitig die beste Leistung erbringen. Aber wie kann man das auf dem heutigen, schnelllebigen Markt erreichen? Der Schlüssel eines optimalen Kosten-Leistungs-Verhältnisses beim Testen heißt: Modularität. Ein modularer Ansatz für die Testausrüstung bietet Skalierbarkeit und Flexibilität. Die Beibehaltung einer grundlegenden Hardware- und Software-Plattform, die leicht mit neuen Technologien wie Hochgeschwindigkeits- oder Glasfasermessungen erweitert werden kann, reduziert die Kapitalinvestitionen. Der Trend geht also zu modularen Lösungen, die abwärtskompatibel sind und dadurch die Lebensdauer der Ausrüstung verlängern und Wartungskosten senken.
Im Auge behalten
Alle drei Trends weisen in dieselbe Richtung. Da sich die zu testenden Strukturen und Systeme rasant verändern, sollten Datenerfassungssysteme so aufgebaut werden, dass sie modular erweiterbar sind und mit den großen Datenvolumen, die durch immer schnellere Messungen und Echtzeit-Messungen entstehen, gut zurechtkommen. Diese Trends sollte man beim Aufbau des nächsten Test-Setups im Auge behalten. (BS)