Sanjay Jhawar, Mitbegründer und Chief Strategy Officer, RealWear
Die RealWear Navigator™ 500-Lösung bietet eine Frontline-Plattform für vernetzte Mitarbeiter zur Integration mehrerer SLAM-Erfahrungen (Assisted Reality und Augmented Reality) in eine leistungsstarke Industrielösung
RealWear Navigator™ 500-Lösung ist unsere brandneue Produktplattform für am Kopf montierte Geräte, die speziell dafür entwickelt wurde, die Mitarbeiter an vorderster Front für die nächsten Jahre zu motivieren, zu stärken und zu fördern. Aufbauend auf der gesammelten Erfahrung der letzten vier Jahre, in der wir mit 5000 Unternehmenskunden in 60 Ländern mit Lösungen auf Basis unserer HMT-1™- und HMT-1Z1™-Plattformen zusammengearbeitet haben, bringt dieses neue Produkt gezielte Innovationen in allen wichtigen Schlüsselbereichen Erzielen solider Ergebnisse in großem Maßstab.
RealWear ist bekannt für den Aufbau und die Gewinnung wichtiger Kundenimplementierungen für Frontline-Worker-Lösungen basierend auf „unterstützte Realität“. Das Kernkonzept von unterstützte Realität ist, dass es einen anderen Kompromiss eingeht als Mixed Reality. Assisted Reality eignet sich besser für die meisten industriellen Anwendungsfälle, bei denen die Benutzersicherheit an erster Stelle steht. Die Ziele der unterstützten Realität bestehen darin, die Aufmerksamkeit des Benutzers in der realen Welt zu halten, mit einer direkten Sichtlinie, die zum größten Teil nicht von digitalen Objekten oder „Hologrammen“ verdeckt wird, die einen zusätzlichen kognitiven Fokus für die Verarbeitung durch den Menschen erfordern.
Situationsbewusstsein in Bezug auf fahrende Maschinen, sich nähernde Gabelstapler oder andere Fahrzeuge, Dampfauslassventile, Rutsch- und Stolpergefahren sowie elektrische und chemische Gefahren sind für die Kunden von RealWear von entscheidender Bedeutung. Dies sind die gleichen Arbeitsumgebungen, die eine spezielle persönliche Schutzausrüstung für Sicherheitsbrillen und Schutzbrillen, Schutzhelme, Gehörschutz, schwere Handschuhe und sogar Atemschutzgeräte vorschreiben. Benutzer in diesen Situationen benötigen meistens beide Hände, um Werkzeuge und Geräte zu verwenden oder sich an Geländern, Seilen usw. oder Gesten in die Luft zu malen. Die Assisted-Reality-Lösungen von RealWear basieren auf einer Spracherkennung, die sich in sehr lauten Umgebungen bewährt hat, sowie der minimalen Nutzung der Kopfbewegungserkennung. Die Plattform verwendet ein einzelnes gelenkiges Mikrodisplay, das leicht angepasst werden kann, um unter dem dominanten Auge zu sitzen, das die direkte Sicht nicht behindert und dem Benutzer eine Ansicht ähnlich einem 7-Zoll-Tablet-Bildschirm auf Armeslänge bietet.
Ein Kernkonzept von gemischte Realität war die Platzierung virtueller digitaler 3D-Objekte, die der physischen Welt überlagert wurden – wie 3D-Modelle oder Animationen. Dies erfordert zwei stereoskopische durchsichtige Displays, die auf einen Fokuspunkt gebracht werden, der sich typischerweise nicht in derselben Ebene wie das reale Objekt befindet. Das Ergebnis Vergenz-Akkommodations-Konflikt – wo die größere Konvergenz der Augen beim Betrachten naher Objekte im Konflikt mit der Brennweite oder der Akkommodation der Augenlinse steht, die erforderlich ist, um das digitale Bild scharf zu stellen – ist eine Quelle für Augenermüdung, Unbehagen und in einigen Fällen Kopfschmerzen nach längerer Zeit benutzen. Darüber hinaus haben Mixed-Reality-Displays unter hellen Bedingungen, insbesondere im Freien, Schwierigkeiten, einen ausreichenden Kontrast zur realen Welt zu bieten, und schneiden daher immer entweder durch abgedunkeltes Glas eine erhebliche Menge Licht von der realen Welt ab oder müssen eine so helle Anzeige erzeugen, dass der Akku Die Lebensdauer ist sehr kurz, es sei denn, es ist mit einem Kabel an einen separaten Akkupack angeschlossen. Beide Situationen tragen bei längerem Gebrauch zur Überanstrengung der Augen bei.
Mixed-Reality-Anwendungen ermöglichen jedoch das Überlagern von Informationen mit realen Objekten, was in einigen Anwendungsfällen die Produktivität bei der Identifizierung des zu bearbeitenden Objekts zusätzlich steigern kann.
Wie könnte dieser Kompromiss gelöst werden? Ist es möglich, Informationen in der realen 3D-Welt zu taggen oder zu überlagern und gleichzeitig Sicherheit, Situationsbewusstsein, geringe Augenbelastung, freihändige Nutzung und Batterielebensdauer für eine ganze Schicht aufrechtzuerhalten?
Wir glauben seit langem, dass die Antwort darin liegt, die Menge an „Assistenz“ in der unterstützten Realität zu verstärken, anstatt sich nur auf die Menge der Realität zu konzentrieren, mit machthungrigem, weitem Sichtfeld, superhellem Stereoskop, transparent und ultrahoch Auflösung angezeigt. Mit fortschrittlichen Kamerafunktionen und Computer-Vision-Verarbeitung können wichtige Informationen über reale Assets auf der Kameraansicht platziert werden, die auf dem einzelnen, monokularen, nicht durchsichtigen (undurchsichtigen) Display angezeigt wird.
Transition Technologies PSC hat sich mit RealWear zusammengetan, um die Zukunft der unterstützten Realität in industriellen Umgebungen mit einer SLAM-Lösung zu demonstrieren, wie im obigen Video beschrieben
Mit dem starten des RealWear Navigator 500-Lösung, der Assisted-Reality-Plattform der zweiten Generation von RealWear, freuen wir uns, die Zukunft bereits heute zu präsentieren. Unser langjähriger Partner, Übergangstechnologien PSC hat in Zusammenarbeit mit uns seine verbessert SkillWorx Connected Worker-Anwendung für das neue Gerät.
Transition Technologies PSC hat mehrere Funktionen seiner Computer-Vision- und Anwendungssoftwareplattform mit neu verbesserten Funktionen in der RealWear Navigator 500-Lösung kombiniert.
Die RealWear Navigator 500-Lösung verfügt über ein Kamerasystem mit 48 Megapixeln, das eine hervorragende Videoaufnahmeleistung bei schwachem Licht ermöglicht, indem 4 Pixel zu einem kombiniert werden, sowie die Möglichkeit, den Sensor selbst zu vergrößern, um das Bild zu vergrößern und dennoch eine hochwertige Ausgabe für ein Standbild beizubehalten Erfassung. Darüber hinaus wurde die Bildstabilisierung weiter verbessert, indem zusätzliche Sätze von Beschleunigungsmessern im Gerät genutzt werden, um seine Ausrichtung und Bewegung während der Videoaufnahme besser zu erfassen.
SkillWorx bringt Computer Vision an den Rand und kombiniert Videoanwendungssoftware, die auf der RealWear Navigator 500-Lösung ausgeführt wird, mit leistungsstarken GPU-Servern, die entweder vor Ort oder in der Cloud ausgeführt werden. In Echtzeit werden Punkte im Video-Feed als zu einem realen Objekt gehörend erkannt und von Bild zu Bild verfolgt, wodurch aus dem 2D-Video ein lokales 3D-Koordinatensystem – bekannt als Punktwolke – generiert wird. Sobald das System mit der Verfolgung beginnt, werden die Positionen realer Objekte erkannt und identifiziert, obwohl sich das Sichtfeld und die Position der am Kopf montierten Kamera ändern, wenn sich der Benutzer bewegt. Insgesamt stellt dies eine Implementierung von Simultaneous Localization and Mapping oder SLAM dar.
„Ganz am Anfang unserer Partnerschaft mit RealWear haben wir uns entschieden, uns auf Simultaneous Localization And Mapping (SLAM) zu konzentrieren, um Wissen als Dienstleistung anzubieten und die menschlichen Sinne auf unaufdringliche Weise zu verstärken“, sagte Adam Gąsiorek, CTO und Mitinhaber von Transition Technologies PSC. „Wir haben räumliche Intelligenz in RealWear HMT-1 eingeführt, um kontextbezogen zu zeigen, was, wo und wie es getan werden sollte, und wie dokumentiert werden kann, was vom Frontline-Mitarbeiter getan wurde. Mit der Weiterentwicklung der RealWear-Plattform und der Einführung der Lösung RealWear Navigator 500 können wir zeitintensive Handarbeit auch unter schwierigeren Bedingungen unterstützen. Zeit ist heutzutage eine wertvollere Ressource als Geld. Für viele industrielle Situationen ist Zeit wertvoller als die Währung selbst – es ist die eine Ressource, die wir nicht ersetzen oder auffüllen können, egal wie wohlhabend wir sind. Mit der Lösung von SkillWorx und RealWear Navigator 500 erledigen wir zeitaufwändige Aufgaben und machen sie viel weniger zeitaufwändig, ohne die Arbeitssicherheit oder den Komfort zu opfern.“
Das Video zeigt einen Benutzer im Rohrraum eines Gebäudes, der Objekte wie Ventile und Rohre dynamisch mit Sprachbefehlen markiert. Diese Objekte werden persistent und werden auch dann erkannt, wenn sie aufgrund der Bewegungen des Benutzers den Rahmen verlassen und später zurückkehren. Einmal getaggt, können sie zu einem späteren Zeitpunkt von einem anderen Benutzer mit einem zweiten Gerät erkannt werden. Das Szenario im Video kombiniert Fernunterstützung mit Live-Kommentaren, räumlich gekennzeichneten Arbeitsanweisungen, Rohrdruckmessungen von IoT-Sensoren und Zugriff auf technische Dokumentation für ein Gasventil. Dank der Kamerafunktionen der RealWear Navigator 500-Lösung leistet das Gerät auch bei schlechten Lichtverhältnissen und an schwer zugänglichen Stellen eine gute Leistung, da der Telemodus von RealWear in SkillWorx integriert wurde. Die Anwendung 100% wird freihändig mit geräuschrobusten Sprachbefehlen betrieben, die auch mit dem nahen lauten Geräusch des aus dem Ventil entweichenden Luftdrucks gut funktionieren.
Aus dem obigen Video ist leicht ersichtlich, wie ein solches System die Genauigkeit und Geschwindigkeit der Inspektions- und Wartungsaufgaben von Mitarbeitern an vorderster Front verbessert. Doch jetzt kommt eine solche Produktivität auch mit maximalem Situationsbewusstsein und erhöhter Sicherheit und funktioniert gut mit einem monokularen Display und ohne Blockierung der direkten oder peripheren Sicht, im Gegensatz zu vielen Mixed-Reality-Lösungen. Dieses System kann eine ganze Schicht mit einer einzigen Batterie unterstützen.
Sind Hologramme also doch der heilige Gral? Oder ist diese kontextbezogene, live verfolgte 3D-SLAM-Lösung auf einem 2D-Display – vielleicht könnten wir das so nennen 2.5D unterstützte Realität – der wahre Sweet Spot für den Mitarbeiter an vorderster Front, der seine konstante Außendienstarbeit sicher erledigt? Die Wearable-Lösung RealWear Navigator 500 und PSC SkillWorx von Transition Technologies zeigen gemeinsam die Leistungsfähigkeit dieser Plattformen der nächsten Generation in Aktion.